Search (134 results, page 1 of 7)

  • × theme_ss:"Dokumentenmanagement"
  1. Schöhl, W.: ¬Ein umfassendes Datenbanksystem für Print, Radio, Fernsehen und das Internet : Die Online-Anbindung, Adressverwaltung, Bürokommunikation und Medienanalyse (1997) 0.08
    0.08184266 = product of:
      0.16368532 = sum of:
        0.048657253 = weight(_text_:und in 6557) [ClassicSimilarity], result of:
          0.048657253 = score(doc=6557,freq=20.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.46462005 = fieldWeight in 6557, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6557)
        0.07342099 = weight(_text_:anwendung in 6557) [ClassicSimilarity], result of:
          0.07342099 = score(doc=6557,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 6557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=6557)
        0.04160709 = weight(_text_:des in 6557) [ClassicSimilarity], result of:
          0.04160709 = score(doc=6557,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.31797147 = fieldWeight in 6557, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=6557)
      0.5 = coord(3/6)
    
    Abstract
    Es wird die Verknüpfung des Multimedia-Pressesystems mit den wichtigsten Online-Datenbanken von Zeitungen, Zeitschriften, Nachrichtenagenturen und em Internet vorgestellt. Mittels Direkt-Importprogrammen können alle Dokumente aus Online-Datenbanken feldweise in die interne Mediendatenbank heruntergeladen werden und stehen somit zur Medien- und Imageanalyse zur Verfügung. Durch die angebundene Imageverwaltung können die Online-Artikel durch Bilder oder Images der Printversion ergänzt werden. Die integrierte Personen- und Firmendatenbank sowie die Anbindung einer Journalistendatenbank an alle Arten von Mediendokumenten erweist sich als vorteilhaft für die Aufdatierung von Verteilern und die rasche Reaktion auf Medienereignisse. Die Datenbank für Bürokommunikation kann für die Verwaltung von Schriftverkehr auf ähnliche Weise wie die Mediendatenbank benutzt werden, was den Einarbeitungsaufwand minimieren soll. So kann an das Voicetype-Spracherkennungssystem von IBM angekoppelt werden, um so etwa das Abstracting bei Hörfunk- und Fernsehberichten zu vereinfachen. Die Dokumente des gesamten Datenbanksystems können schließlich über Intranet- und Internetanbindung relativ einfach und kostengünstig verteilt werden. Insgesamt soll die konsequente Anwendung solcher Datenbanksysteme zu einer Produktivitätssteigerung von 50-100% führen
    Footnote
    Fortsetzung des Teils 1 in NfD 47(1996) H.6, S.323-333.
  2. Peters-Kottig, W.: Anwendung von OPUS für Forschungsdaten : das Beispiel eines außeruniversitären Forschungsinstituts (2018) 0.07
    0.07238789 = product of:
      0.14477578 = sum of:
        0.031092454 = weight(_text_:und in 4351) [ClassicSimilarity], result of:
          0.031092454 = score(doc=4351,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.2968967 = fieldWeight in 4351, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4351)
        0.08565781 = weight(_text_:anwendung in 4351) [ClassicSimilarity], result of:
          0.08565781 = score(doc=4351,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 4351, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4351)
        0.028025504 = weight(_text_:des in 4351) [ClassicSimilarity], result of:
          0.028025504 = score(doc=4351,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 4351, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4351)
      0.5 = coord(3/6)
    
    Abstract
    OPUS wurde als Dokumentenserver konzipiert und ursprünglich nicht für den Nachweis von Forschungsdaten angelegt. Mit vergleichsweise geringem Aufwand können dennoch Forschungsdaten als Supplementary Material zu Zeitschriftenbeiträgen publiziert werden. Auch reine Forschungsdatenpublikationen können via OPUS veröffentlicht werden, selbst wenn die gegenwärtig auf Textpublikationen zugeschnittene Metadatenerfassung weniger gut für die Beschreibung reiner Forschungsdaten geeignet ist. Ein Unterschied zu anderen Systemen und Anwendungsszenarien besteht in der Beschränkung, großvolumige Daten nicht innerhalb von OPUS selbst vorzuhalten. Der für das institutionelle Repository des Zuse-Instituts Berlin konzipierte pragmatische Lösungsansatz ist in OPUS ohne zusätzliche Programmierung umsetzbar und skaliert für beliebig große Forschungsdatensätze.
  3. Hesselbarth, A.: What you see is all you get? : Konzept zur Optimierung des Bildmanagements am Beispiel der jump Fotoagentur (2008) 0.05
    0.052617367 = product of:
      0.105234735 = sum of:
        0.036266975 = weight(_text_:und in 1938) [ClassicSimilarity], result of:
          0.036266975 = score(doc=1938,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34630734 = fieldWeight in 1938, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1938)
        0.052963227 = weight(_text_:des in 1938) [ClassicSimilarity], result of:
          0.052963227 = score(doc=1938,freq=14.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.40475783 = fieldWeight in 1938, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1938)
        0.016004534 = product of:
          0.03200907 = sum of:
            0.03200907 = weight(_text_:22 in 1938) [ClassicSimilarity], result of:
              0.03200907 = score(doc=1938,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.19345059 = fieldWeight in 1938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1938)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Thema dieser Arbeit ist eine Untersuchung des digitalen Bilderhandels. Es wird die Akzeptanz und die Nutzung von Bilddatenbanken in der Bildbranche analysiert, mit dem Ziel, ein Optimierungskonzept für die Bilddatenbank der jump Fotoagentur zu entwerfen. Zur Einführung werden die Grundlagen der Bildbranche erläutert und auf die Beteiligten und ihre Aufgabenbereiche eingegangen. Es folgt eine Darstellung der Entwicklung der Digitalisierung und den dadurch verursachten Wandel des Bildermarktes. Im Anschluss werden die Möglichkeiten des Bildmanagements und deren Zusammenhang mit der Bildvermarktung aufgezeigt. Weiterhin wird das Bildmanagement-System der jump Fotoagentur näher beschrieben. Mit Hilfe der gewonnen Ergebnisse aus der durchgeführten Befragung wird ein Konzept zur Verbesserung dieses Systems erstellt. Die Erkenntnisse werden zusammengefasst und ein Ausblick auf die Zukunft des digitalen Bilderhandels gegeben.
    Content
    Inhaltsverzeichnis: 1. Einleitung 2. Grundlagen der Bildbranche 2.1. Aufbau der Bildbranche 3. Zur Situation des Bildermarktes 3.1. Entwicklung der Digitalisierung 3.2. Internationalisierung und Global Player 3.3. Folgen der Digitalisierung 4. Bildmanagement - Bildmarketing 4.1. Kataloge 4.2. Bilddatenbanken 4.3. Portale 5. Die jump Fotoagentur 5.1. Die Agentur 5.2. Das Bildarchiv 5.3. Die Bilddatenbank 5.4. Der Digitalisierungsprozess 6. Befragung zur Nutzung der jump-Datenbank 6.1. Konzeption der Befragung 6.2. Durchuehrung der Digitalisierung 6.3. Auswertung der Befragung 6.4. Ergebnisse der Befragung 7. Konzept zur Optimierung des Bildmanagements 8. Zusammenfassung und Ausblick
    Date
    22. 6.2008 17:34:12
  4. Meiss, B.: Information Retrieval und Dokumentmanagement im Multimedia-Zeitalter (1997) 0.05
    0.05091106 = product of:
      0.10182212 = sum of:
        0.034405876 = weight(_text_:und in 710) [ClassicSimilarity], result of:
          0.034405876 = score(doc=710,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.328536 = fieldWeight in 710, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=710)
        0.03397204 = weight(_text_:des in 710) [ClassicSimilarity], result of:
          0.03397204 = score(doc=710,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.25962257 = fieldWeight in 710, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=710)
        0.03344421 = product of:
          0.06688842 = sum of:
            0.06688842 = weight(_text_:thesaurus in 710) [ClassicSimilarity], result of:
              0.06688842 = score(doc=710,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.30633712 = fieldWeight in 710, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=710)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    "Das Buch ist ein praxisbezogenes VADEMECUM für alle, die in einer Welt der Datennetze Wissen/Informationen sammeln, ordnen und Relevantes aus der stetig anwachsenden Informationsflut wiederfinden müssen (Retrieval). Behandelt werden alle Bedingungen, die für Aufbau und Pflege einer Datenbank notwendig sind. Themen wie der Wert eines Thesaurus als Basis geordneten Wissens werden dabei ebenso erfaßt wie die Indexierungspraxis, die Vor- und Nachteile von Volltextsystemen sowie moderne Verfahren. Hier geht es um Dokument-Management-Systeme, das Prinzip des Data-Warehouse, optische Archivsysteme und Informationsverbünde. Internationale Datenbanken sowie das technische Umfeld in der Medienwelt werden bis hin zum Internet angesprochen. Ein Ausblick in die Zukunft des Dokumentars runden das Werk ab
  5. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.05
    0.04943315 = product of:
      0.0988663 = sum of:
        0.050252996 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.050252996 = score(doc=1515,freq=48.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.035809677 = weight(_text_:des in 1515) [ClassicSimilarity], result of:
          0.035809677 = score(doc=1515,freq=10.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.27366623 = fieldWeight in 1515, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.012803626 = product of:
          0.025607252 = sum of:
            0.025607252 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.025607252 = score(doc=1515,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  6. Toebak, P.: ¬Das Dossier nicht die Klassifikation als Herzstück des Records Management (2009) 0.04
    0.043472037 = product of:
      0.08694407 = sum of:
        0.036266975 = weight(_text_:und in 3220) [ClassicSimilarity], result of:
          0.036266975 = score(doc=3220,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34630734 = fieldWeight in 3220, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3220)
        0.03467257 = weight(_text_:des in 3220) [ClassicSimilarity], result of:
          0.03467257 = score(doc=3220,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2649762 = fieldWeight in 3220, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3220)
        0.016004534 = product of:
          0.03200907 = sum of:
            0.03200907 = weight(_text_:22 in 3220) [ClassicSimilarity], result of:
              0.03200907 = score(doc=3220,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.19345059 = fieldWeight in 3220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3220)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Die September/Oktober-Ausgabe 2009 der IWP ist eine Schwerpunktausgabe zum Records Management. Es ist interessant, dass einmal aus fachlich ganz anderer Perspektive auf diese Management- Disziplin geschaut wird. Viele Aspekte werden angesprochen: Terminologie, Rolle des Archivwesens, Interdisziplinarität, Langzeitaufbewahrung und Standardisierung. Im Artikel "Wissensorganisation und Records Management. Was ist der 'state of the art'?" steht die Wissensorganisation als Schwachstelle des Records Management zentral. Dies zu Recht: Das logische Datenmodell von DOMEA - das Gleiche gilt für GEVER und ELAK - entspricht beispielsweise nicht in allen Hinsichten der Geschäftsrealität. Daraus entstehen für die Mitarbeitenden im Arbeitsalltag öfters mehr Verständnisprobleme als sie bewältigen können oder wollen. Die systemische Unterstützung der eingesetzten EDRMS (nicht alle Produkte verdienen übrigens diesen Namen) wird dadurch geschwächt. Die Wissensorganisation genügt in vielen Fällen (noch) nicht. Das Problem liegt allerdings weniger bei der Klassifikation (Aktenplan), wie Ulrike Spree meint. Auch hier kommen Anomalien vor. Ein Ordnungssystem im Records Management umfasst mehr als nur die Klassifikation. Zudem dürfen die prinzipiellen, inhärenten Unterschiede zwischen Records Management einerseits und Wissens- und Informationsmanagement andererseits nicht vergessen gehen. Nicht die Klassifikation ist beim Records Management das zentrale Werkzeug der Informationsrepräsentation und -organisation, sondern die saubere Dossierbildung und die stringente, strukturstabile Umsetzung davon im Datenmodell. Hierauf geht die Autorin nicht ein. Ich werde aus dieser Sicht auf ihren Beitrag in der Schwerpunktausgabe reagieren.
    Date
    6.12.2009 17:22:17
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.8, S.443-446
  7. Mertens, T.: Vergleich von Archiv- und Dokumentenmanagementsystemen für die betriebliche Anwendung (2000) 0.04
    0.04296627 = product of:
      0.1288988 = sum of:
        0.055477805 = weight(_text_:und in 4651) [ClassicSimilarity], result of:
          0.055477805 = score(doc=4651,freq=26.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.5297484 = fieldWeight in 4651, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
        0.07342099 = weight(_text_:anwendung in 4651) [ClassicSimilarity], result of:
          0.07342099 = score(doc=4651,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 4651, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
      0.33333334 = coord(2/6)
    
    Abstract
    Ziel der vorliegenden Arbeit ist die Untersuchung der funktionalen und nicht-funktionalen Aspekte von Dokumentenmanagement- und Archivsystemen. Hierzu zählen auf der Seite der nicht-funktionalen Aspekte z.B. Benutzeroberfläche, Architektur, Interoperabilität, Integrationsfähigkeit etc. Diese Aspekte werden klassifiziert, priorisiert und bewertet. Hierbei müssen auch die Beziehungen zwischen den einzelnen Aspekten wie z.B. Substitutivität, Komplementarität und Konkurrenz berücksichtigt werden. Das Ergebnis dieser Untersuchung ist eine sog. Zielhierarchie. Anschließend sollen in einer Marktanalyse verschiedene Dokumentenmanagement- und Archivsysteme verglichen werden. Hierzu wird eine Bewertungsmethode, die die o.g. Zielhierarchie berücksichtigt, erarbeitet und danach auf die Menge der zu untersuchenden Systeme angewendet. Das Ergebnis dieser Marktanalyse ist die Beschreibung von Dokumentenmanagement- und Archivsystemen und die Ermittlung gemeinsamer funktionaler und nicht-funktionaler Aspekte, die viele dieser Systeme gemein haben und somit ein Anzeichen für grundlegende Funktionalität ist, aber auch das Erkennen von fehlenden, aber notwendigen bzw. wünschenswerten Funktionalitäten. Aufgrund dieses Ziels und der Nutzung eines formalen Bewertungsverfahrens unterscheidet sich die vorliegenden Arbeit von anderen Publikationen, in denen ebenfalls Dokumentenmanagement- und Archivsysteme verglichen werden.
  8. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.04
    0.04228063 = product of:
      0.08456126 = sum of:
        0.039728485 = weight(_text_:und in 1513) [ClassicSimilarity], result of:
          0.039728485 = score(doc=1513,freq=30.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3793607 = fieldWeight in 1513, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.03202915 = weight(_text_:des in 1513) [ClassicSimilarity], result of:
          0.03202915 = score(doc=1513,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 1513, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.012803626 = product of:
          0.025607252 = sum of:
            0.025607252 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
              0.025607252 = score(doc=1513,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.15476047 = fieldWeight in 1513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1513)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Elektronische Pressearchive bieten einen schnellen und bequemen Zugriff auf einzelne Presseartikel. Während die ersten elektronischen Pressearchive noch mit Referenzdatensätzen arbeiteten und den gesamten Text nur als Bilddatei ablegten, ermöglichen verbesserte Speicherkapazitäten heute die Archivierung vollständiger Texte, mit Hilfe einer guten OCR-Erkennung sind zudem alle Wörter des Textes im Volltext recherchierbar. Der punktuelle Zugriff auf ein spezielles Dokument ist also prinzipiell bereits ohne die Nutzung beschreibender Daten möglich. Je spezifischer, eindeutiger und seltener der gesuchte Begriff ist, desto schneller kann ein passendes Dokument gefunden werden - oft war dies in einer konventionellen Sammlung gerade nicht der Fall, hier mußte man manchmal mit Geduld die "Stecknadel im Heuhaufen" suchen. Sog. "Volltextarchive" finden sich in großer Zahl im Internet, jeder kann dort über die Eingabe eines oder mehrerer Wörter nach Presseartikeln suchen, wird aber schnell feststellen, daß die auf diesem Weg erzielte Treffermenge nicht zu vergleichen ist mit der Anordnung von Presseausschnitten, die mit Hilfe einer Klassifikation in eine Aufstellungssystematik gebracht wurden. Diese Zugriffsmöglichkeit wird in professionell arbeitenden Archiven verständlicherweise als unzureichend empfunden, und aus diesem Grund werden ausgewählte Presseartikel weiterhin inhaltlich erschlossen, es werden also zusätzliche rechercherelevante Daten produziert. Diese beim Indexat erstellten Metadaten setzen sich zusammen aus Formaldaten, evtl. künstlichen Ordnungsmerkmalen, Sachbegriffen und natürlich Eigennamen wie z.B. Namen von Personen, Körperschaften, Ländern, Sendetiteln und anderen Individualbegriffen. Präzise Begriffe mit eindeutiger Benennung und Eigennamen können im elektronischen Archiv hervorragend recherchiert werden, denn in einer elektronischen Datenbank funktioniert die Suche technisch ohnehin nur nach eindeutigen Schriftzeichen, also nach geordneten Buchstaben und Zahlen. Diese "rechnerimmanente" Technik hat die Vorstellung, alles über die bloße Eingabe von Wörtern zu suchen, möglicherweise noch voran getrieben. Auch die Popularisierung von Suchmaschinen im Internet hat dazu beigetragen, diese Suchmöglichkeit für die einzig wahre zu erachten. Wie steht es aber mit der thematischen Suche? Systematischer und alphabetischer Zugriff ist ja keine Entweder-Oder-Frage: es kommt auf die Suchanfrage an! Wir postulieren also: beides sollte möglich sein.
    Die bis heute gültige Grundkonzeption einer Klassifikation für die elektronische Pressedatenbank im WDR wurde seit 1989 von Klaus Leesch und Mitarbeitern entwickelt. Die inhaltliche Ausgestaltung und Strukturierung erfolgte durch verschiedene Mitarbeiter des Pressearchivs. Mit Beginn der Digitalisierung 1993 kam die erste Klassifikation ("PARIS-Klassifikation") zum Einsatz, sie wurde in den folgenden Jahren von Dr. Bernhard Brandhofer mehrmals überarbeitet und hin zu einer archivübergreifenden Klassifikation ("D&A-Klassifikation") erweitert. Seit August 1999 ist diese Klassifikation die Grundlage der inhaltlichen Erschließung für die kooperierenden ARD-Pressearchive. Die letzte Überarbeitung fand 2000/2001 in der AG Erschließung des PAN (Presse-Archiv-Netzwerk der ARD) in Zusammenarbeit von Mitarbeitern des NDR, SWR und WDR statt und kommt ab Mai 2001 zum Einsatz (PAN-Klassifikation).
    Date
    28. 4.2003 13:35:22
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  9. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.04
    0.04127187 = product of:
      0.08254374 = sum of:
        0.043520372 = weight(_text_:und in 1833) [ClassicSimilarity], result of:
          0.043520372 = score(doc=1833,freq=64.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 1833, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.02942065 = weight(_text_:des in 1833) [ClassicSimilarity], result of:
          0.02942065 = score(doc=1833,freq=12.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.22483975 = fieldWeight in 1833, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.00960272 = product of:
          0.01920544 = sum of:
            0.01920544 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
              0.01920544 = score(doc=1833,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.116070345 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
    Vorliegender Band umgreift den gegenwärtigen Stand der Diskussion um das Handling von Informationen in und mit Hilfe von neuen und alten Medien und liefert außerdem dem Verein Fortbildung für Medienarchivare/ Mediendokumentare (VFM), der seit dem 5. Band die Reihe herausgibt, eine weitere Handreichung für die zusammen mit dem Deutschen Institut, für publizistische Bildungsarbeit in Hagen veranstalteten Seminare. Im Anhang sind außer den vollständigen Programmen der beiden Frühjahrstagungen die Namen und institutionellen Anbindungen der Referenten nachzulesen. Allen Autoren des Bandes sei für ihre Bereitschaft, an dieser Publikation mitzuwirken, gedankt, insbesondere denen, die sich auch noch der Mühe unterziehen mußten, das Transkript ihres in freier Rede gehaltenen Vortrags in eine lesbare Fassung zu bringen. Manche Eigentümlichkeiten des Stils sind dieser freien Rede geschuldet - oder vielleicht auch gedankt, denn sie geben damit umso lebendiger die Atmosphäre jener Frühlingstage in Weimar und Köln wieder.
    Classification
    AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
    Content
    Enthält u.a. die Beiträge (Dokumentarische Aspekte): Günter Perers/Volker Gaese: Das DocCat-System in der Textdokumentation von Gr+J (Weimar 2000) Thomas Gerick: Finden statt suchen. Knowledge Retrieval in Wissensbanken. Mit organisiertem Wissen zu mehr Erfolg (Weimar 2000) Winfried Gödert: Aufbereitung und Rezeption von Information (Weimar 2000) Elisabeth Damen: Klassifikation als Ordnungssystem im elektronischen Pressearchiv (Köln 2001) Clemens Schlenkrich: Aspekte neuer Regelwerksarbeit - Multimediales Datenmodell für ARD und ZDF (Köln 2001) Josef Wandeler: Comprenez-vous only Bahnhof'? - Mehrsprachigkeit in der Mediendokumentation (Köln 200 1)
    Date
    11. 5.2008 19:49:22
    RVK
    AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
  10. Praxishandbuch Forschungsdatenmanagement (2021) 0.04
    0.03871423 = product of:
      0.11614269 = sum of:
        0.04749451 = weight(_text_:und in 86) [ClassicSimilarity], result of:
          0.04749451 = score(doc=86,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4535172 = fieldWeight in 86, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=86)
        0.06864818 = weight(_text_:des in 86) [ClassicSimilarity], result of:
          0.06864818 = score(doc=86,freq=12.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.5246261 = fieldWeight in 86, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=86)
      0.33333334 = coord(2/6)
    
    Abstract
    Aktuelle Geschehnisse wie das Inkrafttreten des Kodex "Leitlinien zur Sicherung guter wissenschaftlicher Praxis" der Deutschen Forschungsgemeinschaft (DFG) oder der Aufbau der Nationalen Forschungsdateninfrastruktur (NFDI) und der European Open Science Cloud (EOSC) stellen Anbietende, Produzierende und Nutzende von Forschungsdaten vor fachwissenschaftliche, technische, rechtliche und organisatorische Herausforderungen. Das Praxishandbuch Forschungsdatenmanagement behandelt umfassend alle relevanten Aspekte des Forschungsdatenmanagements und der derzeitigen Rahmenbedingungen im Datenökosystem. Insbesondere die praktischen Implikationen der Datenpolitik und des -rechts, des jeweiligen Datenmarkts, der Datenkultur, der persönlichen Qualifizierung, des Datenmanagements sowie des "FAIR"en Datentransfers und der Datennachnutzung werden untersucht. Das Praxishandbuch gibt überdies einen Überblick über Projekte, Entwicklungen und Herausforderungen beim Forschungsdatenmanagement.
  11. Frank, C.: Entwicklung und Umsetzung eines Archivkonzeptes für ein integriertes Akten- und Medienarchiv für den Landesverband Hamburg e.V. des Deutschen Roten Kreuzes (2004) 0.04
    0.036585186 = product of:
      0.10975555 = sum of:
        0.05427944 = weight(_text_:und in 2999) [ClassicSimilarity], result of:
          0.05427944 = score(doc=2999,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.51830536 = fieldWeight in 2999, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2999)
        0.055476114 = weight(_text_:des in 2999) [ClassicSimilarity], result of:
          0.055476114 = score(doc=2999,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.42396194 = fieldWeight in 2999, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2999)
      0.33333334 = coord(2/6)
    
    Abstract
    Ein Konzept wird entwickelt für ein EDV-unterstützte Erfassung unterschiedlicher Medientypen durch ein Datenbank-Management-System [DBMS]: Nach Anlass, Zielsetzung und Vorgehensweise werden Zustand des Archivs und Ziel-Konzept beschrieben, es folgen Auswahl und Einrichtung des DBMS, Nachweise zur Erfüllung der Anforderungen und Maßnahmen zur Archivorganisation.
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  12. Schiffer, A.: Multimediale Bild-Text-Verfilmung am Bild- und Tonarchiv des Steiermärkischen Landesmuseums Joanneum Graz (1993) 0.04
    0.03653027 = product of:
      0.10959081 = sum of:
        0.061547097 = weight(_text_:und in 2837) [ClassicSimilarity], result of:
          0.061547097 = score(doc=2837,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.58770305 = fieldWeight in 2837, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2837)
        0.04804372 = weight(_text_:des in 2837) [ClassicSimilarity], result of:
          0.04804372 = score(doc=2837,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.36716178 = fieldWeight in 2837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=2837)
      0.33333334 = coord(2/6)
    
    Source
    Altes Buch und Neue Medien: Vorträge und Kommissionssitzungen. Der österreichische Bibliothekartag 1992, Eisenstadt, 29.9.-3.10.1992. Hrsg.: Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare
  13. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.04
    0.03641389 = product of:
      0.109241664 = sum of:
        0.058027163 = weight(_text_:und in 7383) [ClassicSimilarity], result of:
          0.058027163 = score(doc=7383,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.55409175 = fieldWeight in 7383, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=7383)
        0.051214505 = product of:
          0.10242901 = sum of:
            0.10242901 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
              0.10242901 = score(doc=7383,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.61904186 = fieldWeight in 7383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7383)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 2.1997 19:46:30
  14. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.04
    0.036169287 = product of:
      0.07233857 = sum of:
        0.043520372 = weight(_text_:und in 5868) [ClassicSimilarity], result of:
          0.043520372 = score(doc=5868,freq=36.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 5868, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.016014574 = weight(_text_:des in 5868) [ClassicSimilarity], result of:
          0.016014574 = score(doc=5868,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.12238726 = fieldWeight in 5868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.012803626 = product of:
          0.025607252 = sum of:
            0.025607252 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
              0.025607252 = score(doc=5868,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.15476047 = fieldWeight in 5868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5868)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Die Agrarproduktion wird in sehr komplexer Weise durch einen steten Wandel ihrer ökono-mischen und ökologischen Rahmenbedingungen beeinflusst. Aus diesem Prozess resultieren ständig neue Anforderungen an die Agrarforschung. Bei den Forschungs- und Untersuchungsarbeiten in der Pflanzen- und Tierproduktion, im Gartenbau und im Forstwesen nimmt dabei das Experiment eine zentrale Stelle ein. Der derzeitige Stand der Dokumentation und Präsentation von Ergebnissen der Versuchstätigkeit ist gekennzeichnet durch: - Die Existenz einer Vielzahl dezentraler Pools von Versuchsberichten, - hohe Aufwendungen für deren Publizierung, in der Regel im Selbstverlag, - steigende Versandkosten, - relativ kleiner Adressatenkreis, - nur punktuell webbasierte, statische Präsentationen, - kein umfassender Austausch und damit transparente Präsentation von Versuchsresultaten, - keine strukturiert unterstützte (Datenbank-)Recherche nach bestimmten Berichten/Dokumenten/Einrichtungen/Versuchskategorien usw. Das Projekt >Versuchsberichte im Internet< (VIP) soll für Einrichtungen der Beratung, Forschung, Lehre, Praxis und Verwaltung im Agrarbereich helfen, diese Mängel zu mindern und so einen Rationalisierungseffekt auslösen. Dieses Ziel soll im Einzelnen wie folgt realisiert werden: - Input der als verteilte Informationspools in Bund und Ländern vorliegenden Versuchsberichte in eine zentrale Dokumentendatenbank bei uneingeschränkter Verfügungsgewalt und vollen Urheberrechten der beteiligten Einrichtungen; - Bereitstellung einer Online-Lösung im Internet; - Integration eines Moduls für den internetgestützten Online-Input von Dokumenten; - Gewährleistung von Datenschutz; - Unterstützung des Versuchswesens in Bund und Ländern mit dem Ziel, Rationalisierungseffekte z. B. hinsichtlich der Versuchsplanung, Dokumentations- und Kommunikationsaufwendungen, Öffentlichkeitsarbeit, e-commerce zu erreichen. Über diese Funktionen hinaus werden in das Projekt weitere Informationspools, wie Adressen, bibliographische und wissenschaftliche Informationen, Diskussionslisten, Maps u. a. integriert. Entsprechend der föderalen Struktur der Bundesrepublik steht eine Beteiligung am Projekt allen interessierten Einrichtungen in Bund und Ländern offen
    Date
    16. 5.2001 12:22:23
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  15. Kaestner, J.: Virtuelle Dokumente und Redundanz : Bildspeicherung von Dokumenten in optischen Speichersystemen (1993) 0.04
    0.035608258 = product of:
      0.10682477 = sum of:
        0.050773766 = weight(_text_:und in 6476) [ClassicSimilarity], result of:
          0.050773766 = score(doc=6476,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4848303 = fieldWeight in 6476, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6476)
        0.05605101 = weight(_text_:des in 6476) [ClassicSimilarity], result of:
          0.05605101 = score(doc=6476,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.4283554 = fieldWeight in 6476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=6476)
      0.33333334 = coord(2/6)
    
    Abstract
    Enthält unter anderem Bericht über das optische Speichersystem des Hessischen Landtages
    Source
    Mitteilungen der Arbeitsgemeinschaft der Parlaments- und Behördenbibliotheken. 1993, Nr.75, S.45-84
  16. Schmidtke, R.: Auswahl und Implementierung eines Onlinesystems zur Digitalisierung und Umstrukturierung des firmeninternen Branchenarchivs einer Unternehmensberatung für Mergers & Akquisitions (2004) 0.03
    0.03319183 = product of:
      0.09957549 = sum of:
        0.05427944 = weight(_text_:und in 3715) [ClassicSimilarity], result of:
          0.05427944 = score(doc=3715,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.51830536 = fieldWeight in 3715, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3715)
        0.045296054 = weight(_text_:des in 3715) [ClassicSimilarity], result of:
          0.045296054 = score(doc=3715,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.34616345 = fieldWeight in 3715, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3715)
      0.33333334 = coord(2/6)
    
    Abstract
    Für das Branchenarchiv der Unternehmensberatung »Angermann M&A International GmbH« werden bestehende Aufgaben, Strukturen und Anforderungsprofile analysiert mit dem Ziel künftiger Digitalisierung und Umstrukturierung. Anhand des so gewonnen Kriterienkataloges werden mehrere Archivsysteme verglichen, bewertet und ausgewählt, das »vielversprechendste« (?) Programm wird genauer untersucht.
    Footnote
    Diplomarbeit im Studiengang Bibliotheks- und Informationsmanagement
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  17. Schmitz-Esser, W.: ¬Die Pressedatenbank für Text und Bild des Verlagshauses Gruner + Jahr (1977) 0.03
    0.032905877 = product of:
      0.09871763 = sum of:
        0.030773548 = weight(_text_:und in 4756) [ClassicSimilarity], result of:
          0.030773548 = score(doc=4756,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 4756, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4756)
        0.06794408 = weight(_text_:des in 4756) [ClassicSimilarity], result of:
          0.06794408 = score(doc=4756,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.51924515 = fieldWeight in 4756, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=4756)
      0.33333334 = coord(2/6)
    
    Footnote
    In diesem Aufsatz wird auch der Aufbau des G+J Index ausführlich erläutert
  18. Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003) 0.03
    0.03217622 = product of:
      0.06435244 = sum of:
        0.035534237 = weight(_text_:und in 1507) [ClassicSimilarity], result of:
          0.035534237 = score(doc=1507,freq=24.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 1507, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1507)
        0.016014574 = weight(_text_:des in 1507) [ClassicSimilarity], result of:
          0.016014574 = score(doc=1507,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.12238726 = fieldWeight in 1507, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1507)
        0.012803626 = product of:
          0.025607252 = sum of:
            0.025607252 = weight(_text_:22 in 1507) [ClassicSimilarity], result of:
              0.025607252 = score(doc=1507,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.15476047 = fieldWeight in 1507, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1507)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Wir werden einmal die Grundlagen des Text-Mining-Systems bei IBM darstellen, dann werden wir das Projekt etwas umfangreicher und deutlicher darstellen, da kennen wir uns aus. Von daher haben wir zwei Teile, einmal Heidelberg, einmal Hamburg. Noch einmal zur Technologie. Text-Mining ist eine von IBM entwickelte Technologie, die in einer besonderen Ausformung und Programmierung für uns zusammengestellt wurde. Das Projekt hieß bei uns lange Zeit DocText Miner und heißt seit einiger Zeit auf Vorschlag von IBM DocCat, das soll eine Abkürzung für Document-Categoriser sein, sie ist ja auch nett und anschaulich. Wir fangen an mit Text-Mining, das bei IBM in Heidelberg entwickelt wurde. Die verstehen darunter das automatische Indexieren als eine Instanz, also einen Teil von Text-Mining. Probleme werden dabei gezeigt, und das Text-Mining ist eben eine Methode zur Strukturierung von und der Suche in großen Dokumentenmengen, die Extraktion von Informationen und, das ist der hohe Anspruch, von impliziten Zusammenhängen. Das letztere sei dahingestellt. IBM macht das quantitativ, empirisch, approximativ und schnell. das muss man wirklich sagen. Das Ziel, und das ist ganz wichtig für unser Projekt gewesen, ist nicht, den Text zu verstehen, sondern das Ergebnis dieser Verfahren ist, was sie auf Neudeutsch a bundle of words, a bag of words nennen, also eine Menge von bedeutungstragenden Begriffen aus einem Text zu extrahieren, aufgrund von Algorithmen, also im Wesentlichen aufgrund von Rechenoperationen. Es gibt eine ganze Menge von linguistischen Vorstudien, ein wenig Linguistik ist auch dabei, aber nicht die Grundlage der ganzen Geschichte. Was sie für uns gemacht haben, ist also die Annotierung von Pressetexten für unsere Pressedatenbank. Für diejenigen, die es noch nicht kennen: Gruner + Jahr führt eine Textdokumentation, die eine Datenbank führt, seit Anfang der 70er Jahre, da sind z.Z. etwa 6,5 Millionen Dokumente darin, davon etwas über 1 Million Volltexte ab 1993. Das Prinzip war lange Zeit, dass wir die Dokumente, die in der Datenbank gespeichert waren und sind, verschlagworten und dieses Prinzip haben wir auch dann, als der Volltext eingeführt wurde, in abgespeckter Form weitergeführt. Zu diesen 6,5 Millionen Dokumenten gehören dann eben auch ungefähr 10 Millionen Faksimileseiten, weil wir die Faksimiles auch noch standardmäßig aufheben.
    Date
    22. 4.2003 11:45:36
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  19. Eurodoc : Produkte für das Dokumentenmanagement finden und vergleichen (1998) 0.03
    0.032169174 = product of:
      0.09650752 = sum of:
        0.0410314 = weight(_text_:und in 985) [ClassicSimilarity], result of:
          0.0410314 = score(doc=985,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.39180204 = fieldWeight in 985, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=985)
        0.055476114 = weight(_text_:des in 985) [ClassicSimilarity], result of:
          0.055476114 = score(doc=985,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.42396194 = fieldWeight in 985, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=985)
      0.33333334 = coord(2/6)
    
    Abstract
    Die EURODOC-Datenbank enthält ausführliche und einheitlich strukturierte Beschreibungen von Produkten des Dokument-Managementmarktes (Software-Systeme, -komponenten und Diennstleistungen). Die Benutzeroberfläche ist dreisprachig (dt., engl., franz.). Basis der Produktinformationen ist ein standardisierter Fragebogen, der als Kriterienkatalog für die Suche nach geeigneten Produkten verwendet wird. Daneben ist auch die Volltextsuche möglich. Aufgrund der gefundenen Produkte / Dienstleistungen und des nach Wünschen des Anwenders eingeschränkten Fragenkatalogs können kompakte, übersichtliche Reports ausgedruckt werden. Die Daten können für weitere Auswertungen in Tabellenkalkulationsprogrammen bereitgestellt werden
  20. Mateika, O,: Feasibility-Studie zur Eignung der Pressedatenbank Archimedes zum Einsatz in der Pressedokumentation des Norddeutschen Rundfunks (2004) 0.03
    0.030336782 = product of:
      0.09101035 = sum of:
        0.035534237 = weight(_text_:und in 3712) [ClassicSimilarity], result of:
          0.035534237 = score(doc=3712,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 3712, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3712)
        0.055476114 = weight(_text_:des in 3712) [ClassicSimilarity], result of:
          0.055476114 = score(doc=3712,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.42396194 = fieldWeight in 3712, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3712)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Datenbanksystem Planet, derzeit eingesetzt als Information Retrieval System in Pressearchiven innerhalb des SAD-Verbunds der ARD, soll durch ein mindestens gleichwertiges System abgelöst werden. Archimedes, derzeit eingesetzt im Dokumentationsbereich des Westdeutschen Rundfunks Köln, ist eine mögliche Alternative. Ob es die Vorgaben und Anforderungen erfüllt, wird mit Hilfe einer Feasibility-Studie geprüft, notwendige Funktionalitäten und strategisch-qualitative Anforderungen bewertet.
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information

Authors

Languages

  • d 108
  • e 20
  • f 4
  • sp 2
  • More… Less…

Types

  • a 102
  • x 15
  • m 12
  • el 4
  • s 3
  • ? 1
  • r 1
  • More… Less…