Search (100 results, page 1 of 5)

  • × type_ss:"a"
  • × theme_ss:"Dokumentenmanagement"
  1. Barbat, P.; Neste, E. van den; Drouhet, G.: Records management et archivistique française (1998) 0.07
    0.067682974 = product of:
      0.13536595 = sum of:
        0.105851494 = weight(_text_:van in 2988) [ClassicSimilarity], result of:
          0.105851494 = score(doc=2988,freq=2.0), product of:
            0.24542865 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.044010527 = queryNorm
            0.43129233 = fieldWeight in 2988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2988)
        0.02951445 = product of:
          0.0590289 = sum of:
            0.0590289 = weight(_text_:22 in 2988) [ClassicSimilarity], result of:
              0.0590289 = score(doc=2988,freq=4.0), product of:
                0.15411738 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044010527 = queryNorm
                0.38301262 = fieldWeight in 2988, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2988)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    1. 8.1996 22:01:00
    21. 2.1999 15:22:35
  2. Meer, K. van der: Document information systems (2009) 0.05
    0.049004316 = product of:
      0.09800863 = sum of:
        0.090729855 = weight(_text_:van in 3771) [ClassicSimilarity], result of:
          0.090729855 = score(doc=3771,freq=2.0), product of:
            0.24542865 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.044010527 = queryNorm
            0.36967915 = fieldWeight in 3771, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.046875 = fieldNorm(doc=3771)
        0.0072787786 = product of:
          0.014557557 = sum of:
            0.014557557 = weight(_text_:der in 3771) [ClassicSimilarity], result of:
              0.014557557 = score(doc=3771,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.14807922 = fieldWeight in 3771, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3771)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
  3. Kaestner, J.: Virtuelle Dokumente und Redundanz : Bildspeicherung von Dokumenten in optischen Speichersystemen (1993) 0.05
    0.04637544 = product of:
      0.09275088 = sum of:
        0.06873213 = weight(_text_:j in 6476) [ClassicSimilarity], result of:
          0.06873213 = score(doc=6476,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.4914939 = fieldWeight in 6476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.109375 = fieldNorm(doc=6476)
        0.024018746 = product of:
          0.04803749 = sum of:
            0.04803749 = weight(_text_:der in 6476) [ClassicSimilarity], result of:
              0.04803749 = score(doc=6476,freq=4.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.4886365 = fieldWeight in 6476, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6476)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Source
    Mitteilungen der Arbeitsgemeinschaft der Parlaments- und Behördenbibliotheken. 1993, Nr.75, S.45-84
  4. Spitz, A.L.; Wilcox, L.D.: Classification techniques applied to the recognition of office documents (1988) 0.04
    0.040780615 = product of:
      0.08156123 = sum of:
        0.069429934 = weight(_text_:j in 137) [ClassicSimilarity], result of:
          0.069429934 = score(doc=137,freq=4.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.4964838 = fieldWeight in 137, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.078125 = fieldNorm(doc=137)
        0.012131298 = product of:
          0.024262596 = sum of:
            0.024262596 = weight(_text_:der in 137) [ClassicSimilarity], result of:
              0.024262596 = score(doc=137,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.2467987 = fieldWeight in 137, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.078125 = fieldNorm(doc=137)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Source
    Wissensorganisation im Wandel: Dezimalklassifikation - Thesaurusfragen - Warenklassifikation. Proc. 11. Jahrestagung der Gesellschaft für Klassifikation, Aachen, 29.6.-1.7.1987. Hrsg.: H.-J. Hermes u. J. Hölzl
  5. Wandeler, J.: Comprenez-vous only Bahnhof? : Mehrsprachigkeit in der Mediendokumentation (2003) 0.04
    0.04053824 = product of:
      0.08107648 = sum of:
        0.01963775 = weight(_text_:j in 1512) [ClassicSimilarity], result of:
          0.01963775 = score(doc=1512,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.14042683 = fieldWeight in 1512, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.06143873 = sum of:
          0.037587453 = weight(_text_:der in 1512) [ClassicSimilarity], result of:
            0.037587453 = score(doc=1512,freq=30.0), product of:
              0.098309256 = queryWeight, product of:
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.044010527 = queryNorm
              0.3823389 = fieldWeight in 1512, product of:
                5.477226 = tf(freq=30.0), with freq of:
                  30.0 = termFreq=30.0
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.03125 = fieldNorm(doc=1512)
          0.023851277 = weight(_text_:22 in 1512) [ClassicSimilarity], result of:
            0.023851277 = score(doc=1512,freq=2.0), product of:
              0.15411738 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044010527 = queryNorm
              0.15476047 = fieldWeight in 1512, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1512)
      0.5 = coord(2/4)
    
    Abstract
    Das Hauptthema dieser Tagung - Multimedia - beschäftigt sich mit der Vielfalt der Medien und Quellen, mit denen wir es heute zu tun haben. Da liegt es nahe, sich auch mit einer anderen Form der Vielfalt, dem Thema Mehrsprachigkeit zu beschäftigen. Und die Veranstalter dieser Tagung waren der Meinung, dass ein Schweizer dazu mit Sicherheit etwas zu sagen habe. Das ist insofern richtig, als wir in einem mehrsprachigen Land leben und mit diesem Problem im Alltag vertraut sind, sowohl im täglichen Leben, wie auch eben im dokumentarischen Alltag. Aus dieser praktischen Sicht und nicht als Sprachwissenschafter, der ich nicht bin, möchte ich mich dem Thema nähern. Die Vielfalt der deutschen Sprache: Wenn die Schweiz ein mehrsprachiges Land ist - ist dann Deutschland im Gegensatz dazu ein einsprachiges Land? Auf den ersten Blick sicher ja - in Deutschland spricht man deutsch - aber die Sache ist doch nicht so einfach. Natürlich leben auch hier, wie überall, Menschen aus anderen Ländern mit anderen Muttersprachen - in dieser Optik gibt es wohl fast nur mehrsprachige Länder. Aber auch wenn wir nur die einheimische Bevölkerung mit deutschem Pass betrachten, ist die Sache nicht so eindeutig. Zwar haben sie das Deutsche als gemeinsame Sprache, die von allen gesprochen und verstanden wird. Aber die eigentliche Muttersprache der Deutschen oder mindestens einer grossen Mehrheit ist nicht das Hochdeutsche, sondern einer der vielen Dialekte. Diese Dialekte sind ja höchst unterschiedlich und einem Bayern oder Schwaben geht es sicher nicht anders, als es mir vor Jahren ergangen ist, als ich in Norddeutschland erstmals plattdeutsch sprechen hörte: ich hab nicht mal mehr Bahnhof verstanden und benötigte einige Wochen, bis ich der Unterhaltung wenigstens in groben Zügen folgen konnte. Das Hochdeutsche ist da der gemeinsame Nenner und ermöglichst erst die Verständigung, auch wenn es mit vielfältigen Akzenten und regional eingefärbtem Vokabular gesprochen wird. In diesem Sinne ist die Situation nicht anders als in der deutschsprachigen Schweiz, wo auch ganz unterschiedliche Dialekte gesprochen werden. Allerdings gibt es doch einen wichtigen Unterschied: Hier in Deutschland ist Hochdeutsch die allgemeine Umgangssprache sowohl in der mündlichen wie in der schriftlichen Kommunikation. Dialekte werden im privaten Bereich gesprochen, aber im öffentlichen Bereich, im Geschäftsleben, in der Wissenschaft etc. ist Hochdeutsch die Umgangssprache.
    Date
    22. 4.2003 12:09:10
  6. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.04
    0.039750375 = product of:
      0.07950075 = sum of:
        0.058913257 = weight(_text_:j in 6386) [ClassicSimilarity], result of:
          0.058913257 = score(doc=6386,freq=8.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.4212805 = fieldWeight in 6386, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.020587496 = product of:
          0.041174993 = sum of:
            0.041174993 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
              0.041174993 = score(doc=6386,freq=16.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.4188313 = fieldWeight in 6386, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6386)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  7. Schmitz-Esser, W.: ¬Die Pressedatenbank für Text und Bild des Verlagshauses Gruner + Jahr (1977) 0.04
    0.036735408 = product of:
      0.073470816 = sum of:
        0.058913257 = weight(_text_:j in 4756) [ClassicSimilarity], result of:
          0.058913257 = score(doc=4756,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.4212805 = fieldWeight in 4756, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.09375 = fieldNorm(doc=4756)
        0.014557557 = product of:
          0.029115114 = sum of:
            0.029115114 = weight(_text_:der in 4756) [ClassicSimilarity], result of:
              0.029115114 = score(doc=4756,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.29615843 = fieldWeight in 4756, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4756)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Footnote
    In diesem Aufsatz wird auch der Aufbau des G+J Index ausführlich erläutert
  8. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.034605928 = product of:
      0.069211856 = sum of:
        0.049094375 = weight(_text_:j in 5863) [ClassicSimilarity], result of:
          0.049094375 = score(doc=5863,freq=8.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.35106707 = fieldWeight in 5863, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.020117482 = product of:
          0.040234964 = sum of:
            0.040234964 = weight(_text_:der in 5863) [ClassicSimilarity], result of:
              0.040234964 = score(doc=5863,freq=22.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.40926933 = fieldWeight in 5863, product of:
                  4.690416 = tf(freq=22.0), with freq of:
                    22.0 = termFreq=22.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5863)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  9. Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003) 0.03
    0.034583073 = product of:
      0.069166146 = sum of:
        0.01963775 = weight(_text_:j in 1507) [ClassicSimilarity], result of:
          0.01963775 = score(doc=1507,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.14042683 = fieldWeight in 1507, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.03125 = fieldNorm(doc=1507)
        0.049528398 = sum of:
          0.025677118 = weight(_text_:der in 1507) [ClassicSimilarity], result of:
            0.025677118 = score(doc=1507,freq=14.0), product of:
              0.098309256 = queryWeight, product of:
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.044010527 = queryNorm
              0.2611872 = fieldWeight in 1507, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.03125 = fieldNorm(doc=1507)
          0.023851277 = weight(_text_:22 in 1507) [ClassicSimilarity], result of:
            0.023851277 = score(doc=1507,freq=2.0), product of:
              0.15411738 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044010527 = queryNorm
              0.15476047 = fieldWeight in 1507, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1507)
      0.5 = coord(2/4)
    
    Abstract
    Wir werden einmal die Grundlagen des Text-Mining-Systems bei IBM darstellen, dann werden wir das Projekt etwas umfangreicher und deutlicher darstellen, da kennen wir uns aus. Von daher haben wir zwei Teile, einmal Heidelberg, einmal Hamburg. Noch einmal zur Technologie. Text-Mining ist eine von IBM entwickelte Technologie, die in einer besonderen Ausformung und Programmierung für uns zusammengestellt wurde. Das Projekt hieß bei uns lange Zeit DocText Miner und heißt seit einiger Zeit auf Vorschlag von IBM DocCat, das soll eine Abkürzung für Document-Categoriser sein, sie ist ja auch nett und anschaulich. Wir fangen an mit Text-Mining, das bei IBM in Heidelberg entwickelt wurde. Die verstehen darunter das automatische Indexieren als eine Instanz, also einen Teil von Text-Mining. Probleme werden dabei gezeigt, und das Text-Mining ist eben eine Methode zur Strukturierung von und der Suche in großen Dokumentenmengen, die Extraktion von Informationen und, das ist der hohe Anspruch, von impliziten Zusammenhängen. Das letztere sei dahingestellt. IBM macht das quantitativ, empirisch, approximativ und schnell. das muss man wirklich sagen. Das Ziel, und das ist ganz wichtig für unser Projekt gewesen, ist nicht, den Text zu verstehen, sondern das Ergebnis dieser Verfahren ist, was sie auf Neudeutsch a bundle of words, a bag of words nennen, also eine Menge von bedeutungstragenden Begriffen aus einem Text zu extrahieren, aufgrund von Algorithmen, also im Wesentlichen aufgrund von Rechenoperationen. Es gibt eine ganze Menge von linguistischen Vorstudien, ein wenig Linguistik ist auch dabei, aber nicht die Grundlage der ganzen Geschichte. Was sie für uns gemacht haben, ist also die Annotierung von Pressetexten für unsere Pressedatenbank. Für diejenigen, die es noch nicht kennen: Gruner + Jahr führt eine Textdokumentation, die eine Datenbank führt, seit Anfang der 70er Jahre, da sind z.Z. etwa 6,5 Millionen Dokumente darin, davon etwas über 1 Million Volltexte ab 1993. Das Prinzip war lange Zeit, dass wir die Dokumente, die in der Datenbank gespeichert waren und sind, verschlagworten und dieses Prinzip haben wir auch dann, als der Volltext eingeführt wurde, in abgespeckter Form weitergeführt. Zu diesen 6,5 Millionen Dokumenten gehören dann eben auch ungefähr 10 Millionen Faksimileseiten, weil wir die Faksimiles auch noch standardmäßig aufheben.
    Date
    22. 4.2003 11:45:36
  10. Szulc, J.: Document management in the the Polish central catalogues (2017) 0.03
    0.03306994 = product of:
      0.06613988 = sum of:
        0.034366064 = weight(_text_:j in 3512) [ClassicSimilarity], result of:
          0.034366064 = score(doc=3512,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.24574696 = fieldWeight in 3512, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3512)
        0.03177381 = product of:
          0.06354762 = sum of:
            0.06354762 = weight(_text_:der in 3512) [ClassicSimilarity], result of:
              0.06354762 = score(doc=3512,freq=28.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.6464053 = fieldWeight in 3512, product of:
                  5.2915025 = tf(freq=28.0), with freq of:
                    28.0 = termFreq=28.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3512)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  11. Boyle, J.: ¬A blueprint for managing documents (1997) 0.03
    0.03156339 = product of:
      0.06312678 = sum of:
        0.0392755 = weight(_text_:j in 814) [ClassicSimilarity], result of:
          0.0392755 = score(doc=814,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.28085366 = fieldWeight in 814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0625 = fieldNorm(doc=814)
        0.023851277 = product of:
          0.047702555 = sum of:
            0.047702555 = weight(_text_:22 in 814) [ClassicSimilarity], result of:
              0.047702555 = score(doc=814,freq=2.0), product of:
                0.15411738 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044010527 = queryNorm
                0.30952093 = fieldWeight in 814, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=814)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Source
    Byte. 22(1997) no.5, S.75-76,78,80
  12. McLeod, J.; Hare, C.H.; Webster, B.: Records management today (1998) 0.03
    0.03156339 = product of:
      0.06312678 = sum of:
        0.0392755 = weight(_text_:j in 3627) [ClassicSimilarity], result of:
          0.0392755 = score(doc=3627,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.28085366 = fieldWeight in 3627, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0625 = fieldNorm(doc=3627)
        0.023851277 = product of:
          0.047702555 = sum of:
            0.047702555 = weight(_text_:22 in 3627) [ClassicSimilarity], result of:
              0.047702555 = score(doc=3627,freq=2.0), product of:
                0.15411738 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044010527 = queryNorm
                0.30952093 = fieldWeight in 3627, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3627)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    15. 5.1999 20:22:49
  13. Haessler, J.: Entwicklung von Records Management Software : "Weg von einzelnen Projektlösungen hin zum Softwarehersteller" (2009) 0.03
    0.030612838 = product of:
      0.061225675 = sum of:
        0.049094375 = weight(_text_:j in 3128) [ClassicSimilarity], result of:
          0.049094375 = score(doc=3128,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.35106707 = fieldWeight in 3128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.078125 = fieldNorm(doc=3128)
        0.012131298 = product of:
          0.024262596 = sum of:
            0.024262596 = weight(_text_:der in 3128) [ClassicSimilarity], result of:
              0.024262596 = score(doc=3128,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.2467987 = fieldWeight in 3128, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3128)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Records Management Software wird in Deutschland auch von vielen kleinen und mittelständischen Unternehmen entwickelt. Die IWP sprach mit Joachim Haessler, dem Inhaber der Schwarzwälder Firma HAESSLER. Das Interview führte Ulrike Spree.
  14. Rickenbach, J.-P.: ¬Das multimediale Archivsystem der Neuen Zürcher Zeitung (2001) 0.03
    0.02934279 = product of:
      0.05868558 = sum of:
        0.0392755 = weight(_text_:j in 5835) [ClassicSimilarity], result of:
          0.0392755 = score(doc=5835,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.28085366 = fieldWeight in 5835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0625 = fieldNorm(doc=5835)
        0.019410077 = product of:
          0.038820155 = sum of:
            0.038820155 = weight(_text_:der in 5835) [ClassicSimilarity], result of:
              0.038820155 = score(doc=5835,freq=8.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.3948779 = fieldWeight in 5835, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5835)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  15. Mummenthey, I.; Kotte, J.; Brüdegam, J.: Schriftgutverwaltung Records Management und Records Preservation : Selbstverständnis des Staatsarchivs Hamburg in einer modernen Verwaltung (2009) 0.03
    0.028107759 = product of:
      0.056215517 = sum of:
        0.041657962 = weight(_text_:j in 3135) [ClassicSimilarity], result of:
          0.041657962 = score(doc=3135,freq=4.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.2978903 = fieldWeight in 3135, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.046875 = fieldNorm(doc=3135)
        0.014557557 = product of:
          0.029115114 = sum of:
            0.029115114 = weight(_text_:der in 3135) [ClassicSimilarity], result of:
              0.029115114 = score(doc=3135,freq=8.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.29615843 = fieldWeight in 3135, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3135)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Was hat ein Staatsarchiv mit Schriftgutverwaltung zu tun? Ist Schriftgutverwaltung nur ein altbackener Begriff für das moderne Records Management? Was ist Records Preservation? Und wo ist der Bezug zu Orwells Roman "1984"? Diese Fragen will der Beitrag beantworten. Im ersten Teil beschreibt Irmgard Mummenthey zunächst die Aufgaben des Staatsarchivs der Freien und Hansestadt Hamburg und erläutert Begrifflichkeiten. Sie geht dann auf Records Management als strategische Aufgabe des Staatsarchivs ein und skizziert die Bedeutung sowohl einer vertrauenswürdigen Überlieferung als auch eines Archivs selbst in einem demokratischen Rechtsstaat. Jenny Kotte stellt dann im zweiten Teil die wichtigsten Standards vor. Diese sind maßgebliche Instrumente, um den Stellenwert von Schriftgutverwaltung bzw. Records Management und damit seine Qualität zu sichern. Julia Brüdegam berichtet im dritten Teil, wie das Staatsarchiv seinen gesetzlichen Auftrag, die hamburgische Verwaltung zu beraten, praktisch umsetzt. Da die drei Autorinnen sich in ihrer täglichen Arbeit auf die öffentliche Verwaltung konzentrieren (müssen), liegt dort auch unweigerlich der Schwerpunkt dieses Beitrags.
  16. Hare, C.E.; McLeaod, J.; King, L.A.: Continuing professional development for the information discipline of records management : pt.1: context and initial indications of current activities (1996) 0.03
    0.027617965 = product of:
      0.05523593 = sum of:
        0.034366064 = weight(_text_:j in 5049) [ClassicSimilarity], result of:
          0.034366064 = score(doc=5049,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.24574696 = fieldWeight in 5049, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5049)
        0.020869866 = product of:
          0.041739732 = sum of:
            0.041739732 = weight(_text_:22 in 5049) [ClassicSimilarity], result of:
              0.041739732 = score(doc=5049,freq=2.0), product of:
                0.15411738 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044010527 = queryNorm
                0.2708308 = fieldWeight in 5049, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5049)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Source
    Librarian career development. 4(1996) no.2, S.22-27
  17. Kind, J.: ¬Der Weg zur unternehmensweiten Informationsbasis : Vorgehensweise bei der Einführung von Dokumenten-Management-Systemen aus Anwendersicht (1994) 0.03
    0.027583454 = product of:
      0.055166908 = sum of:
        0.034366064 = weight(_text_:j in 5381) [ClassicSimilarity], result of:
          0.034366064 = score(doc=5381,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.24574696 = fieldWeight in 5381, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5381)
        0.020800844 = product of:
          0.041601688 = sum of:
            0.041601688 = weight(_text_:der in 5381) [ClassicSimilarity], result of:
              0.041601688 = score(doc=5381,freq=12.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.4231716 = fieldWeight in 5381, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5381)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Artikel werden die wichtigsten Ergebnisse eines Projekts vorgestellt, das der Verfasser im Rahmen eines Praxissemesters gemeinsam mit der englischen Unternehmensberatung PSP Associates durchgeführt hat. Im Rahmen einer 5-monatigen Studie wurden Vorgehensweise und Strategien untersucht, die europäische Untzernehmen und Behörden bei der Einführung und Implementierung von elektronischen Dokumenten-Management-Systemen verwenden. Zu diesem Zweck wurden 100 aktuelle Fallstudien aus England, Deutschland, Italien und Frankreich analysiert sowie schriftliche und mündliche Interviews mit einer Auswahl von Anwenderorganisationen durchgeführt. Aus den Fallstudienanalysen und den Interviewergebnissen wurden Empfehlungen abgeleitet, die potentielle Anwender bei der Einführung von elektronischen Dokumenten-Management-Systemen beachten sollten
  18. Graner, B.; Fresenborg, M.; Lühr, A.; Seifert, J.; Sünkler, S.: Schriftgutverwaltung an der Hochschule : Entwicklung eines aufgabenorientierten Aktenplans für die Hochschule für Angewandte Wissenschaften Hamburg (2009) 0.03
    0.02567494 = product of:
      0.05134988 = sum of:
        0.034366064 = weight(_text_:j in 3134) [ClassicSimilarity], result of:
          0.034366064 = score(doc=3134,freq=2.0), product of:
            0.1398433 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.044010527 = queryNorm
            0.24574696 = fieldWeight in 3134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3134)
        0.016983816 = product of:
          0.033967633 = sum of:
            0.033967633 = weight(_text_:der in 3134) [ClassicSimilarity], result of:
              0.033967633 = score(doc=3134,freq=8.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.34551817 = fieldWeight in 3134, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3134)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen eines studentischen Projektes haben Studierende der HAW Hamburg im Wintersemester 2008/2009 ein Konzept für ein elektronisches Schriftgutverwaltungssystem für die Hochschulverwaltung der HAW Hamburg erarbeitet. Hierzu wurde ein aufgabenorientierter Aktenplan für die gesamte Hochschule entwickelt, ein Vorschlag für ein Rollenkonzept zur Steuerung der Zugriffsmöglichkeiten auf die Akten gemacht und das Konzept prototypisch zu Test- und Demonstrationszwecken unter Einsatz des elektronischen Schriftgutverwaltungssystems DoRIS® umgesetzt.
  19. ¬Das papierlose Archiv : Abspecken mit digitaler Speicherverwaltung (1995) 0.02
    0.01643962 = product of:
      0.06575848 = sum of:
        0.06575848 = sum of:
          0.024018746 = weight(_text_:der in 1788) [ClassicSimilarity], result of:
            0.024018746 = score(doc=1788,freq=4.0), product of:
              0.098309256 = queryWeight, product of:
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.044010527 = queryNorm
              0.24431825 = fieldWeight in 1788, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1788)
          0.041739732 = weight(_text_:22 in 1788) [ClassicSimilarity], result of:
            0.041739732 = score(doc=1788,freq=2.0), product of:
              0.15411738 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044010527 = queryNorm
              0.2708308 = fieldWeight in 1788, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1788)
      0.25 = coord(1/4)
    
    Abstract
    Zuerst erkannt haben es Versicherungen, Landesbausparkassen, Verlage wie Gruner&Jahr sowie das europäische Patentamt. Bevor das eigene Unternehmen unter der Flut von Informationen zu ersticken droht, müssen die riesigen Papierberge abgetragen und die Verwaltung entschlackt werden. Die Zauberformel dafür: Dokumenten-Management-Systeme (DMS). Neue elektronische Speicher- und Archivierungssysteme bieten dem Unternehmer viele Vorteile: Sie sparen Kosten, denken den Verwaltungsaufwand und steigern dadurch die Leistung der Firma. Inzwischen ist DMS nicht nur für die Großen ein Thema: Freiberufler, Rechtsanwälte, Wirtschaftsprüfer, Steuerberater und Arztpraxen suchen ebenfalls einen Ausweg aus dem Papierchaos. Denn bereits in 2 Jahren, so die düstere Aussage amerikanischer Forscher, werden Unternehmen mit papiergebundenen Verwaltungen ums geschäftliche Überleben kämpfen. In Westeuropa steht DMS dagaben noch in den Anfängen: bis 1998 - so die Experten - werden aber die Nachfrage nach DMS-Lösungen auf rund 8 Milliarden steigen
    Source
    Facts: Testmagazin für die Büro- & Kommunikationswelt. 1995, H.5, S.22-34
  20. Toebak, P.: ¬Das Dossier nicht die Klassifikation als Herzstück des Records Management (2009) 0.02
    0.015477624 = product of:
      0.061910495 = sum of:
        0.061910495 = sum of:
          0.032096397 = weight(_text_:der in 3220) [ClassicSimilarity], result of:
            0.032096397 = score(doc=3220,freq=14.0), product of:
              0.098309256 = queryWeight, product of:
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.044010527 = queryNorm
              0.326484 = fieldWeight in 3220, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3220)
          0.029814096 = weight(_text_:22 in 3220) [ClassicSimilarity], result of:
            0.029814096 = score(doc=3220,freq=2.0), product of:
              0.15411738 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044010527 = queryNorm
              0.19345059 = fieldWeight in 3220, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3220)
      0.25 = coord(1/4)
    
    Abstract
    Die September/Oktober-Ausgabe 2009 der IWP ist eine Schwerpunktausgabe zum Records Management. Es ist interessant, dass einmal aus fachlich ganz anderer Perspektive auf diese Management- Disziplin geschaut wird. Viele Aspekte werden angesprochen: Terminologie, Rolle des Archivwesens, Interdisziplinarität, Langzeitaufbewahrung und Standardisierung. Im Artikel "Wissensorganisation und Records Management. Was ist der 'state of the art'?" steht die Wissensorganisation als Schwachstelle des Records Management zentral. Dies zu Recht: Das logische Datenmodell von DOMEA - das Gleiche gilt für GEVER und ELAK - entspricht beispielsweise nicht in allen Hinsichten der Geschäftsrealität. Daraus entstehen für die Mitarbeitenden im Arbeitsalltag öfters mehr Verständnisprobleme als sie bewältigen können oder wollen. Die systemische Unterstützung der eingesetzten EDRMS (nicht alle Produkte verdienen übrigens diesen Namen) wird dadurch geschwächt. Die Wissensorganisation genügt in vielen Fällen (noch) nicht. Das Problem liegt allerdings weniger bei der Klassifikation (Aktenplan), wie Ulrike Spree meint. Auch hier kommen Anomalien vor. Ein Ordnungssystem im Records Management umfasst mehr als nur die Klassifikation. Zudem dürfen die prinzipiellen, inhärenten Unterschiede zwischen Records Management einerseits und Wissens- und Informationsmanagement andererseits nicht vergessen gehen. Nicht die Klassifikation ist beim Records Management das zentrale Werkzeug der Informationsrepräsentation und -organisation, sondern die saubere Dossierbildung und die stringente, strukturstabile Umsetzung davon im Datenmodell. Hierauf geht die Autorin nicht ein. Ich werde aus dieser Sicht auf ihren Beitrag in der Schwerpunktausgabe reagieren.
    Date
    6.12.2009 17:22:17

Years

Languages

  • d 73
  • e 23
  • f 2
  • a 1
  • sp 1
  • More… Less…