Search (220 results, page 1 of 11)

  • × type_ss:"m"
  • × language_ss:"d"
  1. Wiseman, R.: HTML-Dokumente mit Word für Windows erstellen (1995) 0.06
    0.058519427 = product of:
      0.11703885 = sum of:
        0.11703885 = product of:
          0.2340777 = sum of:
            0.2340777 = weight(_text_:dokumente in 7101) [ClassicSimilarity], result of:
              0.2340777 = score(doc=7101,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.9003137 = fieldWeight in 7101, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.125 = fieldNorm(doc=7101)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  2. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.05
    0.04729739 = product of:
      0.09459478 = sum of:
        0.09459478 = product of:
          0.28378433 = sum of:
            0.28378433 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
              0.28378433 = score(doc=5955,freq=2.0), product of:
                0.43280408 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05105019 = queryNorm
                0.65568775 = fieldWeight in 5955, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5955)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].
  3. E-Text : Strategien und Kompetenzen. Elektronische Kommunikation in Wissenschaft, Bildung und Beruf (2001) 0.04
    0.043092906 = product of:
      0.08618581 = sum of:
        0.08618581 = sum of:
          0.058519427 = weight(_text_:dokumente in 622) [ClassicSimilarity], result of:
            0.058519427 = score(doc=622,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.22507842 = fieldWeight in 622, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.03125 = fieldNorm(doc=622)
          0.027666384 = weight(_text_:22 in 622) [ClassicSimilarity], result of:
            0.027666384 = score(doc=622,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.15476047 = fieldWeight in 622, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=622)
      0.5 = coord(1/2)
    
    Date
    12. 8.2012 18:05:22
    Form
    Elektronische Dokumente
  4. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.04
    0.043092906 = product of:
      0.08618581 = sum of:
        0.08618581 = sum of:
          0.058519427 = weight(_text_:dokumente in 1767) [ClassicSimilarity], result of:
            0.058519427 = score(doc=1767,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.22507842 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
          0.027666384 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
            0.027666384 = score(doc=1767,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.15476047 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
      0.5 = coord(1/2)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  5. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.04
    0.041409507 = product of:
      0.082819015 = sum of:
        0.082819015 = sum of:
          0.062069226 = weight(_text_:dokumente in 729) [ClassicSimilarity], result of:
            0.062069226 = score(doc=729,freq=4.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.23873171 = fieldWeight in 729, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.0234375 = fieldNorm(doc=729)
          0.020749787 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
            0.020749787 = score(doc=729,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.116070345 = fieldWeight in 729, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=729)
      0.5 = coord(1/2)
    
    Abstract
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
    Date
    22. 6.2005 15:12:11
  6. Vonhoegen, H.: Einstieg in XML (2002) 0.04
    0.037706293 = product of:
      0.07541259 = sum of:
        0.07541259 = sum of:
          0.0512045 = weight(_text_:dokumente in 4002) [ClassicSimilarity], result of:
            0.0512045 = score(doc=4002,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.19694361 = fieldWeight in 4002, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4002)
          0.024208086 = weight(_text_:22 in 4002) [ClassicSimilarity], result of:
            0.024208086 = score(doc=4002,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.1354154 = fieldWeight in 4002, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4002)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  7. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 4325) [ClassicSimilarity], result of:
              0.14629857 = score(doc=4325,freq=8.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 4325, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4325)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
  8. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 4385) [ClassicSimilarity], result of:
              0.14629857 = score(doc=4385,freq=8.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 4385, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4385)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
  9. Malina, Barbara [Red.]: Open Access : Chancen und Herausforderungen ; ein Handbuch (2007) 0.03
    0.030514251 = product of:
      0.061028503 = sum of:
        0.061028503 = sum of:
          0.036574643 = weight(_text_:dokumente in 677) [ClassicSimilarity], result of:
            0.036574643 = score(doc=677,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.14067401 = fieldWeight in 677, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.01953125 = fieldNorm(doc=677)
          0.02445386 = weight(_text_:22 in 677) [ClassicSimilarity], result of:
            0.02445386 = score(doc=677,freq=4.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.13679022 = fieldWeight in 677, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=677)
      0.5 = coord(1/2)
    
    Content
    Parallel als Online-Ausg. erschienen: www.unesco.de/fileadmin/medien/Dokumente/Kommunikation/Handbuch_Open_Access.pdf
    Footnote
    Inhaltsbeschreibung Die verschiedenen Initiativen zum Open Access führen zu zwei Systemen, dem so genannten »grünen Weg«, der bereits in gedruckter Form veröffentlichte Publikationen ins Internet stellt, und dem »goldenen Weg«, bei dem die Volltextspeicherung die einzige oder jedenfalls die vorrangige Form darstellt. Die Internationalisierung des Open Access erfolgte auf drei Konferenzen, die 2001 in Budapest, 2003 in Bethesda und im gleichen Jahr in Berlin stattfanden. Diese Volltextspeicherung war ursprünglich auf die naturwissenschaftlich-technischen Disziplinen konzentriert. Doch treten in zunehmendem Maße auch die Geistes- und Sozialwissenschaften dem Prinzip bei. Dabei entstehen natürlich sehr differenzierende Aspekte, zum Beispiel für die Bibliotheken - etwa der Erwerb gedruckter Zeitschriften, Langzeitarchivierung von Interneteintragungen, für den Buchhandel wie für die Autoren - etwa das Urheberrecht, aber auch dort das ökonomische Interesse, wie der Plan des Börsenvereins des Deutschen Buchhandels zu einer eigenen Volltextspeicherung zeigt, dem die Deutsche UNESCO-Kommission eine Ergänzung zum vorliegenden Text nachsandte. Open Access hat mittlerweile ein so weites Interesse gefunden, dass das Auswärtige Amt zusammen mit der Deutschen UNESCO-Kommission 2006 zu einer Konferenz einlud, über deren Ergebnisse die Deutsche UNESCO-Kommission dieses Handbuch veröffentlicht hat, das neben einer definitorischen und einer historischen Einleitung (Norbert Lossau S.18-22 und Peter Schirmbacher S. 22-25) in vier weiteren Kapiteln die Möglichkeiten und Probleme darstellt. Im zweiten Kapitel werden drei verschiedene Modelle vorgestellt: Open-Access-Repositories am Berliner Beispiel des edoc-Servers (Susanne Dobratz S. 28-32), Open-Access-Journale am Beispiel des New Journal of Physics (Eberhard Bodenschatz S.33-36) und ein Verlagsmodell (Springer Open Choice) von Jan Velterop (S. 37-40). Das dritte Kapitel ist den Formen der Realisierung gewidmet, z. B. der Finanzierung (Stefan Gradmann S.42-45), des Urheberrechts (Karl-Nikolaus Peifer S.46-59), der Qualitätssicherung (Eberhard Bodenschatz und Ulrich Pöschl S.50-55), der Langzeitarchivierung (Ute Schwens und Reinhard Altenhöner S. 50-58), der Struktur der Wissenschaftskommunikation (Hans Pfeiffenberger S.59-62), der Datenverarbeitung (Wolfram Horst-mann S. 65) sowie der Akzeptanz (Johannes Fournier S. 66-70).
  10. Dennett, D.C.: Philosophie des menschlichen Bewußtseins (1994) 0.03
    0.029344633 = product of:
      0.058689266 = sum of:
        0.058689266 = product of:
          0.11737853 = sum of:
            0.11737853 = weight(_text_:22 in 3166) [ClassicSimilarity], result of:
              0.11737853 = score(doc=3166,freq=4.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6565931 = fieldWeight in 3166, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3166)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 7.2000 19:22:32
  11. Sowa, F.: TeX/LaTeX und Graphik : ein Überblick über die Verfahren (1997) 0.03
    0.029259713 = product of:
      0.058519427 = sum of:
        0.058519427 = product of:
          0.11703885 = sum of:
            0.11703885 = weight(_text_:dokumente in 6788) [ClassicSimilarity], result of:
              0.11703885 = score(doc=6788,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.45015684 = fieldWeight in 6788, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6788)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieses Buch gibt einen Überblick über die wichtigsten Verfahren zur Integration von Grafiken in TeX-Dokumente, wobei außer auf die Integration von Schwarzweiß-Grafiken besonders auf die Integration von Halbtonbildern eingegangen wird. Es unterstützt den Leser sowohl bei der Entscheidung für ein geeignetes Verfahren als auch bei der praktischen Arbeit mit TeX/LaTeX
  12. Schmitt, U.: Computer publishing : Grundlagen und Anwendungen (1997) 0.03
    0.029259713 = product of:
      0.058519427 = sum of:
        0.058519427 = product of:
          0.11703885 = sum of:
            0.11703885 = weight(_text_:dokumente in 678) [ClassicSimilarity], result of:
              0.11703885 = score(doc=678,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.45015684 = fieldWeight in 678, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0625 = fieldNorm(doc=678)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Buch behandelt die relevanten Grundlagen und exemplarischen Anwendungen des Computer-Publishing bei der Erstellung papierbasierter und elektronischer Dokumente auf unterschiedlichen Hard- und Software-Plattformen. Praxisorientiert wird dabei u.a. die Erstellung anspruchsvoller Broschüren, Zeitschriften und Bücher step-by-step vorgeführt. Es eignet sich daher als Nachschlagewerk und Kompendium für jeden Praktiker der Druckindustrie, der Druckvorstufe und jeden kreativ Tätigen in Design und Entwurf
  13. Herbst, A.: Anwendungsorientiertes DB-Archivieren : Neue Konzepte zur Archivierung in Datenbanksystemen (1997) 0.03
    0.029259713 = product of:
      0.058519427 = sum of:
        0.058519427 = product of:
          0.11703885 = sum of:
            0.11703885 = weight(_text_:dokumente in 694) [ClassicSimilarity], result of:
              0.11703885 = score(doc=694,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.45015684 = fieldWeight in 694, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0625 = fieldNorm(doc=694)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Forderung nach langfristiger Archivierung zur späteren (Wieder-) Verwendung bezieht sich zunehmend nicht nur auf gedruckte oder elektronische Dokumente, sondern auch auf Daten, die strukturiert in Datenbanksystemen (DBS) gespeichert werden. Heutige DBS-Produkte sehen Archivierung als Datensicherung und geben die Kontrolle über die 'archivierten' Daten auf. In Abgrenzung zum herkömmlichen Backup/Recovery ist anwendungsorientiertes DB-Archivieren charakterisiert durch: Archivierung logischer Datengranulate, Benutzerveranlassung, Datenauslagerung und Archivzugriff. Das Buch stellt Archivierungs- und Nutzungsmodelle sowie -probleme vor und klassifiziert Konzepte und Implementierungsansätze. Als idealaer Archivspeicher wird ein sog. log-strukturiertes Tertiärspeichersystem (LTS) eingesetzt
  14. Gehirn und Bewußtsein (1989) 0.03
    0.027666384 = product of:
      0.05533277 = sum of:
        0.05533277 = product of:
          0.11066554 = sum of:
            0.11066554 = weight(_text_:22 in 2507) [ClassicSimilarity], result of:
              0.11066554 = score(doc=2507,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.61904186 = fieldWeight in 2507, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=2507)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 7.2000 18:21:08
  15. Ehrlich, U.: Bedeutungsanalyse in einem sprachverstehenden System unter Berücksichtigung pragmatischer Faktoren (1990) 0.03
    0.027666384 = product of:
      0.05533277 = sum of:
        0.05533277 = product of:
          0.11066554 = sum of:
            0.11066554 = weight(_text_:22 in 6132) [ClassicSimilarity], result of:
              0.11066554 = score(doc=6132,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.61904186 = fieldWeight in 6132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=6132)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Series
    Sprache und Information; 22
  16. ¬Der Internet-Praktiker : Referenz und Programme (1995) 0.03
    0.027666384 = product of:
      0.05533277 = sum of:
        0.05533277 = product of:
          0.11066554 = sum of:
            0.11066554 = weight(_text_:22 in 4913) [ClassicSimilarity], result of:
              0.11066554 = score(doc=4913,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.61904186 = fieldWeight in 4913, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4913)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    23. 8.1996 12:51:22
  17. Boden, H.: Bibliographische Ermittlungsaufgaben : Gruppenaufgaben 01-35 (1980) 0.03
    0.027666384 = product of:
      0.05533277 = sum of:
        0.05533277 = product of:
          0.11066554 = sum of:
            0.11066554 = weight(_text_:22 in 3679) [ClassicSimilarity], result of:
              0.11066554 = score(doc=3679,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.61904186 = fieldWeight in 3679, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3679)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 5.1999 18:14:05
  18. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.03
    0.027666384 = product of:
      0.05533277 = sum of:
        0.05533277 = product of:
          0.11066554 = sum of:
            0.11066554 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.11066554 = score(doc=4686,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    27.11.2005 18:04:22
  19. Borghoff, U.M.; Rödig, P.; Scheffczyk, J.; Schmitz, L.: Langzeitarchivierung : Methoden zur Erhaltung digitaler Dokumente (2003) 0.03
    0.025862178 = product of:
      0.051724356 = sum of:
        0.051724356 = product of:
          0.10344871 = sum of:
            0.10344871 = weight(_text_:dokumente in 2998) [ClassicSimilarity], result of:
              0.10344871 = score(doc=2998,freq=16.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.3978862 = fieldWeight in 2998, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2998)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 55(2004) H.7, S.432-433 ( I. Schmidt u. A Dirsch-Weigand):" Glücklicherweise hatte man 1988 seine Diplomarbeit auf die teure 3,5"-Diskette und nicht auf die gängige 51/4"-Version gespeichert, bevor man den alten Computer entsorgte! Sonst müsste man heute bereits ein Computermuseum aufsuchen, um noch einen Rechner mit einem 51/4'-Laufwerk zu finden. So legt man erleichtert die Diskette ins Laufwerk ein und stellt dann doch schnell mit Entsetzen fest, dass sie nicht mehr lesbar ist. Gut, dass es zumindest noch den Ausdruck auf Papier gibt! Überträgt man dieses kleine Szenario aus dem Privatbereich auf Unternehmen, Behörden und Organisationen, so lässt sich die dramatische Situation in der Langzeitarchivierung von digitalen Dokumenten erahnen. Dabei sind mit der ständigen Weiterentwicklung der Hardware und der Haltbarkeit der Datenträger nur zwei der zahlreichen Risiken der Langzeitarchivierung angesprochen. Mittlerweile existieren eine Vielzahl unterschiedlicher Dokumenttypen wie E-Mails, Fotos oder Bilanzen in elektronischer Form und zunehmend mehr Dokumente liegen ausschließlich digital vor. Letztere lassen sich häufig gar nicht mehr so einfach ausdrucken, weil sie beispielsweise nicht linear, sondern als Hypertext aufgebaut sind, oder über animierte Grafiken verfügen. Digitale Daten über lange Zeit, das heißt über mehrere Jahrzehnte, zugreifbar zu halten, erfordert einen großen technischen und organisatorischen Weitblick und beständige Aufmerksamkeit für dieses Thema. Leider ist es heute noch viel zu oft gängige Praxis, erst einmal den Kopf in den Sand zu stecken. Schließlich sind die langfristigen Defizite noch nicht spürbar und die Fülle verschiedenartigster Probleme in der digitalen Langzeitverfügbarkeit verstellt den Blick für einen pragmatischen Ansatz. Letztlich muss man sich aber eingestehen, dass eine Auseinandersetzung mit dem Thema unausweichlich ist.
    Das hier besprochene Buch führt grundlegend, umfassend und gut verständlich in das Thema der Langzeitarchivierung digitaler Dokumentbestände ein. Das Problem wird sowohl von der organisatorischen wie auch von der technischen Seite her beleuchtet. Die Verfasser Uwe M. Borghoff, Peter Rödig, Jan Scheffczyk und Lothar Schmitz lehren und forschen am Institut für Softwareentwicklung der Universität der Bundeswehr in München. Den wissenschaftlichen Hintergrund des Buchs bilden mehrere DFG-Forschungsprojekte zum Thema Langzeitarchivierung. Die Autoren gliedern das Thema in zwei etwa gleich großen Teile: Der erste Teil liefert einen methodischen Überblick zur Langzeitverfügbarkeit digitaler Objekte, der zweite Teil stellt einschlägige Initiativen und Projekte vor. Der methodische Überblick führt zunächst ganz allgemein in die Langzeitarchivierung digitaler Dokumente ein, indem die verschiedenen Problemfacetten gut verständlich und nachvollziehbar dargestellt werden. Dabei geht es um grundlegende Archivierungsmodelle und -strategien, technische Lösungsansätze, die Haltbarkeit der Speichermedien und Veralterung der Verarbeitungssoftware sowie juristische und gesellschaftliche Fragen. Dieser Aufriss schärft beim Leser das Problembewusstsein für das gesamte Themenfeld. Im Folgenden werden das komplexe Open Archive Information System (OAIS) und das Deposit System for Electronic Publications (DSEP) als Referenzmodelle für die Archivierung elektronischer Objekte mit Hilfe anschaulicher Bilder gut vermittelt. OAIS ist eine ISO-Norm und umfasst sowohl ein Informationsmodell, das beschreibt, welche (Zusatz-)Informationen gesichert werden müssen, um ein elektronisches Objekt auch künftig verarbeiten und interpretieren zu können, als auch ein Prozess- und Organisationsmodell für die Gestaltung der Abläufe in einem Archiv. Das DSEP ist ein reines Prozessmodell und auf die Anforderungen digitaler Bibliotheken ausgerichtet. Es bindet das OAIS in den Geschäftsgang vorhandener Bibliotheken ein.
    Als technische Archivierungsstrategien werden Migration und Emulation vorgestellt und nach Chancen und Risiken ausführlich bewertet. Bei der Migration werden elektronische Dokumente regelmäßig von einer Hard- bzw. Softwarekonfiguration zur anderen transferiert. Bei der Emulation hingegen wird die originale Hard- und Softwareumgebung eines Dokuments auf jeder weiteren neuen Computergeneration imitiert. Die Beschreibung dieser Archivierungsstrategien fällt stellenweise sehr technisch aus. Der technisch weniger interessierte Leser kann die betreffenden Abschnitte jedoch ausdrücklich überspringen, ohne dass das grundsätzliche Verständnis darunter leidet. Schließlich geben die Autoren einen Überblick über die Methoden der Dokumentbeschreibung. Nach einer ersten Klassifikation der Markup-Sprachen, behandeln sie ihren Einsatz für die Archivierung. Im Mittelpunkt steht die Auszeichnung von archivwürdigen Dokumenten mit Metadaten. Die Verfasser gehen ausführlich auf Strategien ein, die es ermöglichen, Dokumente über lange Zeiträume zu identifizieren und wieder aufzufinden. Anschließend werden die standardisierten Dokumentbeschreibungssprachen TIFF, PDF, HTML, XML, RDF, Topic Maps und DAML+OIL vorgestellt. Jede dieser Sprachen wird zusammenfassend und verständlich beschrieben und im Hinblick auf ihre Bedeutung für die Langzeitarchivierung bewertet. Ein Ausblick auf das Semantic Web schließt das Kapitel ab. Die abschließende Diskussion des methodischen Überblicks fasst zunächst die Folgerungen aus den vorhergehenden Kapiteln anschaulich zusammen, weist auf derzeit noch offene Fragen hin und zeigt den Stand des Machbaren auf. Mit einem vierstufigen kombinierten Lösungsansatz plädieren die Autoren dafür, dass man sich aufmachen sollte, einen eigenen Lösungsweg zu entwickeln, der den organisationsspezifischen Problemen und Anforderungen gerecht wird - gerade weil es noch keine allgemein verbindliche und sichere Lösung gibt. Der zweite Teil des Buchs über einschlägige nationale und internationale Initiativen und Projekte richtet sich vor allem an den Praktiker. Der eine oder andere Leser könnte von den detaillierten Projektbeschreibungen überfordert sein.
    Zunächst geht es um die Verwendung von Dokumentauszeichnung in der Praxis. Projektbeispiele sind die internationale Dublin-Core-Metadaten-Initiative (DCMI) und das australische Archivierungsprojekt Victorian Electronic Records Strategy (VERS). Der Archivierungsbehörde des Staates Victoria geht es vor allem darum, wie Langzeitarchivierung unter Berücksichtigung gängiger Standards und mit minimalem Aufwand hinsichtlich der Metadaten im Rahmen eines behördlichen Archivierungssystems funktionieren kann. Exemplarisch werden weiter die philologische Text Encoding Initiative (TEI), die Programme und Projekte der US-amerikanischen Research Libraries Group (RLG) und das australische Internet-Archivierungsprojekt Pandora vorgestellt. Alle Projektprofile unterstreichen die Bedeutung von Markup für die Archivierungspraxis. In einem weiteren Abschnitt werden Chancen und Risiken der Migration anhand von vier Projekten beleuchtet. Zur Sprache kommen - wiederum - das australische VERS-Projekt und die US-amerikanischen Projekte Preserving the Whole und Risk Management of Digital Informa-tion. In diesen drei Projekten geht es vor allem um die Migration von Dokumenten. Einen zweiten Schwerpunkt bildet die Datenbankmigration, wie sie im DFGProjekt Langzeitarchivierung Digitaler Medien entwickelt wurde. Die damit verbundenen Probleme und Möglichkeiten werden ausführlich dargestellt und diskutiert. Da die Migrationsstrategie in der praktischen Anwendung sehr viel weiter verbreitet ist als die Emulationsstrategie, werden als Abschluss des Buchs die kritischen Aspekte der Emulation lediglich anhand von Studien und Experimenten aufgezeigt. Das Buch "Langzeitarchivierung. Methoden zur Erhaltung digitaler Dokumente" wendet sich in erster Linie an Bibliothekare, Dokumentare, Archivare und Informatiker, die von Berufs wegen für die langfristige Nutzung digitaler Dokumente zuständig sind. Darüber hinaus möchte es aber auch Managern und Juristen, die mit der Sicherung von Dokumenten befasst sind, oder Politikern, die die regulatorischen Rahmenbedingungen der Archivierung gestalten, eine Einführung in die Thematik geben. Dies gelingt, da der Text in einer gut allgemein verständlichen Sprache geschrieben ist und auch die technischen Sachverhalte klar und nachvollziehbar dargestellt sind. Hilfreich ist die übersichtliche und didaktisch durchdachte Gliederung der Kapitel, denen jeweils eine kurze Zusammenfassung vorangestellt ist und deren Hauptaspekte durch die Verwendung von Marginalien hervorgehoben werden. Aufgrund seiner Aktualität, Vollständigkeit und Verständlichkeit kann das Buch allen als Kompendium zur Langzeitarchivierung empfohlen werden, die an digitaler Kultur interessiert sind. Sicher ist auch sein Einsatz als Lehrbuch lohnenswert."
    Form
    Elektronische Dokumente
  20. Stumpf, G. (Bearb.): Beispielsammlung zu den Regeln für den Schlagwortkatalog (RSWK) (1999) 0.03
    0.02560225 = product of:
      0.0512045 = sum of:
        0.0512045 = product of:
          0.102409 = sum of:
            0.102409 = weight(_text_:dokumente in 717) [ClassicSimilarity], result of:
              0.102409 = score(doc=717,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.39388722 = fieldWeight in 717, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=717)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Nachdem die RSWK Ende 1998 in überarbeiteter und erweiterter Auflage erschienen sind, wird nun auch eine neue Fassung der Beispielsammlung vorgelegt. Die völlig neu bearbeitete Ausgabe ist ein wichtiges Hilfsmittel für die praktische Arbeit, in dem die Anwendung der Regeln nicht systematisch vermittelt, sondern an Fallbeispielen zu erschließender Dokumente erläutert wird. Gegenüber der ersten Ausgabe der Beispielsammlung wurde der Umfang unter gleichzeitiger Berücksichtigung aller wesentlichen Elemente der RSWK deutlich reduziert, was Überschaubarkeit und Handhabung erleichtern soll

Types

  • s 33
  • i 11
  • el 4
  • d 1
  • n 1
  • u 1
  • x 1
  • More… Less…

Subjects

Classifications