Search (184 results, page 1 of 10)

  • × type_ss:"m"
  • × year_i:[2000 TO 2010}
  1. Dokumente und Datenbanken in elektronischen Netzen : Tagungsberichte vom 6. und 7. Österreichischen Online-Informationstreffen bzw. vom 7. und 8. Österreichischen Dokumentartag, Schloß Seggau, Seggauberg bei Leibnitz, 26.-29. September 1995, Congresszentrum Igls bei Innsbruck, 21.-24. Oktober 1997 (2000) 0.06
    0.06463936 = product of:
      0.12927872 = sum of:
        0.12927872 = sum of:
          0.08777914 = weight(_text_:dokumente in 4911) [ClassicSimilarity], result of:
            0.08777914 = score(doc=4911,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.33761764 = fieldWeight in 4911, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.046875 = fieldNorm(doc=4911)
          0.041499574 = weight(_text_:22 in 4911) [ClassicSimilarity], result of:
            0.041499574 = score(doc=4911,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.23214069 = fieldWeight in 4911, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4911)
      0.5 = coord(1/2)
    
    Date
    22. 7.2000 16:34:40
  2. Hughes, L.M.: Digitizing collections : strategic issues for the information manager (2004) 0.05
    0.0512045 = product of:
      0.102409 = sum of:
        0.102409 = product of:
          0.204818 = sum of:
            0.204818 = weight(_text_:dokumente in 464) [ClassicSimilarity], result of:
              0.204818 = score(doc=464,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.78777444 = fieldWeight in 464, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.109375 = fieldNorm(doc=464)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  3. Standards und Methoden der Volltextdigitalisierung : Beiträge des Internationalen Kolloquiums an der Universität Trier, 8./9. Oktober 2001 (2003) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 5616) [ClassicSimilarity], result of:
              0.17555828 = score(doc=5616,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 5616, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5616)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  4. Hsieh-Yee, I.: Organizing audiovisual and electronic resources for access : a cataloging guide (2000) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 5754) [ClassicSimilarity], result of:
              0.17555828 = score(doc=5754,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 5754, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5754)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  5. Browne, G.; Jermey, J.: Website indexing : enhancing access to information witbin websites (2001) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 3914) [ClassicSimilarity], result of:
              0.17555828 = score(doc=3914,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 3914, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3914)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  6. E-Text : Strategien und Kompetenzen. Elektronische Kommunikation in Wissenschaft, Bildung und Beruf (2001) 0.04
    0.043092906 = product of:
      0.08618581 = sum of:
        0.08618581 = sum of:
          0.058519427 = weight(_text_:dokumente in 622) [ClassicSimilarity], result of:
            0.058519427 = score(doc=622,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.22507842 = fieldWeight in 622, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.03125 = fieldNorm(doc=622)
          0.027666384 = weight(_text_:22 in 622) [ClassicSimilarity], result of:
            0.027666384 = score(doc=622,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.15476047 = fieldWeight in 622, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=622)
      0.5 = coord(1/2)
    
    Date
    12. 8.2012 18:05:22
    Form
    Elektronische Dokumente
  7. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.04
    0.043092906 = product of:
      0.08618581 = sum of:
        0.08618581 = sum of:
          0.058519427 = weight(_text_:dokumente in 1767) [ClassicSimilarity], result of:
            0.058519427 = score(doc=1767,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.22507842 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
          0.027666384 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
            0.027666384 = score(doc=1767,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.15476047 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
      0.5 = coord(1/2)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  8. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.04
    0.041409507 = product of:
      0.082819015 = sum of:
        0.082819015 = sum of:
          0.062069226 = weight(_text_:dokumente in 729) [ClassicSimilarity], result of:
            0.062069226 = score(doc=729,freq=4.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.23873171 = fieldWeight in 729, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.0234375 = fieldNorm(doc=729)
          0.020749787 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
            0.020749787 = score(doc=729,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.116070345 = fieldWeight in 729, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=729)
      0.5 = coord(1/2)
    
    Abstract
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
    Date
    22. 6.2005 15:12:11
  9. Vonhoegen, H.: Einstieg in XML (2002) 0.04
    0.037706293 = product of:
      0.07541259 = sum of:
        0.07541259 = sum of:
          0.0512045 = weight(_text_:dokumente in 4002) [ClassicSimilarity], result of:
            0.0512045 = score(doc=4002,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.19694361 = fieldWeight in 4002, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4002)
          0.024208086 = weight(_text_:22 in 4002) [ClassicSimilarity], result of:
            0.024208086 = score(doc=4002,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.1354154 = fieldWeight in 4002, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4002)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  10. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 4325) [ClassicSimilarity], result of:
              0.14629857 = score(doc=4325,freq=8.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 4325, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4325)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
  11. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 4385) [ClassicSimilarity], result of:
              0.14629857 = score(doc=4385,freq=8.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 4385, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4385)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
  12. Malina, Barbara [Red.]: Open Access : Chancen und Herausforderungen ; ein Handbuch (2007) 0.03
    0.030514251 = product of:
      0.061028503 = sum of:
        0.061028503 = sum of:
          0.036574643 = weight(_text_:dokumente in 677) [ClassicSimilarity], result of:
            0.036574643 = score(doc=677,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.14067401 = fieldWeight in 677, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.01953125 = fieldNorm(doc=677)
          0.02445386 = weight(_text_:22 in 677) [ClassicSimilarity], result of:
            0.02445386 = score(doc=677,freq=4.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.13679022 = fieldWeight in 677, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=677)
      0.5 = coord(1/2)
    
    Content
    Parallel als Online-Ausg. erschienen: www.unesco.de/fileadmin/medien/Dokumente/Kommunikation/Handbuch_Open_Access.pdf
    Footnote
    Inhaltsbeschreibung Die verschiedenen Initiativen zum Open Access führen zu zwei Systemen, dem so genannten »grünen Weg«, der bereits in gedruckter Form veröffentlichte Publikationen ins Internet stellt, und dem »goldenen Weg«, bei dem die Volltextspeicherung die einzige oder jedenfalls die vorrangige Form darstellt. Die Internationalisierung des Open Access erfolgte auf drei Konferenzen, die 2001 in Budapest, 2003 in Bethesda und im gleichen Jahr in Berlin stattfanden. Diese Volltextspeicherung war ursprünglich auf die naturwissenschaftlich-technischen Disziplinen konzentriert. Doch treten in zunehmendem Maße auch die Geistes- und Sozialwissenschaften dem Prinzip bei. Dabei entstehen natürlich sehr differenzierende Aspekte, zum Beispiel für die Bibliotheken - etwa der Erwerb gedruckter Zeitschriften, Langzeitarchivierung von Interneteintragungen, für den Buchhandel wie für die Autoren - etwa das Urheberrecht, aber auch dort das ökonomische Interesse, wie der Plan des Börsenvereins des Deutschen Buchhandels zu einer eigenen Volltextspeicherung zeigt, dem die Deutsche UNESCO-Kommission eine Ergänzung zum vorliegenden Text nachsandte. Open Access hat mittlerweile ein so weites Interesse gefunden, dass das Auswärtige Amt zusammen mit der Deutschen UNESCO-Kommission 2006 zu einer Konferenz einlud, über deren Ergebnisse die Deutsche UNESCO-Kommission dieses Handbuch veröffentlicht hat, das neben einer definitorischen und einer historischen Einleitung (Norbert Lossau S.18-22 und Peter Schirmbacher S. 22-25) in vier weiteren Kapiteln die Möglichkeiten und Probleme darstellt. Im zweiten Kapitel werden drei verschiedene Modelle vorgestellt: Open-Access-Repositories am Berliner Beispiel des edoc-Servers (Susanne Dobratz S. 28-32), Open-Access-Journale am Beispiel des New Journal of Physics (Eberhard Bodenschatz S.33-36) und ein Verlagsmodell (Springer Open Choice) von Jan Velterop (S. 37-40). Das dritte Kapitel ist den Formen der Realisierung gewidmet, z. B. der Finanzierung (Stefan Gradmann S.42-45), des Urheberrechts (Karl-Nikolaus Peifer S.46-59), der Qualitätssicherung (Eberhard Bodenschatz und Ulrich Pöschl S.50-55), der Langzeitarchivierung (Ute Schwens und Reinhard Altenhöner S. 50-58), der Struktur der Wissenschaftskommunikation (Hans Pfeiffenberger S.59-62), der Datenverarbeitung (Wolfram Horst-mann S. 65) sowie der Akzeptanz (Johannes Fournier S. 66-70).
  13. Trauth, E.M.: Qualitative research in IS : issues and trends (2001) 0.03
    0.027666384 = product of:
      0.05533277 = sum of:
        0.05533277 = product of:
          0.11066554 = sum of:
            0.11066554 = weight(_text_:22 in 5848) [ClassicSimilarity], result of:
              0.11066554 = score(doc=5848,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.61904186 = fieldWeight in 5848, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5848)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    25. 3.2003 15:35:22
  14. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.03
    0.027666384 = product of:
      0.05533277 = sum of:
        0.05533277 = product of:
          0.11066554 = sum of:
            0.11066554 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.11066554 = score(doc=4686,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    27.11.2005 18:04:22
  15. Borghoff, U.M.; Rödig, P.; Scheffczyk, J.; Schmitz, L.: Langzeitarchivierung : Methoden zur Erhaltung digitaler Dokumente (2003) 0.03
    0.025862178 = product of:
      0.051724356 = sum of:
        0.051724356 = product of:
          0.10344871 = sum of:
            0.10344871 = weight(_text_:dokumente in 2998) [ClassicSimilarity], result of:
              0.10344871 = score(doc=2998,freq=16.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.3978862 = fieldWeight in 2998, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2998)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 55(2004) H.7, S.432-433 ( I. Schmidt u. A Dirsch-Weigand):" Glücklicherweise hatte man 1988 seine Diplomarbeit auf die teure 3,5"-Diskette und nicht auf die gängige 51/4"-Version gespeichert, bevor man den alten Computer entsorgte! Sonst müsste man heute bereits ein Computermuseum aufsuchen, um noch einen Rechner mit einem 51/4'-Laufwerk zu finden. So legt man erleichtert die Diskette ins Laufwerk ein und stellt dann doch schnell mit Entsetzen fest, dass sie nicht mehr lesbar ist. Gut, dass es zumindest noch den Ausdruck auf Papier gibt! Überträgt man dieses kleine Szenario aus dem Privatbereich auf Unternehmen, Behörden und Organisationen, so lässt sich die dramatische Situation in der Langzeitarchivierung von digitalen Dokumenten erahnen. Dabei sind mit der ständigen Weiterentwicklung der Hardware und der Haltbarkeit der Datenträger nur zwei der zahlreichen Risiken der Langzeitarchivierung angesprochen. Mittlerweile existieren eine Vielzahl unterschiedlicher Dokumenttypen wie E-Mails, Fotos oder Bilanzen in elektronischer Form und zunehmend mehr Dokumente liegen ausschließlich digital vor. Letztere lassen sich häufig gar nicht mehr so einfach ausdrucken, weil sie beispielsweise nicht linear, sondern als Hypertext aufgebaut sind, oder über animierte Grafiken verfügen. Digitale Daten über lange Zeit, das heißt über mehrere Jahrzehnte, zugreifbar zu halten, erfordert einen großen technischen und organisatorischen Weitblick und beständige Aufmerksamkeit für dieses Thema. Leider ist es heute noch viel zu oft gängige Praxis, erst einmal den Kopf in den Sand zu stecken. Schließlich sind die langfristigen Defizite noch nicht spürbar und die Fülle verschiedenartigster Probleme in der digitalen Langzeitverfügbarkeit verstellt den Blick für einen pragmatischen Ansatz. Letztlich muss man sich aber eingestehen, dass eine Auseinandersetzung mit dem Thema unausweichlich ist.
    Das hier besprochene Buch führt grundlegend, umfassend und gut verständlich in das Thema der Langzeitarchivierung digitaler Dokumentbestände ein. Das Problem wird sowohl von der organisatorischen wie auch von der technischen Seite her beleuchtet. Die Verfasser Uwe M. Borghoff, Peter Rödig, Jan Scheffczyk und Lothar Schmitz lehren und forschen am Institut für Softwareentwicklung der Universität der Bundeswehr in München. Den wissenschaftlichen Hintergrund des Buchs bilden mehrere DFG-Forschungsprojekte zum Thema Langzeitarchivierung. Die Autoren gliedern das Thema in zwei etwa gleich großen Teile: Der erste Teil liefert einen methodischen Überblick zur Langzeitverfügbarkeit digitaler Objekte, der zweite Teil stellt einschlägige Initiativen und Projekte vor. Der methodische Überblick führt zunächst ganz allgemein in die Langzeitarchivierung digitaler Dokumente ein, indem die verschiedenen Problemfacetten gut verständlich und nachvollziehbar dargestellt werden. Dabei geht es um grundlegende Archivierungsmodelle und -strategien, technische Lösungsansätze, die Haltbarkeit der Speichermedien und Veralterung der Verarbeitungssoftware sowie juristische und gesellschaftliche Fragen. Dieser Aufriss schärft beim Leser das Problembewusstsein für das gesamte Themenfeld. Im Folgenden werden das komplexe Open Archive Information System (OAIS) und das Deposit System for Electronic Publications (DSEP) als Referenzmodelle für die Archivierung elektronischer Objekte mit Hilfe anschaulicher Bilder gut vermittelt. OAIS ist eine ISO-Norm und umfasst sowohl ein Informationsmodell, das beschreibt, welche (Zusatz-)Informationen gesichert werden müssen, um ein elektronisches Objekt auch künftig verarbeiten und interpretieren zu können, als auch ein Prozess- und Organisationsmodell für die Gestaltung der Abläufe in einem Archiv. Das DSEP ist ein reines Prozessmodell und auf die Anforderungen digitaler Bibliotheken ausgerichtet. Es bindet das OAIS in den Geschäftsgang vorhandener Bibliotheken ein.
    Als technische Archivierungsstrategien werden Migration und Emulation vorgestellt und nach Chancen und Risiken ausführlich bewertet. Bei der Migration werden elektronische Dokumente regelmäßig von einer Hard- bzw. Softwarekonfiguration zur anderen transferiert. Bei der Emulation hingegen wird die originale Hard- und Softwareumgebung eines Dokuments auf jeder weiteren neuen Computergeneration imitiert. Die Beschreibung dieser Archivierungsstrategien fällt stellenweise sehr technisch aus. Der technisch weniger interessierte Leser kann die betreffenden Abschnitte jedoch ausdrücklich überspringen, ohne dass das grundsätzliche Verständnis darunter leidet. Schließlich geben die Autoren einen Überblick über die Methoden der Dokumentbeschreibung. Nach einer ersten Klassifikation der Markup-Sprachen, behandeln sie ihren Einsatz für die Archivierung. Im Mittelpunkt steht die Auszeichnung von archivwürdigen Dokumenten mit Metadaten. Die Verfasser gehen ausführlich auf Strategien ein, die es ermöglichen, Dokumente über lange Zeiträume zu identifizieren und wieder aufzufinden. Anschließend werden die standardisierten Dokumentbeschreibungssprachen TIFF, PDF, HTML, XML, RDF, Topic Maps und DAML+OIL vorgestellt. Jede dieser Sprachen wird zusammenfassend und verständlich beschrieben und im Hinblick auf ihre Bedeutung für die Langzeitarchivierung bewertet. Ein Ausblick auf das Semantic Web schließt das Kapitel ab. Die abschließende Diskussion des methodischen Überblicks fasst zunächst die Folgerungen aus den vorhergehenden Kapiteln anschaulich zusammen, weist auf derzeit noch offene Fragen hin und zeigt den Stand des Machbaren auf. Mit einem vierstufigen kombinierten Lösungsansatz plädieren die Autoren dafür, dass man sich aufmachen sollte, einen eigenen Lösungsweg zu entwickeln, der den organisationsspezifischen Problemen und Anforderungen gerecht wird - gerade weil es noch keine allgemein verbindliche und sichere Lösung gibt. Der zweite Teil des Buchs über einschlägige nationale und internationale Initiativen und Projekte richtet sich vor allem an den Praktiker. Der eine oder andere Leser könnte von den detaillierten Projektbeschreibungen überfordert sein.
    Zunächst geht es um die Verwendung von Dokumentauszeichnung in der Praxis. Projektbeispiele sind die internationale Dublin-Core-Metadaten-Initiative (DCMI) und das australische Archivierungsprojekt Victorian Electronic Records Strategy (VERS). Der Archivierungsbehörde des Staates Victoria geht es vor allem darum, wie Langzeitarchivierung unter Berücksichtigung gängiger Standards und mit minimalem Aufwand hinsichtlich der Metadaten im Rahmen eines behördlichen Archivierungssystems funktionieren kann. Exemplarisch werden weiter die philologische Text Encoding Initiative (TEI), die Programme und Projekte der US-amerikanischen Research Libraries Group (RLG) und das australische Internet-Archivierungsprojekt Pandora vorgestellt. Alle Projektprofile unterstreichen die Bedeutung von Markup für die Archivierungspraxis. In einem weiteren Abschnitt werden Chancen und Risiken der Migration anhand von vier Projekten beleuchtet. Zur Sprache kommen - wiederum - das australische VERS-Projekt und die US-amerikanischen Projekte Preserving the Whole und Risk Management of Digital Informa-tion. In diesen drei Projekten geht es vor allem um die Migration von Dokumenten. Einen zweiten Schwerpunkt bildet die Datenbankmigration, wie sie im DFGProjekt Langzeitarchivierung Digitaler Medien entwickelt wurde. Die damit verbundenen Probleme und Möglichkeiten werden ausführlich dargestellt und diskutiert. Da die Migrationsstrategie in der praktischen Anwendung sehr viel weiter verbreitet ist als die Emulationsstrategie, werden als Abschluss des Buchs die kritischen Aspekte der Emulation lediglich anhand von Studien und Experimenten aufgezeigt. Das Buch "Langzeitarchivierung. Methoden zur Erhaltung digitaler Dokumente" wendet sich in erster Linie an Bibliothekare, Dokumentare, Archivare und Informatiker, die von Berufs wegen für die langfristige Nutzung digitaler Dokumente zuständig sind. Darüber hinaus möchte es aber auch Managern und Juristen, die mit der Sicherung von Dokumenten befasst sind, oder Politikern, die die regulatorischen Rahmenbedingungen der Archivierung gestalten, eine Einführung in die Thematik geben. Dies gelingt, da der Text in einer gut allgemein verständlichen Sprache geschrieben ist und auch die technischen Sachverhalte klar und nachvollziehbar dargestellt sind. Hilfreich ist die übersichtliche und didaktisch durchdachte Gliederung der Kapitel, denen jeweils eine kurze Zusammenfassung vorangestellt ist und deren Hauptaspekte durch die Verwendung von Marginalien hervorgehoben werden. Aufgrund seiner Aktualität, Vollständigkeit und Verständlichkeit kann das Buch allen als Kompendium zur Langzeitarchivierung empfohlen werden, die an digitaler Kultur interessiert sind. Sicher ist auch sein Einsatz als Lehrbuch lohnenswert."
    Form
    Elektronische Dokumente
  16. E-Serials cataloging : access to continuing and integrating resources via the catalog and the Web (2002) 0.03
    0.02560225 = product of:
      0.0512045 = sum of:
        0.0512045 = product of:
          0.102409 = sum of:
            0.102409 = weight(_text_:dokumente in 1443) [ClassicSimilarity], result of:
              0.102409 = score(doc=1443,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.39388722 = fieldWeight in 1443, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1443)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  17. Knowledge organization and the global information society : Proceedings of the 8th International ISKO Conference 13-16 July 2004, London, UK (2004) 0.02
    0.0244114 = product of:
      0.0488228 = sum of:
        0.0488228 = sum of:
          0.029259713 = weight(_text_:dokumente in 3356) [ClassicSimilarity], result of:
            0.029259713 = score(doc=3356,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.11253921 = fieldWeight in 3356, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.015625 = fieldNorm(doc=3356)
          0.019563088 = weight(_text_:22 in 3356) [ClassicSimilarity], result of:
            0.019563088 = score(doc=3356,freq=4.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.109432176 = fieldWeight in 3356, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=3356)
      0.5 = coord(1/2)
    
    Content
    Inhalt: Session 1 A: Theoretical Foundations of Knowledge Organization 1 Hanne Albrechtsen, Hans H K Andersen, Bryan Cleal and Annelise Mark Pejtersen: Categorical complexity in knowledge integration: empirical evaluation of a cross-cultural film research collaboratory; Clare Beghtol: Naive classification systems and the global information society; Terence R Smith and Marcia L Zeng: Concept maps supported by knowledge organization structures; B: Linguistic and Cultural Approaches to Knowledge Organization 1 Rebecca Green and Lydia Fraser: Patterns in verbal polysemy; Maria J López-Huertas, MarioBarite and Isabel de Torres: Terminological representation of specialized areas in conceptual structures: the case of gender studies; Fidelia Ibekwe-SanJuan and Eric SanJuan: Mining for knowledge chunks in a terminology network Session 2 A: Applications of Artificial Intelligence and Knowledge Representation 1 Jin-Cheon Na, Haiyang Sui, Christopher Khoo, Syin Chan and Yunyun Zhou: Effectiveness of simple linguistic processing in automatic sentiment classification of product reviews; Daniel J O'Keefe: Cultural literacy in a global information society-specific language: an exploratory ontological analysis utilizing comparative taxonomy; Lynne C Howarth: Modelling a natural language gateway to metadata-enabled resources; B: Theoretical Foundations of Knowledge Organization 2: Facets & Their Significance Ceri Binding and Douglas Tudhope: Integrating faceted structure into the search process; Vanda Broughton and Heather Lane: The Bliss Bibliographic Classification in action: moving from a special to a universal faceted classification via a digital platform; Kathryn La Barre: Adventures in faceted classification: a brave new world or a world of confusion? Session 3 A: Theoretical Foundations of Knowledge Organization 3 Elin K Jacob: The structure of context: implications of structure for the creation of context in information systems; Uta Priss: A semiotic-conceptual framework for knowledge representation Giovanni M Sacco; Accessing multimedia infobases through dynamic taxonomies; Joseph T Tennis: URIS and intertextuality: incumbent philosophical commitments in the development of the semantic web; B: Social & Sociological Concepts in Knowledge Organization Grant Campbell: A queer eye for the faceted guy: how a universal classification principle can be applied to a distinct subculture; Jonathan Furner and Anthony W Dunbar: The treatment of topics relating to people of mixed race in bibliographic classification schemes: a critical ace-theoretic approach; H Peter Ohly: The organization of Internet links in a social science clearing house; Chern Li Liew: Cross-cultural design and usability of a digital library supporting access to Maori cultural heritage resources: an examination of knowledge organization issues; Session 4 A: Knowledge Organization of Universal and Special Systems 1: Dewey Decimal Classification Sudatta Chowdhury and G G Chowdhury: Using DDC to create a visual knowledge map as an aid to online information retrieval; Joan S Mitchell: DDC 22: Dewey in the world, the world in Dewey; Diane Vizine-Goetz and Julianne Beall: Using literary warrant to define a version of the DDCfor automated classification services; B: Applications in Knowledge Representation 2 Gerhard J A Riesthuis and Maja Zumer: FRBR and FRANAR: subject access; Victoria Frâncu: An interpretation of the FRBR model; Moshe Y Sachs and Richard P Smiraglia: From encyclopedism to domain-based ontology for knowledge management: the evolution of the Sachs Classification (SC); Session 5 A: Knowledge Organization of Universal and Special Systems 2 Ágnes Hajdu Barát: Knowledge organization of the Universal Decimal Classification: new solutions, user friendly methods from Hungary; Ia C McIlwaine: A question of place; Aida Slavic and Maria Inês Cordeiro: Core requirements for automation of analytico-synthetic classifications;
    Footnote
    Das Rahmenthema der Tagung kam aufgrund des vor und nach der ISKO-Konferenz abgehaltenen "UN World Summit an an Information Society" zustande. Im Titel des Buches ist die "globale Wissensgesellschaft" freilich eher irreführend, da keiner der darin abgedruckten Beiträge zentral davon handelt. Der eine der beiden Vorträge, die den Begriff selbst im Titel anführen, beschäftigt sich mit der Konstruktion einer Taxonomie für "cultural literacy" (O'Keefe), der andere mit sogenannten "naiven Klassifikationssystemen" (Beghtol), d.h. solchen, die im Gegensatz zu "professionellen" Systemen von Personen ohne spezifisches Interesse an klassifikatorischen Fragen entwickelt wurden. Beiträge mit "multi-kulti"-Charakter behandeln etwa Fragen wie - kulturübergreifende Arbeit, etwa beim EU-Filmarchiv-Projekt Collate (Albrechtsen et al.) oder einem Projekt zur Maori-Kultur (Liew); - Mehrsprachigkeit bzw. Übersetzung, z.B. der koreanischen Dezimalklassifikation (Kwasnik & Chun), eines auf der Sears ListofSubject Headings basierenden slowenischen Schlagwortvokabulars (Zalokar), einer spanisch-englischen Schlagwortliste für Gesundheitsfragen (Rosemblat et al.); - universelle Klassifikationssysteme wie die Dewey-Dezimalklassifikation (Joan Mitchell über die DDC 22, sowie zwei weitere Beiträge) und die Internationale Dezimalklassifikation (la McIlwaine über Geographika, Nancy Williamson über Alternativ- und Komplementärmedizin in der UDC). Unter den 55 Beiträgen finden sich folgende - aus der Sicht des Rezensenten - besonders interessante thematische "Cluster": - OPAC-orientierte Beiträge, etwa über die Anforderungen bei derAutomatisierung analytisch-synthetischer Klassifikationssysteme (Slavic & Cordeiro) sowie Beiträge zu Benutzerforschung und -verhalten (Lee & Clyde; Miller); - Erschliessung und Retrieval von visuellen bzw. multimedialen Ressourcen, insbesondere mit Ausrichtung auf Thesauri (Hudin; Garcia Jimenez & De Valle Gastaminza; Rafferty & Hidderley); - Thesaurus-Standards (Dextre Clark et al.), Thesauri und Endbenutzer (Shiri & Revie); - Automatisches Klassifizieren (Vizine-Goetz & Beall mit Bezug auf die DDC; Na et al. über methodische Ansätze bei der Klassifizierung von Produktbesprechungen nach positiven bzw. negativen Gefühlsäusserungen); - Beiträge über (hierzulande) weniger bekannte Systeme wie Facettenklassifikation einschliesslich der Bliss-Klassifikation sowie der Umsetzung der Ideen von Ranganathan durch E.J. Coates (vier Vorträge), die Sachs-Klassifikation (Sachs & Smiraglia) sowie M. S. van der Walts Schema zur Klassifizierung elektronischer Dokumente in Klein- und Mittelbetrieben. Auch die übrigen Beiträge sind mehrheitlich interessant geschrieben und zeugen vom fachlichen Qualitätsstandard der ISKO-Konferenzen. Der Band kann daher bibliothekarischen bzw. informationswissenschaftlichen Ausbildungseinrichtungen sowie Bibliotheken mit Sammelinteresse für Literatur zu Klassifikationsfragen ausdrücklich empfohlen werden. Ausserdem darf der nächsten (= neunten) internationalen ISKO-Konferenz, die 2006 in Wien abgehalten werden soll, mit Interesse entgegengesehen werden.
  18. Kmuche, W.: Strategischer Erfolgsfaktor Wissen : Content Management: der Weg zum erfolgreichen Informationsmanagement (2000) 0.02
    0.024208086 = product of:
      0.04841617 = sum of:
        0.04841617 = product of:
          0.09683234 = sum of:
            0.09683234 = weight(_text_:22 in 644) [ClassicSimilarity], result of:
              0.09683234 = score(doc=644,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.5416616 = fieldWeight in 644, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=644)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    19. 7.2002 22:05:14
  19. International yearbook of library and information management : 2001/2002 information services in an electronic environment (2001) 0.02
    0.024208086 = product of:
      0.04841617 = sum of:
        0.04841617 = product of:
          0.09683234 = sum of:
            0.09683234 = weight(_text_:22 in 1381) [ClassicSimilarity], result of:
              0.09683234 = score(doc=1381,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.5416616 = fieldWeight in 1381, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1381)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    25. 3.2003 13:22:23
  20. Chan, L.M.; Mitchell, J.S.: Dewey Decimal Classification : principles and applications (2003) 0.02
    0.024208086 = product of:
      0.04841617 = sum of:
        0.04841617 = product of:
          0.09683234 = sum of:
            0.09683234 = weight(_text_:22 in 3247) [ClassicSimilarity], result of:
              0.09683234 = score(doc=3247,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.5416616 = fieldWeight in 3247, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3247)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Object
    DDC-22

Languages

  • d 97
  • e 78
  • m 2
  • More… Less…

Types

  • s 56
  • i 2
  • el 1
  • n 1
  • x 1
  • More… Less…

Subjects

Classifications