Search (412 results, page 1 of 21)

  • × type_ss:"m"
  1. Dokumente und Datenbanken in elektronischen Netzen : Tagungsberichte vom 6. und 7. Österreichischen Online-Informationstreffen bzw. vom 7. und 8. Österreichischen Dokumentartag, Schloß Seggau, Seggauberg bei Leibnitz, 26.-29. September 1995, Congresszentrum Igls bei Innsbruck, 21.-24. Oktober 1997 (2000) 0.06
    0.06463936 = product of:
      0.12927872 = sum of:
        0.12927872 = sum of:
          0.08777914 = weight(_text_:dokumente in 4911) [ClassicSimilarity], result of:
            0.08777914 = score(doc=4911,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.33761764 = fieldWeight in 4911, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.046875 = fieldNorm(doc=4911)
          0.041499574 = weight(_text_:22 in 4911) [ClassicSimilarity], result of:
            0.041499574 = score(doc=4911,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.23214069 = fieldWeight in 4911, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4911)
      0.5 = coord(1/2)
    
    Date
    22. 7.2000 16:34:40
  2. Dodd, S.A.: Cataloging machine-readable data files : an interpretive manual (1982) 0.06
    0.058519427 = product of:
      0.11703885 = sum of:
        0.11703885 = product of:
          0.2340777 = sum of:
            0.2340777 = weight(_text_:dokumente in 4176) [ClassicSimilarity], result of:
              0.2340777 = score(doc=4176,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.9003137 = fieldWeight in 4176, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.125 = fieldNorm(doc=4176)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  3. Wiseman, R.: HTML-Dokumente mit Word für Windows erstellen (1995) 0.06
    0.058519427 = product of:
      0.11703885 = sum of:
        0.11703885 = product of:
          0.2340777 = sum of:
            0.2340777 = weight(_text_:dokumente in 7101) [ClassicSimilarity], result of:
              0.2340777 = score(doc=7101,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.9003137 = fieldWeight in 7101, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.125 = fieldNorm(doc=7101)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  4. Hughes, L.M.: Digitizing collections : strategic issues for the information manager (2004) 0.05
    0.0512045 = product of:
      0.102409 = sum of:
        0.102409 = product of:
          0.204818 = sum of:
            0.204818 = weight(_text_:dokumente in 464) [ClassicSimilarity], result of:
              0.204818 = score(doc=464,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.78777444 = fieldWeight in 464, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.109375 = fieldNorm(doc=464)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  5. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.05
    0.04729739 = product of:
      0.09459478 = sum of:
        0.09459478 = product of:
          0.28378433 = sum of:
            0.28378433 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
              0.28378433 = score(doc=5955,freq=2.0), product of:
                0.43280408 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05105019 = queryNorm
                0.65568775 = fieldWeight in 5955, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5955)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].
  6. Proceedings of the DLM-Forum on Electronic Records, Brussels, 18-20 December 1996 (1996) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 1966) [ClassicSimilarity], result of:
              0.17555828 = score(doc=1966,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 1966, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1966)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  7. Standards und Methoden der Volltextdigitalisierung : Beiträge des Internationalen Kolloquiums an der Universität Trier, 8./9. Oktober 2001 (2003) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 5616) [ClassicSimilarity], result of:
              0.17555828 = score(doc=5616,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 5616, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5616)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  8. Hsieh-Yee, I.: Organizing audiovisual and electronic resources for access : a cataloging guide (2000) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 5754) [ClassicSimilarity], result of:
              0.17555828 = score(doc=5754,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 5754, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5754)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  9. ISBD(CF) Review Group: ISBD(ER) : International Standard Bibliographic Description for Electronic Resources (1997) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 6811) [ClassicSimilarity], result of:
              0.17555828 = score(doc=6811,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 6811, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6811)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  10. Browne, G.; Jermey, J.: Website indexing : enhancing access to information witbin websites (2001) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 3914) [ClassicSimilarity], result of:
              0.17555828 = score(doc=3914,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 3914, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3914)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  11. E-Text : Strategien und Kompetenzen. Elektronische Kommunikation in Wissenschaft, Bildung und Beruf (2001) 0.04
    0.043092906 = product of:
      0.08618581 = sum of:
        0.08618581 = sum of:
          0.058519427 = weight(_text_:dokumente in 622) [ClassicSimilarity], result of:
            0.058519427 = score(doc=622,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.22507842 = fieldWeight in 622, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.03125 = fieldNorm(doc=622)
          0.027666384 = weight(_text_:22 in 622) [ClassicSimilarity], result of:
            0.027666384 = score(doc=622,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.15476047 = fieldWeight in 622, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=622)
      0.5 = coord(1/2)
    
    Date
    12. 8.2012 18:05:22
    Form
    Elektronische Dokumente
  12. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.04
    0.043092906 = product of:
      0.08618581 = sum of:
        0.08618581 = sum of:
          0.058519427 = weight(_text_:dokumente in 1767) [ClassicSimilarity], result of:
            0.058519427 = score(doc=1767,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.22507842 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
          0.027666384 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
            0.027666384 = score(doc=1767,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.15476047 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
      0.5 = coord(1/2)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  13. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.04
    0.041409507 = product of:
      0.082819015 = sum of:
        0.082819015 = sum of:
          0.062069226 = weight(_text_:dokumente in 729) [ClassicSimilarity], result of:
            0.062069226 = score(doc=729,freq=4.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.23873171 = fieldWeight in 729, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.0234375 = fieldNorm(doc=729)
          0.020749787 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
            0.020749787 = score(doc=729,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.116070345 = fieldWeight in 729, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=729)
      0.5 = coord(1/2)
    
    Abstract
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
    Date
    22. 6.2005 15:12:11
  14. Vonhoegen, H.: Einstieg in XML (2002) 0.04
    0.037706293 = product of:
      0.07541259 = sum of:
        0.07541259 = sum of:
          0.0512045 = weight(_text_:dokumente in 4002) [ClassicSimilarity], result of:
            0.0512045 = score(doc=4002,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.19694361 = fieldWeight in 4002, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4002)
          0.024208086 = weight(_text_:22 in 4002) [ClassicSimilarity], result of:
            0.024208086 = score(doc=4002,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.1354154 = fieldWeight in 4002, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4002)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  15. Dillon, A.: Designing usable electronic text : ergonomic aspects of human information usage (1994) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 2884) [ClassicSimilarity], result of:
              0.14629857 = score(doc=2884,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 2884, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2884)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  16. Fritz, A.: Cataloguing with AACR2R and USMARC : for books, computer files, serials, sound recordings, videorecordings (1998) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 3344) [ClassicSimilarity], result of:
              0.14629857 = score(doc=3344,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 3344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3344)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  17. Li, X.; Crane, N.: Electronic styles : a handbook for citing electronic information (1996) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 2075) [ClassicSimilarity], result of:
              0.14629857 = score(doc=2075,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 2075, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2075)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  18. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 4325) [ClassicSimilarity], result of:
              0.14629857 = score(doc=4325,freq=8.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 4325, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4325)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
  19. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 4385) [ClassicSimilarity], result of:
              0.14629857 = score(doc=4385,freq=8.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 4385, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4385)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
  20. Panizzi, A.K.C.B.: Passages in my official life (1871) 0.03
    0.034235403 = product of:
      0.068470806 = sum of:
        0.068470806 = product of:
          0.13694161 = sum of:
            0.13694161 = weight(_text_:22 in 935) [ClassicSimilarity], result of:
              0.13694161 = score(doc=935,freq=4.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.76602525 = fieldWeight in 935, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=935)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 7.2007 12:05:26
    22. 7.2007 12:08:24

Languages

  • d 220
  • e 175
  • m 6
  • de 1
  • pl 1
  • More… Less…

Types

  • s 84
  • i 13
  • el 5
  • b 1
  • d 1
  • n 1
  • u 1
  • x 1
  • More… Less…

Themes

Subjects

Classifications