Search (39 results, page 1 of 2)

  • × year_i:[2000 TO 2010}
  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.04
    0.041145228 = product of:
      0.12343568 = sum of:
        0.06365366 = weight(_text_:verteilte in 729) [ClassicSimilarity], result of:
          0.06365366 = score(doc=729,freq=4.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.3025847 = fieldWeight in 729, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.04374442 = weight(_text_:systeme in 729) [ClassicSimilarity], result of:
          0.04374442 = score(doc=729,freq=4.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2508399 = fieldWeight in 729, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.009414565 = weight(_text_:internet in 729) [ClassicSimilarity], result of:
          0.009414565 = score(doc=729,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.09785385 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.006623035 = product of:
          0.01324607 = sum of:
            0.01324607 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
              0.01324607 = score(doc=729,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.116070345 = fieldWeight in 729, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=729)
          0.5 = coord(1/2)
      0.33333334 = coord(4/12)
    
    Abstract
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Date
    22. 6.2005 15:12:11
  2. Poetzsch, E.: Information Retrieval : Einführung in Grundlagen und Methoden (2001) 0.04
    0.035886973 = product of:
      0.21532184 = sum of:
        0.079543285 = weight(_text_:informatik in 1655) [ClassicSimilarity], result of:
          0.079543285 = score(doc=1655,freq=4.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.4783569 = fieldWeight in 1655, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.046875 = fieldNorm(doc=1655)
        0.13577855 = weight(_text_:monographien in 1655) [ClassicSimilarity], result of:
          0.13577855 = score(doc=1655,freq=4.0), product of:
            0.21725276 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032588977 = queryNorm
            0.6249796 = fieldWeight in 1655, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.046875 = fieldNorm(doc=1655)
      0.16666667 = coord(2/12)
    
    Classification
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
    RVK
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
  3. Grundlagen der praktischen Information und Dokumentation (2004) 0.02
    0.02457127 = product of:
      0.09828508 = sum of:
        0.03314304 = weight(_text_:informatik in 693) [ClassicSimilarity], result of:
          0.03314304 = score(doc=693,freq=4.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.19931538 = fieldWeight in 693, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.051553283 = weight(_text_:systeme in 693) [ClassicSimilarity], result of:
          0.051553283 = score(doc=693,freq=8.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2956176 = fieldWeight in 693, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.013588754 = weight(_text_:internet in 693) [ClassicSimilarity], result of:
          0.013588754 = score(doc=693,freq=6.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.14123987 = fieldWeight in 693, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
      0.25 = coord(3/12)
    
    Abstract
    Das Standardwerk zur fachlichen Informationsarbeit wurde 1972 von Klaus Laisiepen, Ernst Lutterbeck und Karl-Heinrich Meyer-Uhlenried begründet. Generationen von Wissenschaftlern, Praktikern, Dozenten und Studierenden schöpften aus diesem Handbuch Kenntnisse und Wissen oder gaben als Autoren ihre Erfahrungen weiter. Mehr als 30 Jahre nach der ersten Publikation wird diese Tradition weitergeführt. Seit der vierten Ausgabe von 1997 sind erhebliche technische, methodische und organisatorische Veränderungen in den Bereichen Information und Dokumentation sowie in der Informationswissenschaft zu verzeichnen. Für die vorliegende Ausgabe konnte mit Rainer Kuhlen als neuem Mitherausgeber die informationswissenschaftliche Komponente weiter gestärkt werden. Der Aufbau der Grundlagen der praktischen Information und Dokumentation spiegelt diese Verbindung von Aktualität und Kontinuität wider: - In KAPITEL A »Grundlegendes« werden die theoretischen und begrifflichen Grundlagen des Fachgebietes erläutert, historische und professionelle Entwicklungen nachgezeichnet. - KAPITEL B »Methoden«, das die methodischen Aspekte der Informationsarbeit behandelt, wurde stark ausgeweitet. Neben den bisherigen Themen wie Klassifikation, Thesaurus usw. werden nun auch neue Aspekte wie Wissensmanagement, Kryptographie oder Dokumentmanagement behandelt. - Fortgeschrieben wurden in KAPITEL C »Systeme - Produkte - Dienstleistungen« die besonderen Fachinformationsbereiche (z.B. Metainformationsdienste des Internet, Datenbank-Management-Systeme oder Technische Redaktion). - Auf dem aktuellen Stand sind auch die Kurzdarstellungen der institutionellen Teile des Informationswesens (Archive, Bibliotheken, Buchhandel, Verlage, Elektronisches Publizieren, Medien, Wirtschaftsinformation, Medizin, E-Commerce u.a.) in KAPITEL D »Bereiche der Fachinformation und -kommunikation«. Gänzlich neu ist KAPITEL E »Information im Kontext«, das Einblicke in andere Wissenschaftsdisziplinen gibt, in denen der Bereich der Information eine immer größere Rolle spielt (z.B. Informatik, Psychologie, Sprachwissenschaft, Pädagogik, Betriebswirtschaft, Politikwissenschaft, Naturwissenschaften, Philosophie oder Neurobiologie). Den Textband mit insgesamt 73 Beiträgen auf 762 Seiten ergänzt Band 2: ein Glossar zu der im Handbuch verwendeten Terminologie mit einem zusätzlichen englischsprachigen Register. Hier werden auf 138 Seiten wichtige Begriffe und Konzepte des Informationswesens definiert und beschrieben. Das Handbuch bietet die zentralen Grundlagen für jeden Studierenden und Lehrenden, für Entscheidungsträger und Praktiker im Bereich der Information und Dokumentation. Es ist damit ein verlässlicher Leitfaden durch die Vielzahl unterschiedlicher Informationsmethoden, -dienste, -systeme und -techniken sowie die damit befassten Bereiche und Institutionen.
    Content
    Enthält die Beiträge: Rainer Kuhlen: Information Thomas Seeger: Entwicklung der Fachinformation und -kommunikation Thomas Seeger: Professionalisierung in der Informationsarbeit: Beruf und Ausbildung in Deutschland Marlies Ockenfeld: Nationale und internationale Institutionen Rainer Kuhlen: Informationsethik Thomas Seeger: (Fach-)Informationspolitik in Deutschland (Bundesrepublik Deutschland) Jürgen W Goebel: Informationsrecht -Recht der Informationswirtschaft Rainer Kuhlen: Wissensökologie Wolfgang Ratzek: Informationsutopien - Proaktive Zukunftsgestaltung. Ein Essay Hans Jürgen Manecke: Klassifikation, Klassieren Margarete Burkart: Thesaurus Ulrich Reimer: Wissensbasierte Verfahren der Organisation und Vermittlung von Information Heidrun Wiesenmüller: Informationsaufbereitung I: Formale Erfassung Gerhard Knorz: Informationsaufbereitung II: Indexieren Rainer Kuhlen: Informationsaufbereitung III: Referieren (Abstracts - Abstracting - Grundlagen) Norbert Fuhr: Theorie des Information Retrieval I: Modelle Holger Nohr: Theorie des Information Retrieval II: Automatische Indexierung Christa Womser-Hacker: Theorie des Information Retrieval III: Evaluierung Walther Umstätter: Szientometrische Verfahren Josef Herget: Informationsmanagement Holger Nohr: Wissensmanagement Michael Kluck: Methoden der Informationsanalyse - Einführung in die empirischen Methoden für die Informationsbedarfsanalyse und die Markt- und Benutzerforschung Michael Kluck: Die Informationsanalyse im Online-Zeitalter. Befunde der Benutzerforschung zum Informationsverhalten im Internet Alfred Kobsa: Adaptive Verfahren -Benutzermodellierung Stefan Grudowski: Innerbetriebliches Informationsmarketing Marc Rittberger: Informationsqualität Bernard Bekavac: Informations- und Kommunikationstechnologien Thomas Schütz: Dokumentenmanagement Nicola Döring: Computervermittelte Kommunikation, Mensch-Computer-Interaktion Daniel A. Keim: Datenvisualisierung und Data Mining Jürgen Krause: Software-Ergonomie Marlies Ockenfeld: Gedruckte Informations- und Suchdienste Joachim Kind: Praxis des Information Retrieval Bernard Bekavac: Metainformationsdienste des Internet Elke Lang: Datenbanken und Datenbank-Management-Systeme Rainer Hammwöhner: Hypertext Ralph Schmidt: Informationsvermittlung Rainer Bohnert: Technologietransfer Holger Nohr: Rechnergestützte Gruppenarbeit. Computer-Supported Cooperative Work (CSCW)
    Jiri Panyr: Technische Redaktion Wolfgang F. Finke: E-Learning Harald H. Zimmermann: Maschinelle und Computergestützte Übersetzung Franziskus Geeb und Ulrike Spree: Wörterbücher und Enzyklopädien Angelika Menne-Haritz: Archive Hans-Christoph Hobohm: Bibliotheken Günter Peters: Medien, Medienwirtschaft Ulrich Riehm: Buchhandel Helmut Wittenzellner: Transformationsprozesse für die Druckbranche auf dem Weg zum Mediendienstleister Dietmar Strauch: Verlagswesen Ulrich Riehm, Knud Böhle und Bernd Wingert: Elektronisches Publizieren Heike Andermann: Initiativen zur Reformierung des Systems wissenschaftlicher Kommunikation Ute Schwens und Hans Liegmann: Langzeitarchivierung digitaler Ressourcen Achim OBwald: Document Delivery/ Dokumentlieferung Willi Bredemeier und Patrick Müller: Informationswirtschaft Martin Michelson: Wirtschaftsinformation Ulrich Kämper: Chemie-Information Wilhelm Gaus: Information und Dokumentation in der Medizin Gottfried Herzog und Hans Jörg Wiesner: Normung Jürgen Krause: Standardisierung und Heterogenität Reinhard Schramm: Patentinformation Wolfgang Semar: E-Commerce Wolfgang Semar: Kryptografie Knud Böhle: Elektronische Zahlungssysteme Herbert Stoyan: Information in der Informatik Gerhard Roth und Christian Eurich: Der Begriff der Information in der Neurobiologie Margarete Boos: Information in der Psychologie Harald H. Zimmermann: Information in der Sprachwissenschaft Ulrich Glowalla: Information und Lernen Eric Schoop: Information in der Betriebswirtschaft: ein neuer Produktionsfaktor? Gerhard Vowe: Der Informationsbegriff in der Politikwissenschaft - eine historische und systematische Bestandsaufnahme Jürgen Krause: Information in den Sozialwissenschaften Holger Lyre: Information in den Naturwissenschaften Norbert Henrichs: Information in der Philosophie
  4. Poetzsch, E.: Information Retrieval : Einführung in Grundlagen und Methoden (2006) 0.02
    0.019057523 = product of:
      0.076230094 = sum of:
        0.048004963 = weight(_text_:monographien in 592) [ClassicSimilarity], result of:
          0.048004963 = score(doc=592,freq=2.0), product of:
            0.21725276 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032588977 = queryNorm
            0.22096364 = fieldWeight in 592, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.0234375 = fieldNorm(doc=592)
        0.013314205 = weight(_text_:internet in 592) [ClassicSimilarity], result of:
          0.013314205 = score(doc=592,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.13838623 = fieldWeight in 592, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=592)
        0.014910921 = product of:
          0.029821843 = sum of:
            0.029821843 = weight(_text_:allgemein in 592) [ClassicSimilarity], result of:
              0.029821843 = score(doc=592,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.17415863 = fieldWeight in 592, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=592)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Footnote
    Rez. in: Online-Mitteilungen 2006, H.88, S.13-15 [=Mitteilungen VOEB 59(2006) H.4] (M. Katzmayr): "Dieses Lehrbuch nun in der 5., völlig neu bearbeiteten Auflage vorliegend - hat zum Ziel, eine praxisorientierte Einführung in das Information Retrieval (IR) zu liefern. Es stellt gemeinsam mit den von derselben Autorin verfassten fachbezogenen Bänden "Wirtschaftsinformation: Online, CD-ROM, Internet" und "Naturwissenschaftlich-technische Information: Online,, CD-ROM, Internet" eine dreiteilige Gesamtausgabe zum IR dar. Der hier besprochene einführende Band gliedert sich in Grundlagen, Methoden und fachbezogene Aspekte (letzteres Kapitel wird in den erwähnten ergänzenden Bänden vertiefend behandelt). Dass es sich bei diesem Band um ein Lehrbuch handelt, wird nicht zuletzt durch Wiederholungsfragen am Ende jedes Kapitels, Rechercheübungen und einige Hausübungen verdeutlicht. Der Schwerpunkt liegt bei lizenzpflichtigen OnlineDatenbanken, das Web Information Retrieval wird nicht behandelt. Das erste Kapitel, "Grundlagen des Information Retrieval", vermittelt ein Basiswissen rund um Recherchedatenbanken und ihren Einsatz, etwa wie Datenbanken gegliedert und einheitlich beschrieben werden können, wie Datensätze in Abhängigkeit der gespeicherten Informationen üblicherweise strukturiert sind, welche Arbeitsschritte eine Recherche typischerweise aufweist oder wie sich die Kosten einer Online-Recherche kategorisieren lassen. Schließlich wird auch eine knappe Marktübersicht wichtiger kommerzieller Datenbankanbieter gegeben. .Im folgenden Kapitel, "Methoden des Information Retrieval", wird das Kommandoretrieval anhand der Abfragesprache DataStarOnline (DSO), die beim Host Dialog DataStar zur Anwendung kommt, erklärt. Neben Grundfunktionen wie Datenbankeinwahl und -wechsel werden die Verwendung von Such und Näheoperatoren, Trunkierung, Limitierung und Befehle zur Anzeige und Ausgabe der Suchergebnisse sowie ausgewählte spezielle Funktionen ausführlich dargestellt. Anschließend findet sich eine mit Screenshots dokumentierte Anleitung zur Benutzung der Websuchoberflächen des Hosts.
    Das dritte Kapitel, "Fachbezogenes Information Retrieval", beschreibt die Retrievalmöglichkeiten der Hosts Dialog und STN International anhand der Retrievalsprachen Dialog und Messenger sowie der Weboberflächen der beiden Anbieter. Thematisch orientiert sich dieses Kapitel an der Wirtschaftsinformation bzw. naturwissenschaftlich-technischen Information. Ein Verzeichnis mit weiterführenden Monographien, eine Auflistung der elektronischen Referenzen und ein Register beschließen den Band. Um das umfassende Thema IR in ein überschaubares Lehrbuchau packen, müssen zwangsläufig Abstriche und Schwerpunktsetzungen vorgenommen werden; die Autorin hat in Abstimmung mit ihrer Lehrveranstaltung, wozu dieses Buch die Lernunterlage bildet, diesen auf lizenzpflichtige Online-Datenbanken gelegt. Allerdings kann diese Einschränkung den Eindruck erwecken, seriöse Recherche sei ausschließlich auf kostenpflichtige Angebote angewiesen; das immer wichtiger und umfangreicher werdende Angebot an wissenschaftlichen-und qualitätskontrollierten kostenlosen' oder gar Open Access-Datenbankeng sollte in einem Einführungsband zumindest erwähnt werden. Eine Abklärung, ob für die Befriedigung eines Informationsbedarfes überhaupt kostenpflichtige Abfragen notig sind, sollte explizit Bestandteil jeder Recherchevorbereitung (Kap. 1.3.) sein. Es wäre fürspätere Auflagen auch zu überlegen, ob nicht etwa boolesche und Näheoperatoren, Phrasensuche, Trunkierung, Klammerung und Feldsuche allgemein und abstrakt im ersten Kapitel besprochen werden sollten. Diese Suchtechniken werden jetzt im 2. und 3. Kapitel nur anhand der ausgewählten Retrievalsprachen: abgehandelt. Andernfalls könnte da<_ erste Kapitel als eigenständige, knappe Leseempfehlung und Lernunterlage zur Einführung in die Datenbankrecherche in der grundständigen Lehre verwendet werden, selbst wenn die Retrievalmöglichkeiten der spezifischen Hosts nicht Unterrichtsthema sind. Etwas schwerer als diese inhaltlichen Anmerkungen wiegt der Vorwurf an die optische Gestaltung des Textes. Uneinheitliche Schriftgrößen, eine Überladung mit Hervorhebungen (Kursivsetzungen, Fettdrucke, Unterstreichungen, mitunter in Kombination) sowie die generelle Bevorzugung der Aufzählung gegenüber dem Fließtext führen zu einem eher unruhigen Erscheinungsbild, was die Auseinandersetzung mit der Thematik und das Zurechtfinden im Buch wohl ein wenig erschwert. Fazit: trotz der angeführten Kritikpunkte handelt es sich hier um einen, empfehlenswerten Einstieg für den Umgang mit Recherchedatenbanken - insbesondere für jene Leserinnen, die an einer explizit praxisorientierten Einführung zum Kommandoretrieval für die angesprochenen Hosts interessiert sind."
  5. Ernst, H.: Grundlagen und Konzepte der Informatik : Eine Einführung in die Informatik ausgehend von den fundamentalen Grundlagen (2000) 0.02
    0.018942825 = product of:
      0.2273139 = sum of:
        0.2273139 = weight(_text_:informatik in 5614) [ClassicSimilarity], result of:
          0.2273139 = score(doc=5614,freq=6.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            1.3670188 = fieldWeight in 5614, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.109375 = fieldNorm(doc=5614)
      0.083333336 = coord(1/12)
    
    Field
    Informatik
  6. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.02
    0.016933704 = product of:
      0.067734815 = sum of:
        0.023435667 = weight(_text_:informatik in 38) [ClassicSimilarity], result of:
          0.023435667 = score(doc=38,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.14093725 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
        0.03645368 = weight(_text_:systeme in 38) [ClassicSimilarity], result of:
          0.03645368 = score(doc=38,freq=4.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.20903322 = fieldWeight in 38, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
        0.007845471 = weight(_text_:internet in 38) [ClassicSimilarity], result of:
          0.007845471 = score(doc=38,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.081544876 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
      0.25 = coord(3/12)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.102-104 (R.F. Müller); ZfBB 53(2006) H.5, S.282-283 (L. Svensson): "Das Sammeln und Verzeichnen elektronischer Ressourcen gehört in wissenschaftlichen Bibliotheken längst zum Alltag. Parallel dazu kündigt sich ein Paradigmenwechsel bei den Findmitteln an: Um einen effizienten und benutzerorientierten Zugang zu den gemischten Kollektionen bieten zu können, experimentieren einige bibliothekarische Diensteanbieter wie z. B. das hbz (http://suchen.hbz-nrw.de/dreilaender/), die Bibliothek der North Carolina State University (www.lib.ncsu.edu/) und demnächst vascoda (www.vascoda.de/) und der Librarians-Internet Index (www.lii.org/) zunehmend mit Suchmaschinentechnologie. Dabei wird angestrebt, nicht nur einen vollinvertierten Suchindex anzubieten, sondern auch das Browsing durch eine hierarchisch geordnete Klassifikation. Von den Daten in den deutschen Verbunddatenbanken ist jedoch nur ein kleiner Teil schon klassifikatorisch erschlossen. Fremddaten aus dem angloamerikanischen Bereich sind oft mit LCC und/oder DDC erschlossen, wobei die Library of Congress sich bei der DDCErschließung auf Titel, die hauptsächlich für die Public Libraries interessant sind, konzentriert. Die Deutsche Nationalbibliothek wird ab 2007 Printmedien und Hochschulschriften flächendeckend mit DDC erschließen. Es ist aber schon offensichtlich, dass v. a. im Bereich der elektronischen Publikationen die anfallenden Dokumentenmengen mit immer knapperen Personalressourcen nicht intellektuell erschlossen werden können, sondern dass neue Verfahren entwickelt werden müssen. Hier kommt Oberhausers Buch gerade richtig. Seit Anfang der 1990er Jahre sind mehrere Projekte zum Thema automatisches Klassifizieren durchgeführt worden. Wer sich in diese Thematik einarbeiten wollte oder sich für die Ergebnisse der größeren Projekte interessierte, konnte bislang auf keine Überblicksdarstellung zurückgreifen, sondern war auf eine Vielzahl von Einzeluntersuchungen sowie die Projektdokumentationen angewiesen. Oberhausers Darstellung, die auf einer Fülle von publizierter und grauer Literatur fußt, schließt diese Lücke. Das selbst gesetzte Ziel, einen guten Überblick über den momentanen Kenntnisstand und die Ergebnisse der einschlägigen Projekte verständlich zu vermitteln, erfüllt der Autor mit Bravour. Dabei ist anzumerken, dass er ein bibliothekarisches Grundwissen und mindestens grundlegende Kenntnisse über informationswissenschaftliche Grundbegriffe und Fragestellungen voraussetzt, wobei hier für den Einsteiger einige Hinweise auf einführende Darstellungen wünschenswert gewesen wären.
    Series
    Europäische Hochschulschriften: Reihe 41: Informatik; Bd.43
  7. Kowalski, G.J.; Maybury, M.T.: Information storage and retrieval systems : theory and implemetation (2000) 0.01
    0.013448846 = product of:
      0.08069307 = sum of:
        0.061863944 = weight(_text_:systeme in 6727) [ClassicSimilarity], result of:
          0.061863944 = score(doc=6727,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.35474116 = fieldWeight in 6727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=6727)
        0.01882913 = weight(_text_:internet in 6727) [ClassicSimilarity], result of:
          0.01882913 = score(doc=6727,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.1957077 = fieldWeight in 6727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=6727)
      0.16666667 = coord(2/12)
    
    Abstract
    This book provides a theoretical and practical explanation of the latest advancements in information retrieval and their application to existing systems. It takes a system approach, discussing all aspects of an IR system. The major difference between this book and the first edition is the addition to this text of descriptions of the automated indexing of multimedia dicuments, as items in information retrieval are now considered to be a combination of text along with graphics, audio, image and video data types. The growth of the Internet and the availability of enormous volumes of data in digital form have necessitated intense interest in techniques to assist the user in locating data
    Content
    Information Retrieval - Recherchestrategie - Information Retrieval Systeme - Datenbanksysteme - Multimedia - Indexierungsverfahren - Maschinelle Indexierungsverfahren - Clustering - Datenstruktur - Hypertext
  8. Bertram, J.: Einführung in die inhaltliche Erschließung : Grundlagen - Methoden - Instrumente (2005) 0.01
    0.012055074 = product of:
      0.048220295 = sum of:
        0.032003306 = weight(_text_:monographien in 210) [ClassicSimilarity], result of:
          0.032003306 = score(doc=210,freq=2.0), product of:
            0.21725276 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032588977 = queryNorm
            0.1473091 = fieldWeight in 210, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.015625 = fieldNorm(doc=210)
        0.0062763765 = weight(_text_:internet in 210) [ClassicSimilarity], result of:
          0.0062763765 = score(doc=210,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.0652359 = fieldWeight in 210, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.015625 = fieldNorm(doc=210)
        0.009940614 = product of:
          0.019881228 = sum of:
            0.019881228 = weight(_text_:allgemein in 210) [ClassicSimilarity], result of:
              0.019881228 = score(doc=210,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.11610576 = fieldWeight in 210, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.015625 = fieldNorm(doc=210)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Abstract
    Die inhaltliche Erschließung geht von der Frage aus, wie man sich gezielt und schnell einen Zugang zu Dokumentinhalten und eine Orientierung über sie verschaffen kann. Ein Dokument kann dabei alles sein, was als Träger inhaltlicher Daten in Betracht kommt: eine Patentschrift oder ein Plakat, ein Fernsehbeitrag oder ein Musikstück, ein musealer Gegenstand oder eine Internetquelle, ein Buch, ein Zeitungsartikel und vieles mehr. Als Dozentin für inhaltliche Erschließung am Potsdamer Institut für Information und Dokumentation (IID), das wissenschaftliche Dokumentare ausbildet, habe ich mich mit obiger Frage vier Jahre lang beschäftigt. Das vorliegende Buch stellt eine Essenz meiner Unterrichtsmaterialien dar, die ich im Laufe dieser Zeit entwickelt habe. Mit der Erstellung der Materialien wollte ich zum einen dem Mangel an aktueller deutschsprachiger Literatur zum Thema 'Inhaltserschließung' begegnen und außerdem das Lehrgeschehen so vollständig wie möglich dokumentieren. Die Zusammenfassung meiner Skripte zu einer Buchpublikation ist eine Reaktion auf das häufig geäußerte Bedürfnis der Kursteilnehmer, neben all den Loseblattsammlungen auch ein "richtiges Buch" erstehen zu können. Die Publikation richtet sich aber ebenso an mein derzeitiges Klientel, die Studentinnen und Studenten des Fachhochschulstudiengangs Informationsberufe in Eisenstadt (Österreich). Darüber hinaus ist sie an jegliche Teilnehmer von Studiengängen im Bibliotheks-, Informations- und Dokumentationsbereich adressiert. Zudem verbinde ich mit ihr die Hoffnung, daß sie auch der einen oder anderen lehrenden Person als ein Hilfsmittel dienen möge. Bei der Erstellung der Lehrmaterialien ging es mir nicht darum, das Rad neu zu erfinden. Vielmehr war es meine Absicht, die bereits vorhandenen Räder zusammenzutragen und in einem einheitlichen Konzept zu vereinen. Der Literaturpool, aus dem sich die Publikation speist, besteht zunächst aus nationalen und internationalen Normen, die den Bereich der Inhaltserschließung berühren. Dazu kommen die nicht eben zahlreichen Monographien und Aufsätze im deutschen Sprachraum sowie einige englischsprachige Buchpublikationen zum Thema. Schließlich habe ich Zeitschriftenartikel aus dem Bibliotheks- und Dokumentationsbereich der letzten vier Jahre einbezogen, mehrheitlich ebenfalls aus dem deutschen Sprachraum, vereinzelt aus dem anglo-amerikanischen. Ein wesentliches Anliegen dieses Buches ist es, Licht in das terminologische Dunkel zu bringen, das sich dem interessierten Leser bei intensivem Literaturstudium darbietet. Denn der faktische Sprachgebrauch weicht häufig vom genormten ab, die Bibliothekare verwenden andere Ausdrücke als die Dokumentare und Informationswissenschaftler, unterschiedliche Autoren sprechen unterschiedliche Sprachen und auch die Normen selbst sind längst nicht immer eindeutig. Ich habe mich um terminologische Konsistenz in der Weise bemüht, daß ich alternative deutsche Ausdrucksformen zu einem Terminus in Fußnoten aufführe. Dort finden sich gegebenenfalls auch die entsprechenden englischen Bezeichnungen, wobei ich mich in dieser Hinsicht überwiegend an dem genormten englischen Vokabular orientiert habe.
    Das Buch beginnt mit einem Überblick über die wesentlichen Themen der Inhaltserschließung (Kap. 1). Es führt in die zentrale Problemstellung ein, die sich an die Dualität zwischen Begriffen und Bezeichnungen knüpft (Kap. 2). Danach stehen die Methoden der Inhaltserschließung im Vordergrund: Das Abstracting (Kap. 3), das Indexieren (Kap. 4) und automatische Verfahren der Inhaltserschließung (Kap. 5). Für diese Methoden werden jeweils Arbeitschritte und Qualitätskriterien benannt und es werden typologische Unterteilungen vorgenommen. Ein weiteres Kapitel ist einem häufig vernachlässigtem Produkt inhaltserschließender Tätigkeit gewidmet, dem Register (Kap. 6). Mit Dokumentationssprachen kommen dann wichtige Erschließungsinstrumente zu Wort. Nach einem Überblick (Kap. 7) geht es um ihre beiden Ausprägungen, nämlich um Klassifikationen (Kap. 8-10) und um Thesauri (Kap. 11-12). Sie werden vor allem unter dem Aspekt ihrer Erstellung thematisiert. Zudem werden Qualitätskriterien und typologische Ausformungen angesprochen. Nach einem zusammenfassenden Vergleich von Dokumentationssprachen (Kap. 13) wird mit dem Internet schließlich exemplarisch ein Anwendungsbereich vorgestellt. Dabei geht es zunächst um die Erschließung von Internetquellen ganz allgemein (Kap. 14) und dann besonders um diejenige von Fachinformationsquellen (Kap. 15). Jedes Kapitel beginnt mit einem Überblick über die wesentlichen Inhalte und die zugrunde liegende Literatur und endet mit ausgewählten bibliographischen Angaben. Diese sind gegebenenfalls mit Hinweisen auf Rezensionen versehen. Die Gesamtheit der zitierten Literatur findet sich im abschließenden Literaturverzeichnis. Grundlegende Begriffe sind gesperrt kursiv, Beispiele und Eigennamen einfach kursiv gesetzt, Pfeile (->) stellen stets Verweise auf Abbildungen oder Tabellen dar. Die angeführten Internetquellen wurden zuletzt am 11-2-2005 auf ihre Gültigkeit hin überprüft. Die vier theoretischen Kernmodule (Abstracting, Indexieren, Klassifikationen, Thesauri) werden von Übungsbeispielen flankiert, wie ich sie so oder so ähnlich in der Lehre am IID eingesetzt habe. Sie sind mit exemplarischen Lösungsvorschlägen versehen. Dabei versteht es sich von selbst, daß diese Vorschläge nur einige wenige von vielen möglichen darstellen. Mein Dank für das Zustandekommen dieser Publikation gilt zunächst den Teilnehmerinnen und Teilnehmer meiner Kurse am III). Sie haben mich durch ihre ermutigenden Rückmeldungen, ihre rege Beteiligung am Unterrichtsgeschehen und ihre kritischen Fragen immer wieder dazu motiviert, Lehrinhalte zu hinterfragen und zu präzisieren. Jutta Lindenthal hat mit wertvollen Anregungen zu diesem Buch beigetragen. Außerdem danke ich ihr für die immense Sorgfalt, Zeit und Geduld, die sie auf das Gegenlesen des Manuskripts verwandt hat, und vor allem für ihre Begeisterungsfähigkeit. Für die akribische Suche nach formalen Fehlern geht ein herzliches Dankeschön an meinen Vater. Mein Dank für Korrekturtätigkeiten gilt ferner Sabine Walz und Jan Dürrschnabel. Zum Schluß noch eine persönliche Anmerkung: Ich übernahm die Inhaltserschließung damals mit einer großen Portion Skepsis und in der Erwartung, es mit einer unendlich trockenen Materie zu tun zu bekommen. Je intensiver ich mich dann damit beschäftigte, desto größer wurde meine Begeisterung. Wenn ich meinen Lesern auch nur einen Funken davon vermitteln kann, dann wäre das für mich ein großer Erfolg.
  9. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.01
    0.008345557 = product of:
      0.05007334 = sum of:
        0.04124263 = weight(_text_:systeme in 1767) [ClassicSimilarity], result of:
          0.04124263 = score(doc=1767,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2364941 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.008830713 = product of:
          0.017661426 = sum of:
            0.017661426 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.017661426 = score(doc=1767,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
  10. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2000) 0.01
    0.0077333758 = product of:
      0.092800505 = sum of:
        0.092800505 = weight(_text_:informatik in 1082) [ClassicSimilarity], result of:
          0.092800505 = score(doc=1082,freq=4.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.55808306 = fieldWeight in 1082, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1082)
      0.083333336 = coord(1/12)
    
    RSWK
    Medizinische Informatik / Lehrbuch
    Subject
    Medizinische Informatik / Lehrbuch
  11. Brühl, B.: Thesauri und Klassifikationen : Naturwissenschaften - Technik - Wirtschaft (2005) 0.01
    0.0077212965 = product of:
      0.046327777 = sum of:
        0.037497066 = weight(_text_:informatik in 3487) [ClassicSimilarity], result of:
          0.037497066 = score(doc=3487,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.2254996 = fieldWeight in 3487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=3487)
        0.008830713 = product of:
          0.017661426 = sum of:
            0.017661426 = weight(_text_:22 in 3487) [ClassicSimilarity], result of:
              0.017661426 = score(doc=3487,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.15476047 = fieldWeight in 3487, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3487)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Footnote
    Rez. in: Information: Wissenschaft & Praxis 56(2005) H.5/6, S.337 (W. Ratzek): "Bettina Brühl legt mit "Thesauri und Klassifikationen" ein Fleißarbeit vor. Das Buch mit seiner Auswahl von über 150 Klassifikationen und Thesauri aus Naturwissenschaft, Technik, Wirtschaft und Patenwesen macht es zu einem brauchbaren Nachschlagewerk, zumal auch ein umfassender Index nach Sachgebieten, nach Datenbanken und nach Klassifikationen und Thesauri angeboten wird. Nach einer 13-seitigen Einführung (Kapitel 1 und 2) folgt mit dem 3. Kapitel die "Darstellung von Klassifikationen und Thesauri", im wesentlichen aus den Beschreibungen der Hersteller zusammengestellt. Hier werden Dokumentationssprachen der Fachgebiete - Naturwissenschaften (3.1) und deren Spezialisierungen wie zum Beispiel "Biowissenschaften und Biotechnologie", "Chemie" oder "Umwelt und Ökonomie", aber auch "Mathematik und Informatik" (?) auf 189 Seiten vorgestellt, - Technik mit zum Beispiel "Fachordnung Technik", "Subject Categories (INIS/ ETDE) mit 17 Seiten verhältnismäßig knapp abgehandelt, - Wirtschaft mit "Branchen-Codes", "Product-Codes", "Länder-Codes"",Fachklas-sifikationen" und "Thesauri" ausführlich auf 57 Seiten präsentiert, - Patente und Normen mit zum Beispiel "Europäische Patentklassifikation" oder "International Patent Classification" auf 33 Seiten umrissen. Jedes Teilgebiet wird mit einer kurzen Beschreibung eingeleitet. Danach folgen die jeweiligen Beschreibungen mit den Merkmalen: "Anschrift des Erstellers", "Themen-gebiet(e)", "Sprache", "Verfügbarkeit", "An-wendung" und "Ouelle(n)". "Das Buch wendet sich an alle Information Professionals, die Dokumentationssprachen aufbauen und nutzen" heißt es in der Verlagsinformation. Zwar ist es nicht notwendig, die informationswissenschaftlichen Aspekte der Klassifikationen und Thesauri abzuhandeln, aber ein Hinweis auf die Bedeutung der Information und Dokumentation und/oder der Informationswissenschaft wäre schon angebracht, um in der Welt der Informations- und Wissenswirtschaft zu demonstrieren, welchen Beitrag unsere Profession leistet. Andernfalls bleibt das Blickfeld eingeschränkt und der Anschluss an neuere Entwicklungen ausgeblendet. Dieser Anknüpfungspunkt wäre beispielsweise durch einen Exkurs über Topic Map/Semantic Web gegeben. Der Verlag liefert mit der Herausgabe die ses Kompendiums einen nützlichen ersten Baustein zu einem umfassenden Verzeichnis von Thesauri und Klassifikationen."
    Series
    Materialien zur Information und Dokumentation; Bd.22
  12. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2005) 0.01
    0.006249511 = product of:
      0.07499413 = sum of:
        0.07499413 = weight(_text_:informatik in 679) [ClassicSimilarity], result of:
          0.07499413 = score(doc=679,freq=8.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.4509992 = fieldWeight in 679, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=679)
      0.083333336 = coord(1/12)
    
    BK
    54.75 / Sprachverarbeitung <Informatik>
    Classification
    54.75 / Sprachverarbeitung <Informatik>
    RSWK
    Medizinische Informatik / Lehrbuch
    Subject
    Medizinische Informatik / Lehrbuch
  13. Internet : Eine Einführung in die Nutzung der Internet-Dienste (2000) 0.01
    0.0054355017 = product of:
      0.06522602 = sum of:
        0.06522602 = weight(_text_:internet in 3161) [ClassicSimilarity], result of:
          0.06522602 = score(doc=3161,freq=6.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.67795134 = fieldWeight in 3161, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=3161)
      0.083333336 = coord(1/12)
    
    Theme
    Internet
  14. Babiak, U.: Effektive Suche im Internet : Suchstrategien, Methoden, Quellen (2001) 0.01
    0.0051777465 = product of:
      0.06213296 = sum of:
        0.06213296 = weight(_text_:internet in 6488) [ClassicSimilarity], result of:
          0.06213296 = score(doc=6488,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.64580244 = fieldWeight in 6488, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=6488)
      0.083333336 = coord(1/12)
    
    Theme
    Internet
  15. Computerlinguistik und Sprachtechnologie : Eine Einführung (2001) 0.01
    0.0051553287 = product of:
      0.061863944 = sum of:
        0.061863944 = weight(_text_:systeme in 1749) [ClassicSimilarity], result of:
          0.061863944 = score(doc=1749,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.35474116 = fieldWeight in 1749, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
      0.083333336 = coord(1/12)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen und statistischen Verfahren ausführlich und beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Der letzte Teil des Buchs gibt einen Überblick über die sprachtechnologischen Anwendungen in der Praxis und zeigt anhand einer Vielzahl konkreter Fragestellungen - von Spracherkennung über Sprachsynthese, Information Retrieval bis hin zu Dialogsystemen und automatischer Übersetzung - das Zusammenwirken der einzelnen Methoden auf. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand" [Manfred Pinkal]
  16. Oberhauser, O.: Automatisches Klassifizieren : Verfahren zur Erschließung elektronischer Dokumente (2004) 0.00
    0.0048604906 = product of:
      0.058325887 = sum of:
        0.058325887 = weight(_text_:systeme in 2487) [ClassicSimilarity], result of:
          0.058325887 = score(doc=2487,freq=4.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.33445317 = fieldWeight in 2487, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.03125 = fieldNorm(doc=2487)
      0.083333336 = coord(1/12)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
  17. Vickery, B.C.; Vickery, A.: Information science in theory and practice (2004) 0.00
    0.0046861186 = product of:
      0.02811671 = sum of:
        0.015690941 = weight(_text_:internet in 4320) [ClassicSimilarity], result of:
          0.015690941 = score(doc=4320,freq=8.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.16308975 = fieldWeight in 4320, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
        0.012425768 = product of:
          0.024851536 = sum of:
            0.024851536 = weight(_text_:allgemein in 4320) [ClassicSimilarity], result of:
              0.024851536 = score(doc=4320,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.1451322 = fieldWeight in 4320, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4320)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Footnote
    Rez. in: BuB 56(2004) H.12, S.743 (H, Meinhardt): "1987 erstmals erschienen und seitdem ein Klassiker unter den Lehrbüchern im Feld der Information Science, liegt nunmehr die dritte, deutlich veränderte Auflage vor. Notwendig geworden war die Überarbeitung vor allem durch die Dynamik im Bereich der Informationstechnologien und deren Auswirkungen sowohl auf die Praxis der Informationsspezialisten wie auch die Disziplin selber. Augenfälligste Veränderung ist denn auch ein neues Kapitel zu »Internet und Informationswissenschaft«. »Chemical librarians« Zunächst einige Worte zu den Autoren, die dem einen oder anderen vielleicht nicht bekannt sind: Brian C. Vickery und Alina Vickery sind beide von ihrer Ausbildung her Chemiker und waren als Ehepartner (Alina Vickery starb Ende 2001) auch beruflich vielfältig gemeinsam tätig. Wie viele Chemiker (man denke nur Eugene Garfield, den Begründer der modernen Szientometrie) sensibilisiert für den Umgang mit enormen Informationsmengen und damit Informationsproblemen, zudem als »chemical librarian« (Brian C. Vickery) und Mitarbeiter von chemischen Fachzeitschriften auch professionell beschäftigt mit Fragen des Fachinformationstransfers, haben sie sich (insbesondere Brian C. Vickery) frühzeitig und kontinuierlich informationswissenschaftlich betätigt. Resultat ist eine Fülle von Publikationen, vor allem zu den Bereichen Indexieren, Klassifizieren, Information Retrieval, auch zur Geschichte der wissenschaftlichen Kommunikation (alle Arbeiten sind im Anhang aufgelistet). Brian C. Vickery war außerdem, das dürfte für Bibliothekare von Interesse sein, als Deputy beim Aufbau der National Lending Library for Science and Technology (NLLST) in Boston Spa beteiligt, die ihre Arbeit 1961 aufnahm und 1973 mit in die neu gegründete British Library einging. Und es sei hier schon vorab bemerkt, dass der immer wiederkehrende Bezug von informationswissenschaftlichen Fragestellungen auf die bibliothekarische Praxis ein Vorzug dieses Buches ist.
    Ungewohnte Einordnung und Gewichtung Von der Konzeption her ist das Buch am ehesten als eine Art einführendes Handbuch zu beschreiben, das sehr stark Querschnittscharakter hat. Dem entspricht die inhaltlich weit gespannte Gliederung, die die meisten informationswissenschaftlichen Bereiche streift. Die Autoren verfolgen explizit nicht das Ziel, eine Art Manual für die Informationspraxis oder für das Informationsmanagement vorzulegen, sondern versprechen einen Mix aus theoretischer Annäherung und praxisorientierter Handreichung - und enttäuschen damit nicht. Der deutsche Leser, der mit hiesigen Lehrbüchern zur Informationswissenschaft nicht gerade verwöhnt ist und sich in aller Regel aus vielen Quellen Puzzleartig sein Bild von »Informationswissenschaft« zusammenstoppeln muss (eine nach wie vor rühmliche Ausnahme sind die mehrbändigen »Grundlagen der praktischen Information und Dokumentation«, deren Neuauflage gerade erschienen sind), wird vieles, allerdings in ungewohnter Einordnung und Gewichtung, hier gesammelt vorfinden. Im Einzelnen gehen Vickery auf folgende Bereiche ein: Information und Gesellschaft, Informationstransfer in natürlichen, sozialen, maschinellen Umgebungen, Besonderheiten und Ausprägungen menschlicher Kommunikation und Informationsbedürfnisse, das gesamte Gebiet des Information Retrieval, Wissensrepräsentation, Informationsvermittlung, Informationssysteme und deren Evaluation, Internet und Informationswissenschaft.
    Soziologisch geprägt Das alles auf nicht einmal 350 Seiten: Hier kann es also immer nur um ein »Anreißen« gehen, was sich immer wieder, zum Beispiel in den Abschnitten zu Information Retrieval oder zu Formen der Wissensrepräsentation, schmerzhaft bemerkbar macht. Auf Klassifikationen, Thesauri, Formen des Abstracting und so weiter wird so gut wie nicht eingegangen. Hier ist generell zu fragen, ob die Gewichtung, die die Autoren vornehmen, sinnvoll ist. Ihr Ansatz, Informationswissenschaft zu beschreiben als »the study of the communication of information in sociery«, ist ein sehr weiter und findet seinen Niederschlag in überdimensionierten Abschnitten, die stark soziologisch geprägt sind, ohne wirklich erhellend zu sein; dazu sind die Aussagen, zum Beispiel zu Reichweiten von Kommunikation oder zu verschiedenen Kommunikationstypen, zu allgemein. Bedeutsamer, da dieser umfassende Ansatz überhaupt nicht durchgehalten wird, sondern sich immer stärker verengt hin auf Kommunikation von wissenschaftlicher Information, ist jedoch, dass auch dieses Buch letztlich den Eindruck hinterlässt, Informationswissenschaft sei ein Konglomerat miteinander relativ unverbundener Theorien und Bausteine. Dieser Eindruck, der sich beim Lesen auch deshalb immer wieder aufdrängt, weil sowohl die historische EntwicklungderDisziplin nur sehr verknappt (generell USA-zentriert) wie auch die Abgrenzung/Überschneidungzu anderen Wissenschaften wenig thematisiert wird (ganz stark spürbarim Kapitel 3 »Widercontexts of information transfer«), mildert sich etwas durch die sehr verdienstvolle Auflistung von bekannten Informationsspezialisten im Anhang und die Visualisierung der Informationswissenschaft, ihrer Zweige und bedeutender Vertreter, in Form einer Art »Landkarte«.
    Ein Anliegen aller Das neu hinzugekommene Kapitel zu Informationswissenschaft und Internet versucht auf rund 40 Seiten einen Rundumschlag zu informationswissenschaftlichen Fragestellungen von HTML bis hin zu digitalen Bibliotheken. Auch wenn dieses Kapitel nicht konsistent erscheint, knüpfen die Autoren hier an unmittelbar zurückliegende Forschungen an und fordern ein neues und erweitertes Verständnis von Informationswissenschaft, die die Informationsbedürfnisse aller sozialen Gruppen zu ihrem Anliegen machen müsse. Hier am ehesten schließt sich der Kreis zu dem eingangs bekundeten Verständnis von Informationswissenschaft. Kritische Anmerkung Kritisch muss angemerkt werden, dass es mit den Aktualisierungen, ausgenommen das neu hinzugekommene Kapitel zum Internet, so weit nicht her ist. Besonders ärgerlich sind die vielen Verweise auf Studien und Forschungsergebnisse der Sechziger- und Siebzigerjahre. Unbenommen dieser kritischen Hinweise, bleibt der Titel der Vickerys ein einführendes Buch, dessen Lektüre Gewinn bringend ist und das nach wie vor ein Grundlagenwerk genannt werden kann."
  18. Holzinger, A.: Basiswissen Multimedia : Bd.1: Technik (2000) 0.00
    0.004529585 = product of:
      0.054355018 = sum of:
        0.054355018 = weight(_text_:internet in 5813) [ClassicSimilarity], result of:
          0.054355018 = score(doc=5813,freq=6.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.56495947 = fieldWeight in 5813, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=5813)
      0.083333336 = coord(1/12)
    
    Abstract
    Multimedia und Internet, Hypertext und Hypermedia - spannende Begriffe an der Schwelle zum nächsten Jahrtausend. Das Fachbuch behandelt technologische Grundlagen multimedialer Informationssysteme: - Information und Kommunikation / Signale und Codierung / Audiotechnik / Videotechnik / Multimedia via Internet
    Theme
    Internet
  19. Stock, W.G.: Qualitätskriterien von Suchmaschinen : Checkliste für Retrievalsysteme (2000) 0.00
    0.0044548893 = product of:
      0.026729334 = sum of:
        0.015690941 = weight(_text_:internet in 5773) [ClassicSimilarity], result of:
          0.015690941 = score(doc=5773,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.16308975 = fieldWeight in 5773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
        0.011038392 = product of:
          0.022076784 = sum of:
            0.022076784 = weight(_text_:22 in 5773) [ClassicSimilarity], result of:
              0.022076784 = score(doc=5773,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.19345059 = fieldWeight in 5773, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5773)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Suchmaschinen im World Wide Web wird nachgesagt, dass sie - insbesondere im Vergleich zur Retrievalsoftware kommerzieller Online-Archive suboptimale Methoden und Werkzeuge einsetzen. Elaborierte befehlsorientierte Retrievalsysteme sind vom Laien gar nicht und vom Professional nur dann zu bedienen, wenn man stets damit arbeitet. Die Suchsysteme einiger "independents", also isolierter Informationsproduzenten im Internet, zeichnen sich durch einen Minimalismus aus, der an den Befehlsumfang anfangs der 70er Jahre erinnert. Retrievalsoftware in Intranets, wenn sie denn überhaupt benutzt wird, setzt fast ausnahmslos auf automatische Methoden von Indexierung und Retrieval und ignoriert dabei nahezu vollständig dokumentarisches Know how. Suchmaschinen bzw. Retrievalsysteme - wir wollen beide Bezeichnungen synonym verwenden - bereiten demnach, egal wo sie vorkommen, Schwierigkeiten. An ihrer Qualität wird gezweifelt. Aber was heißt überhaupt: Qualität von Suchmaschinen? Was zeichnet ein gutes Retrievalsystem aus? Und was fehlt einem schlechten? Wir wollen eine Liste von Kriterien entwickeln, die für gutes Suchen (und Finden!) wesentlich sind. Es geht also ausschließlich um Quantität und Qualität der Suchoptionen, nicht um weitere Leistungsindikatoren wie Geschwindigkeit oder ergonomische Benutzerschnittstellen. Stillschweigend vorausgesetzt wirdjedoch der Abschied von ausschließlich befehlsorientierten Systemen, d.h. wir unterstellen Bildschirmgestaltungen, die die Befehle intuitiv einleuchtend darstellen. Unsere Checkliste enthält nur solche Optionen, die entweder (bei irgendwelchen Systemen) schon im Einsatz sind (und wiederholt damit zum Teil Altbekanntes) oder deren technische Realisierungsmöglichkeit bereits in experimentellen Umgebungen aufgezeigt worden ist. insofern ist die Liste eine Minimalforderung an Retrievalsysteme, die durchaus erweiterungsfähig ist. Gegliedert wird der Kriterienkatalog nach (1.) den Basisfunktionen zur Suche singulärer Datensätze, (2.) den informetrischen Funktionen zur Charakterisierunggewisser Nachweismengen sowie (3.) den Kriterien zur Mächtigkeit automatischer Indexierung und natürlichsprachiger Suche
    Source
    Password. 2000, H.5, S.22-31
  20. Suchen und Finden im Internet : oder: "Die Nadel im Heuhaufen" (2001) 0.00
    0.0044380687 = product of:
      0.05325682 = sum of:
        0.05325682 = weight(_text_:internet in 4489) [ClassicSimilarity], result of:
          0.05325682 = score(doc=4489,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.55354494 = fieldWeight in 4489, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=4489)
      0.083333336 = coord(1/12)
    
    Theme
    Internet

Languages

  • d 23
  • e 16

Types

  • m 36
  • a 1
  • el 1
  • s 1
  • x 1
  • More… Less…

Classifications