Search (81 results, page 1 of 5)

  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.04
    0.041753095 = product of:
      0.12525928 = sum of:
        0.06459406 = weight(_text_:verteilte in 729) [ClassicSimilarity], result of:
          0.06459406 = score(doc=729,freq=4.0), product of:
            0.2134743 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.033070438 = queryNorm
            0.3025847 = fieldWeight in 729, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.044390686 = weight(_text_:systeme in 729) [ClassicSimilarity], result of:
          0.044390686 = score(doc=729,freq=4.0), product of:
            0.1769682 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033070438 = queryNorm
            0.2508399 = fieldWeight in 729, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.009553653 = weight(_text_:internet in 729) [ClassicSimilarity], result of:
          0.009553653 = score(doc=729,freq=2.0), product of:
            0.09763186 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033070438 = queryNorm
            0.09785385 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.0067208814 = product of:
          0.013441763 = sum of:
            0.013441763 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
              0.013441763 = score(doc=729,freq=2.0), product of:
                0.11580704 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033070438 = queryNorm
                0.116070345 = fieldWeight in 729, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=729)
          0.5 = coord(1/2)
      0.33333334 = coord(4/12)
    
    Abstract
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Date
    22. 6.2005 15:12:11
  2. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.04
    0.03538289 = product of:
      0.14153156 = sum of:
        0.05381229 = weight(_text_:informatik in 1735) [ClassicSimilarity], result of:
          0.05381229 = score(doc=1735,freq=4.0), product of:
            0.16874103 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033070438 = queryNorm
            0.3189046 = fieldWeight in 1735, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
        0.059187576 = weight(_text_:systeme in 1735) [ClassicSimilarity], result of:
          0.059187576 = score(doc=1735,freq=4.0), product of:
            0.1769682 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033070438 = queryNorm
            0.33445317 = fieldWeight in 1735, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
        0.028531685 = product of:
          0.05706337 = sum of:
            0.05706337 = weight(_text_:allgemein in 1735) [ClassicSimilarity], result of:
              0.05706337 = score(doc=1735,freq=4.0), product of:
                0.17376354 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.033070438 = queryNorm
                0.32839668 = fieldWeight in 1735, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1735)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen, der Graphentheorie, den statistischen Verfahren sowie der Texttechnologie beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik und Phonologie, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Die drei letzten Teile des Buchs geben Überblicke über die verwendeten sprachtechnologischen Informationsquellen, die vielfältigen Anwendungen in der Praxis sowie über Evaluationsverfahren für sprachverarbeitende Systeme. Anhand konkreter Fragestellungen - von der Entwicklung von Korrekturprogrammen über das Informationsmanagement bis zur Maschinellen Übersetzung - wird das Zusammenwirken der einzelnen Methoden aufgezeigt. Für die dritte Auflage wurden sämtliche Kapitel überarbeitet und aktualisiert sowie zum Teil zu eigenständigen, neuen Kapiteln zusammengeführt. Insbesondere trägt die dritte Auflage der rasanten Entwicklung in der Computerlinguistik und Sprachtechnologie durch eine stärkere Fokussierung auf statistische Grundlagen und Methoden Rechnung. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand." [Manfred Pinkal]
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    54.75 Sprachverarbeitung Informatik
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    54.75 Sprachverarbeitung Informatik
  3. Grundlagen der praktischen Information und Dokumentation (2004) 0.02
    0.024934279 = product of:
      0.099737115 = sum of:
        0.033632684 = weight(_text_:informatik in 693) [ClassicSimilarity], result of:
          0.033632684 = score(doc=693,freq=4.0), product of:
            0.16874103 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033070438 = queryNorm
            0.19931538 = fieldWeight in 693, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.05231492 = weight(_text_:systeme in 693) [ClassicSimilarity], result of:
          0.05231492 = score(doc=693,freq=8.0), product of:
            0.1769682 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033070438 = queryNorm
            0.2956176 = fieldWeight in 693, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.01378951 = weight(_text_:internet in 693) [ClassicSimilarity], result of:
          0.01378951 = score(doc=693,freq=6.0), product of:
            0.09763186 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033070438 = queryNorm
            0.14123987 = fieldWeight in 693, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
      0.25 = coord(3/12)
    
    Abstract
    Das Standardwerk zur fachlichen Informationsarbeit wurde 1972 von Klaus Laisiepen, Ernst Lutterbeck und Karl-Heinrich Meyer-Uhlenried begründet. Generationen von Wissenschaftlern, Praktikern, Dozenten und Studierenden schöpften aus diesem Handbuch Kenntnisse und Wissen oder gaben als Autoren ihre Erfahrungen weiter. Mehr als 30 Jahre nach der ersten Publikation wird diese Tradition weitergeführt. Seit der vierten Ausgabe von 1997 sind erhebliche technische, methodische und organisatorische Veränderungen in den Bereichen Information und Dokumentation sowie in der Informationswissenschaft zu verzeichnen. Für die vorliegende Ausgabe konnte mit Rainer Kuhlen als neuem Mitherausgeber die informationswissenschaftliche Komponente weiter gestärkt werden. Der Aufbau der Grundlagen der praktischen Information und Dokumentation spiegelt diese Verbindung von Aktualität und Kontinuität wider: - In KAPITEL A »Grundlegendes« werden die theoretischen und begrifflichen Grundlagen des Fachgebietes erläutert, historische und professionelle Entwicklungen nachgezeichnet. - KAPITEL B »Methoden«, das die methodischen Aspekte der Informationsarbeit behandelt, wurde stark ausgeweitet. Neben den bisherigen Themen wie Klassifikation, Thesaurus usw. werden nun auch neue Aspekte wie Wissensmanagement, Kryptographie oder Dokumentmanagement behandelt. - Fortgeschrieben wurden in KAPITEL C »Systeme - Produkte - Dienstleistungen« die besonderen Fachinformationsbereiche (z.B. Metainformationsdienste des Internet, Datenbank-Management-Systeme oder Technische Redaktion). - Auf dem aktuellen Stand sind auch die Kurzdarstellungen der institutionellen Teile des Informationswesens (Archive, Bibliotheken, Buchhandel, Verlage, Elektronisches Publizieren, Medien, Wirtschaftsinformation, Medizin, E-Commerce u.a.) in KAPITEL D »Bereiche der Fachinformation und -kommunikation«. Gänzlich neu ist KAPITEL E »Information im Kontext«, das Einblicke in andere Wissenschaftsdisziplinen gibt, in denen der Bereich der Information eine immer größere Rolle spielt (z.B. Informatik, Psychologie, Sprachwissenschaft, Pädagogik, Betriebswirtschaft, Politikwissenschaft, Naturwissenschaften, Philosophie oder Neurobiologie). Den Textband mit insgesamt 73 Beiträgen auf 762 Seiten ergänzt Band 2: ein Glossar zu der im Handbuch verwendeten Terminologie mit einem zusätzlichen englischsprachigen Register. Hier werden auf 138 Seiten wichtige Begriffe und Konzepte des Informationswesens definiert und beschrieben. Das Handbuch bietet die zentralen Grundlagen für jeden Studierenden und Lehrenden, für Entscheidungsträger und Praktiker im Bereich der Information und Dokumentation. Es ist damit ein verlässlicher Leitfaden durch die Vielzahl unterschiedlicher Informationsmethoden, -dienste, -systeme und -techniken sowie die damit befassten Bereiche und Institutionen.
    Content
    Enthält die Beiträge: Rainer Kuhlen: Information Thomas Seeger: Entwicklung der Fachinformation und -kommunikation Thomas Seeger: Professionalisierung in der Informationsarbeit: Beruf und Ausbildung in Deutschland Marlies Ockenfeld: Nationale und internationale Institutionen Rainer Kuhlen: Informationsethik Thomas Seeger: (Fach-)Informationspolitik in Deutschland (Bundesrepublik Deutschland) Jürgen W Goebel: Informationsrecht -Recht der Informationswirtschaft Rainer Kuhlen: Wissensökologie Wolfgang Ratzek: Informationsutopien - Proaktive Zukunftsgestaltung. Ein Essay Hans Jürgen Manecke: Klassifikation, Klassieren Margarete Burkart: Thesaurus Ulrich Reimer: Wissensbasierte Verfahren der Organisation und Vermittlung von Information Heidrun Wiesenmüller: Informationsaufbereitung I: Formale Erfassung Gerhard Knorz: Informationsaufbereitung II: Indexieren Rainer Kuhlen: Informationsaufbereitung III: Referieren (Abstracts - Abstracting - Grundlagen) Norbert Fuhr: Theorie des Information Retrieval I: Modelle Holger Nohr: Theorie des Information Retrieval II: Automatische Indexierung Christa Womser-Hacker: Theorie des Information Retrieval III: Evaluierung Walther Umstätter: Szientometrische Verfahren Josef Herget: Informationsmanagement Holger Nohr: Wissensmanagement Michael Kluck: Methoden der Informationsanalyse - Einführung in die empirischen Methoden für die Informationsbedarfsanalyse und die Markt- und Benutzerforschung Michael Kluck: Die Informationsanalyse im Online-Zeitalter. Befunde der Benutzerforschung zum Informationsverhalten im Internet Alfred Kobsa: Adaptive Verfahren -Benutzermodellierung Stefan Grudowski: Innerbetriebliches Informationsmarketing Marc Rittberger: Informationsqualität Bernard Bekavac: Informations- und Kommunikationstechnologien Thomas Schütz: Dokumentenmanagement Nicola Döring: Computervermittelte Kommunikation, Mensch-Computer-Interaktion Daniel A. Keim: Datenvisualisierung und Data Mining Jürgen Krause: Software-Ergonomie Marlies Ockenfeld: Gedruckte Informations- und Suchdienste Joachim Kind: Praxis des Information Retrieval Bernard Bekavac: Metainformationsdienste des Internet Elke Lang: Datenbanken und Datenbank-Management-Systeme Rainer Hammwöhner: Hypertext Ralph Schmidt: Informationsvermittlung Rainer Bohnert: Technologietransfer Holger Nohr: Rechnergestützte Gruppenarbeit. Computer-Supported Cooperative Work (CSCW)
    Jiri Panyr: Technische Redaktion Wolfgang F. Finke: E-Learning Harald H. Zimmermann: Maschinelle und Computergestützte Übersetzung Franziskus Geeb und Ulrike Spree: Wörterbücher und Enzyklopädien Angelika Menne-Haritz: Archive Hans-Christoph Hobohm: Bibliotheken Günter Peters: Medien, Medienwirtschaft Ulrich Riehm: Buchhandel Helmut Wittenzellner: Transformationsprozesse für die Druckbranche auf dem Weg zum Mediendienstleister Dietmar Strauch: Verlagswesen Ulrich Riehm, Knud Böhle und Bernd Wingert: Elektronisches Publizieren Heike Andermann: Initiativen zur Reformierung des Systems wissenschaftlicher Kommunikation Ute Schwens und Hans Liegmann: Langzeitarchivierung digitaler Ressourcen Achim OBwald: Document Delivery/ Dokumentlieferung Willi Bredemeier und Patrick Müller: Informationswirtschaft Martin Michelson: Wirtschaftsinformation Ulrich Kämper: Chemie-Information Wilhelm Gaus: Information und Dokumentation in der Medizin Gottfried Herzog und Hans Jörg Wiesner: Normung Jürgen Krause: Standardisierung und Heterogenität Reinhard Schramm: Patentinformation Wolfgang Semar: E-Commerce Wolfgang Semar: Kryptografie Knud Böhle: Elektronische Zahlungssysteme Herbert Stoyan: Information in der Informatik Gerhard Roth und Christian Eurich: Der Begriff der Information in der Neurobiologie Margarete Boos: Information in der Psychologie Harald H. Zimmermann: Information in der Sprachwissenschaft Ulrich Glowalla: Information und Lernen Eric Schoop: Information in der Betriebswirtschaft: ein neuer Produktionsfaktor? Gerhard Vowe: Der Informationsbegriff in der Politikwissenschaft - eine historische und systematische Bestandsaufnahme Jürgen Krause: Information in den Sozialwissenschaften Holger Lyre: Information in den Naturwissenschaften Norbert Henrichs: Information in der Philosophie
  4. Lancaster, F.W.: Vocabulary control for information retrieval (1986) 0.02
    0.02092449 = product of:
      0.12554693 = sum of:
        0.10762458 = weight(_text_:informatik in 217) [ClassicSimilarity], result of:
          0.10762458 = score(doc=217,freq=4.0), product of:
            0.16874103 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033070438 = queryNorm
            0.6378092 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0625 = fieldNorm(doc=217)
        0.017922351 = product of:
          0.035844702 = sum of:
            0.035844702 = weight(_text_:22 in 217) [ClassicSimilarity], result of:
              0.035844702 = score(doc=217,freq=2.0), product of:
                0.11580704 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033070438 = queryNorm
                0.30952093 = fieldWeight in 217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=217)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Classification
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    Date
    22. 4.2007 10:07:51
    RVK
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
  5. Ernst, H.: Grundlagen und Konzepte der Informatik : Eine Einführung in die Informatik ausgehend von den fundamentalen Grundlagen (2000) 0.02
    0.01922268 = product of:
      0.23067217 = sum of:
        0.23067217 = weight(_text_:informatik in 5614) [ClassicSimilarity], result of:
          0.23067217 = score(doc=5614,freq=6.0), product of:
            0.16874103 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033070438 = queryNorm
            1.3670188 = fieldWeight in 5614, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.109375 = fieldNorm(doc=5614)
      0.083333336 = coord(1/12)
    
    Field
    Informatik
  6. Babiak, U.: Effektive Suche im Internet : Suchstrategien, Methoden, Quellen (1998) 0.02
    0.018745942 = product of:
      0.11247565 = sum of:
        0.09007271 = weight(_text_:internet in 668) [ClassicSimilarity], result of:
          0.09007271 = score(doc=668,freq=16.0), product of:
            0.09763186 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033070438 = queryNorm
            0.92257494 = fieldWeight in 668, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=668)
        0.02240294 = product of:
          0.04480588 = sum of:
            0.04480588 = weight(_text_:22 in 668) [ClassicSimilarity], result of:
              0.04480588 = score(doc=668,freq=2.0), product of:
                0.11580704 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033070438 = queryNorm
                0.38690117 = fieldWeight in 668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=668)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    RSWK
    Internet / Suchmaschine (21)
    Internet / Navigieren (21)
    Internet / Online-Recherche (21)
    Signature
    77 TWP 3911(2)+22
    Subject
    Internet / Suchmaschine (21)
    Internet / Navigieren (21)
    Internet / Online-Recherche (21)
    Theme
    Internet
  7. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.02
    0.017183878 = product of:
      0.06873551 = sum of:
        0.023781898 = weight(_text_:informatik in 38) [ClassicSimilarity], result of:
          0.023781898 = score(doc=38,freq=2.0), product of:
            0.16874103 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033070438 = queryNorm
            0.14093725 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
        0.036992233 = weight(_text_:systeme in 38) [ClassicSimilarity], result of:
          0.036992233 = score(doc=38,freq=4.0), product of:
            0.1769682 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033070438 = queryNorm
            0.20903322 = fieldWeight in 38, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
        0.0079613775 = weight(_text_:internet in 38) [ClassicSimilarity], result of:
          0.0079613775 = score(doc=38,freq=2.0), product of:
            0.09763186 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033070438 = queryNorm
            0.081544876 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
      0.25 = coord(3/12)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.102-104 (R.F. Müller); ZfBB 53(2006) H.5, S.282-283 (L. Svensson): "Das Sammeln und Verzeichnen elektronischer Ressourcen gehört in wissenschaftlichen Bibliotheken längst zum Alltag. Parallel dazu kündigt sich ein Paradigmenwechsel bei den Findmitteln an: Um einen effizienten und benutzerorientierten Zugang zu den gemischten Kollektionen bieten zu können, experimentieren einige bibliothekarische Diensteanbieter wie z. B. das hbz (http://suchen.hbz-nrw.de/dreilaender/), die Bibliothek der North Carolina State University (www.lib.ncsu.edu/) und demnächst vascoda (www.vascoda.de/) und der Librarians-Internet Index (www.lii.org/) zunehmend mit Suchmaschinentechnologie. Dabei wird angestrebt, nicht nur einen vollinvertierten Suchindex anzubieten, sondern auch das Browsing durch eine hierarchisch geordnete Klassifikation. Von den Daten in den deutschen Verbunddatenbanken ist jedoch nur ein kleiner Teil schon klassifikatorisch erschlossen. Fremddaten aus dem angloamerikanischen Bereich sind oft mit LCC und/oder DDC erschlossen, wobei die Library of Congress sich bei der DDCErschließung auf Titel, die hauptsächlich für die Public Libraries interessant sind, konzentriert. Die Deutsche Nationalbibliothek wird ab 2007 Printmedien und Hochschulschriften flächendeckend mit DDC erschließen. Es ist aber schon offensichtlich, dass v. a. im Bereich der elektronischen Publikationen die anfallenden Dokumentenmengen mit immer knapperen Personalressourcen nicht intellektuell erschlossen werden können, sondern dass neue Verfahren entwickelt werden müssen. Hier kommt Oberhausers Buch gerade richtig. Seit Anfang der 1990er Jahre sind mehrere Projekte zum Thema automatisches Klassifizieren durchgeführt worden. Wer sich in diese Thematik einarbeiten wollte oder sich für die Ergebnisse der größeren Projekte interessierte, konnte bislang auf keine Überblicksdarstellung zurückgreifen, sondern war auf eine Vielzahl von Einzeluntersuchungen sowie die Projektdokumentationen angewiesen. Oberhausers Darstellung, die auf einer Fülle von publizierter und grauer Literatur fußt, schließt diese Lücke. Das selbst gesetzte Ziel, einen guten Überblick über den momentanen Kenntnisstand und die Ergebnisse der einschlägigen Projekte verständlich zu vermitteln, erfüllt der Autor mit Bravour. Dabei ist anzumerken, dass er ein bibliothekarisches Grundwissen und mindestens grundlegende Kenntnisse über informationswissenschaftliche Grundbegriffe und Fragestellungen voraussetzt, wobei hier für den Einsteiger einige Hinweise auf einführende Darstellungen wünschenswert gewesen wären.
    Series
    Europäische Hochschulschriften: Reihe 41: Informatik; Bd.43
  8. Foskett, A.C.: ¬The subject approach to information (1996) 0.02
    0.01679934 = product of:
      0.10079604 = sum of:
        0.08735427 = weight(_text_:205 in 749) [ClassicSimilarity], result of:
          0.08735427 = score(doc=749,freq=2.0), product of:
            0.20875357 = queryWeight, product of:
              6.312392 = idf(docFreq=217, maxDocs=44218)
              0.033070438 = queryNorm
            0.41845644 = fieldWeight in 749, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.312392 = idf(docFreq=217, maxDocs=44218)
              0.046875 = fieldNorm(doc=749)
        0.013441763 = product of:
          0.026883526 = sum of:
            0.026883526 = weight(_text_:22 in 749) [ClassicSimilarity], result of:
              0.026883526 = score(doc=749,freq=2.0), product of:
                0.11580704 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033070438 = queryNorm
                0.23214069 = fieldWeight in 749, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=749)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    25. 7.2002 21:22:31
    Footnote
    Rez. in: Managing information. 3(1996) no.10, S.47 (B. Bater); Journal of documentation. 53(1997) no.2, S.203-205 (R. Brunt); Library review. 46(1997) nos.3/4.282-283 (D. Anderson); Journal of academic librarianship. 23(1997) no.1, S.59 (C.M. Jagodzinski); Knowledge organization 24(1997) no.4, S.259-260 (M.P. Satija)
  9. Lamprecht, S.: Professionelle Recherche im Internet (1999) 0.02
    0.015714146 = product of:
      0.09428487 = sum of:
        0.05897871 = weight(_text_:internet in 3856) [ClassicSimilarity], result of:
          0.05897871 = score(doc=3856,freq=14.0), product of:
            0.09763186 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033070438 = queryNorm
            0.6040929 = fieldWeight in 3856, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3856)
        0.03530616 = product of:
          0.07061232 = sum of:
            0.07061232 = weight(_text_:allgemein in 3856) [ClassicSimilarity], result of:
              0.07061232 = score(doc=3856,freq=2.0), product of:
                0.17376354 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.033070438 = queryNorm
                0.40637016 = fieldWeight in 3856, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3856)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Dieses Buch bietet einen sehr guten Überblick, wie man sich Informationen schnell und effizient verschaffen kann. Neben Suchmaschinen werden auch Mailing-Listen und Newsgroups (Diskussionforen) vorgestellt. Es wird anschaulich beschrieben, wie sie gegliedert sind und wie man daran teilnehmen kann. Rund die Hälfte des Buches beschäftigt sich mit Spezialrecherchen, wie etwa die Suche nach Software, Personen oder Jobs. Im Kapitel 'Quellen für Aus- und Fortbildung' findet man neben der 'Free Internet Encyclopdedia' und den 'Online Dictionaries' viele weitere nützliche Adressen. Obwohl sich das Buch primär an Profis richtet, ist es auch für Einsteiger geeignet. Die Recherchestrategien werden allgemein verständlich erklärt
    RSWK
    Internet / Online-Recherche (21)
    Internet / Suchmaschine (21)
    Subject
    Internet / Online-Recherche (21)
    Internet / Suchmaschine (21)
    Theme
    Internet
  10. Gralla, P.: So funktioniert das Internet : ein visueller Streifzug durch das Internet (1998) 0.02
    0.015601944 = product of:
      0.093611665 = sum of:
        0.07120872 = weight(_text_:internet in 667) [ClassicSimilarity], result of:
          0.07120872 = score(doc=667,freq=10.0), product of:
            0.09763186 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033070438 = queryNorm
            0.7293595 = fieldWeight in 667, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=667)
        0.02240294 = product of:
          0.04480588 = sum of:
            0.04480588 = weight(_text_:22 in 667) [ClassicSimilarity], result of:
              0.04480588 = score(doc=667,freq=2.0), product of:
                0.11580704 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033070438 = queryNorm
                0.38690117 = fieldWeight in 667, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=667)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    15. 7.2002 20:48:22
    RSWK
    Internet / Einführung
    Subject
    Internet / Einführung
    Theme
    Internet
  11. Kowalski, G.J.; Maybury, M.T.: Information storage and retrieval systems : theory and implemetation (2000) 0.01
    0.013647536 = product of:
      0.08188521 = sum of:
        0.06277791 = weight(_text_:systeme in 6727) [ClassicSimilarity], result of:
          0.06277791 = score(doc=6727,freq=2.0), product of:
            0.1769682 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033070438 = queryNorm
            0.35474116 = fieldWeight in 6727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=6727)
        0.019107306 = weight(_text_:internet in 6727) [ClassicSimilarity], result of:
          0.019107306 = score(doc=6727,freq=2.0), product of:
            0.09763186 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033070438 = queryNorm
            0.1957077 = fieldWeight in 6727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=6727)
      0.16666667 = coord(2/12)
    
    Abstract
    This book provides a theoretical and practical explanation of the latest advancements in information retrieval and their application to existing systems. It takes a system approach, discussing all aspects of an IR system. The major difference between this book and the first edition is the addition to this text of descriptions of the automated indexing of multimedia dicuments, as items in information retrieval are now considered to be a combination of text along with graphics, audio, image and video data types. The growth of the Internet and the availability of enormous volumes of data in digital form have necessitated intense interest in techniques to assist the user in locating data
    Content
    Information Retrieval - Recherchestrategie - Information Retrieval Systeme - Datenbanksysteme - Multimedia - Indexierungsverfahren - Maschinelle Indexierungsverfahren - Clustering - Datenstruktur - Hypertext
  12. Kaiser, U.: Handbuch Internet und Online Dienste : der kompetente Reiseführer für das digitale Netz (1996) 0.01
    0.013487859 = product of:
      0.08092715 = sum of:
        0.05404362 = weight(_text_:internet in 4589) [ClassicSimilarity], result of:
          0.05404362 = score(doc=4589,freq=4.0), product of:
            0.09763186 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033070438 = queryNorm
            0.55354494 = fieldWeight in 4589, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=4589)
        0.026883526 = product of:
          0.05376705 = sum of:
            0.05376705 = weight(_text_:22 in 4589) [ClassicSimilarity], result of:
              0.05376705 = score(doc=4589,freq=2.0), product of:
                0.11580704 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033070438 = queryNorm
                0.46428138 = fieldWeight in 4589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4589)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Series
    Heyne Business; 22/1019
    Theme
    Internet
  13. Chowdhury, G.G.: Introduction to modern information retrieval (2010) 0.01
    0.009704331 = product of:
      0.058225982 = sum of:
        0.038051035 = weight(_text_:informatik in 4903) [ClassicSimilarity], result of:
          0.038051035 = score(doc=4903,freq=2.0), product of:
            0.16874103 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033070438 = queryNorm
            0.2254996 = fieldWeight in 4903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=4903)
        0.020174948 = product of:
          0.040349897 = sum of:
            0.040349897 = weight(_text_:allgemein in 4903) [ClassicSimilarity], result of:
              0.040349897 = score(doc=4903,freq=2.0), product of:
                0.17376354 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.033070438 = queryNorm
                0.23221152 = fieldWeight in 4903, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4903)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Footnote
    In die Irre führt den unbedarften Leser auf jeden Fall der im Titel postulierte Anspruch, eine Einführung in Information Retrieval zu leisten. Gegenüber dem Leser wäre es ehrlicher, den Titel des Buches entsprechend thematisch zu erweitern, oder aber sich tatsächlich auf das angegebene Gebiet zu konzentrieren. Eine solche Verschlankung um nicht eigentlich für das Verständnis der IR-Konzepte notwendige Materialien täte dem Titel sicher sehr gut und würde auch dessen weitere Verbreitung außerhalb des Informationswesens ermöglichen. Die für die aktuelle Auflage durchgeführte Aktualisierung und Erweiterung bleibt leider an verschiedenen Stellen etwas an der Oberfläche. Man muss deshalb konstatieren, dass die Stärke des Bandes eher in der thematischen Breite liegt, als darin, wirklich einen erschöpfenden Einblick in das Information Retrieval zu geben. Für eine grundlegende Einführung in IR lässt Chowdhury zwar inhaltlich nur wenig vermissen, doch die Kohärenz der Darstellung und die didaktische Aufbereitung des Stoffes sind auf jeden Fall ausbaufähig, um den Ansprüchen an ein Lehrbuch gerecht werden zu können, das auch im Selbststudium durchgearbeitet werden kann. Diese Schwäche ist allerdings auch der Informationswissenschaft selbst anzulasten, die (im Gegensatz etwa zur Informatik) bisher keine allgemein anerkannte Fachdidaktik hervor gebracht hat. Trotz der besprochenen Desiderate ist der Titel bereits jetzt eine empfehlenswerte Ergänzung zu Vorlesungen in den behandelten Gebieten, wenn man einen fachlichen Hintergrund in Bibliotheksoder Informationswissenschaft voraussetzt."
  14. Gebhardt, F.: Dokumentationssysteme (1981) 0.01
    0.009512759 = product of:
      0.1141531 = sum of:
        0.1141531 = weight(_text_:informatik in 1560) [ClassicSimilarity], result of:
          0.1141531 = score(doc=1560,freq=8.0), product of:
            0.16874103 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033070438 = queryNorm
            0.6764988 = fieldWeight in 1560, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.046875 = fieldNorm(doc=1560)
      0.083333336 = coord(1/12)
    
    Classification
    ST 274 Informatik / Monographien / Software und -entwicklung / Datenerfassung, Datenaufbereitung, Datenausgabe (Masken-Editoren, Maskengeneratoren)
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    RVK
    ST 274 Informatik / Monographien / Software und -entwicklung / Datenerfassung, Datenaufbereitung, Datenausgabe (Masken-Editoren, Maskengeneratoren)
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
  15. Chu, H.: Information representation and retrieval in the digital age (2010) 0.01
    0.009098357 = product of:
      0.054590136 = sum of:
        0.041851934 = weight(_text_:systeme in 92) [ClassicSimilarity], result of:
          0.041851934 = score(doc=92,freq=8.0), product of:
            0.1769682 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033070438 = queryNorm
            0.2364941 = fieldWeight in 92, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.015625 = fieldNorm(doc=92)
        0.012738204 = weight(_text_:internet in 92) [ClassicSimilarity], result of:
          0.012738204 = score(doc=92,freq=8.0), product of:
            0.09763186 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033070438 = queryNorm
            0.1304718 = fieldWeight in 92, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.015625 = fieldNorm(doc=92)
      0.16666667 = coord(2/12)
    
    Footnote
    Weitere Rez. in: Rez. in: nfd 55(2004) H.4, S.252 (D. Lewandowski):"Die Zahl der Bücher zum Thema Information Retrieval ist nicht gering, auch in deutscher Sprache liegen einige Titel vor. Trotzdem soll ein neues (englischsprachiges) Buch zu diesem Thema hier besprochen werden. Dieses zeichnet sich durch eine Kürze (nur etwa 230 Seiten Text) und seine gute Verständlichkeit aus und richtet sich damit bevorzugt an Studenten in den ersten Semestern. Heting Chu unterrichtet seit 1994 an Palmer School of Library and Information Science der Long Island University New York. Dass die Autorin viel Erfahrung in der Vermittlung des Stoffs in ihren Information-Retrieval-Veranstaltungen sammeln konnte, merkt man dem Buch deutlich an. Es ist einer klaren und verständlichen Sprache geschrieben und führt in die Grundlagen der Wissensrepräsentation und des Information Retrieval ein. Das Lehrbuch behandelt diese Themen als Gesamtkomplex und geht damit über den Themenbereich ähnlicher Bücher hinaus, die sich in der Regel auf das Retrieval beschränken. Das Buch ist in zwölf Kapitel gegliedert, wobei das erste Kapitel eine Übersicht über die zu behandelnden Themen gibt und den Leser auf einfache Weise in die Grundbegriffe und die Geschichte des IRR einführt. Neben einer kurzen chronologischen Darstellung der Entwicklung der IRR-Systeme werden auch vier Pioniere des Gebiets gewürdigt: Mortimer Taube, Hans Peter Luhn, Calvin N. Mooers und Gerard Salton. Dies verleiht dem von Studenten doch manchmal als trocken empfundenen Stoff eine menschliche Dimension. Das zweite und dritte Kapitel widmen sich der Wissensrepräsentation, wobei zuerst die grundlegenden Ansätze wie Indexierung, Klassifikation und Abstracting besprochen werden. Darauf folgt die Behandlung von Wissensrepräsentation mittels Metadaten, wobei v.a. neuere Ansätze wie Dublin Core und RDF behandelt werden. Weitere Unterkapitel widmen sich der Repräsentation von Volltexten und von Multimedia-Informationen. Die Stellung der Sprache im IRR wird in einem eigenen Kapitel behandelt. Dabei werden in knapper Form verschiedene Formen des kontrollierten Vokabulars und die wesentlichen Unterscheidungsmerkmale zur natürlichen Sprache erläutert. Die Eignung der beiden Repräsentationsmöglichkeiten für unterschiedliche IRR-Zwecke wird unter verschiedenen Aspekten diskutiert.
    In Kapitel acht werden unterschiedliche Arten von IR-Systemen vorgestellt. Dies sind Online IR-Systeme, CD-ROM-Systeme, OPACs und Internet IR-Systeme, denen der Grossteil dieses Kapitels gewidmet ist. Zu jeder Art von System werden die historische Entwicklung und die Besonderheiten genannt. Bei den Internet-IR-Systemen wird ausführlich auf die besonderen Probleme, die bei diesen im Vergleich zu klassischen IR-Systemen auftauchen, eingegangen. Ein extra Kapitel behandelt die Besonderheiten des Retrievals bei besonderen Dokumentkollektionen und besonderen Formaten. Hier finden sich Informationen zum multilingualen Retrieval und zur Suche nach Multimedia-Inhalten, wobei besonders auf die Unterscheidung zwischen beschreibungs- und inhaltsbasiertem Ansatz der Erschließung solcher Inhalte eingegangen wird. In Kapitel zehn erfährt der Leser mehr über die Stellung des Nutzers in IRR-Prozessen. Die Autorin stellt verschiedene Arten von Suchinterfaces bzw. Benutzeroberflächen und Ansätze der Evaluation der Mensch-Maschine-Interaktion in solchen Systemen vor. Kapitel elf beschäftigt sich ausführlich mit der Evaluierung von IRR-Systemen und stellt die bedeutendsten Test (Cranfield und TREC) vor Ein kurzes abschließendes Kapitel behandelt Ansätze der künstlichen Intelligenz und ihre Anwendung bei IRR-Systemen. Der Aufbau, die knappe, aber dennoch präzise Behandlung des Themas sowie die verständliche Sprache machen dieses Buch zu eine sehr guten Einführung für Studenten in den ersten Semestern, die der englischen Sprache mächtig sind. Besonders positiv hervorzuheben ist die Behandlung auch der aktuellen Themen des IRR wie der Einsatz von Metadaten, die Behandlung von Multimedia-Informationen und der Schwerpunk bei den Internet-IR-Systemen.
    Leider gibt es in deutscher Sprache keinen vergleichbaren Titel. Das Information-Retrieval-Buch von Ferber (2003) ist eher mathematisch orientiert und dürfte Studienanfänger der Informationswissenschaft durch seine große Detailliertheit und der damit einhergehenden großen Anzahl von Formeln eher abschrecken. Es ist eher denjenigen empfohlen, die sich intensiver mit dem Thema beschäftigen möchten. Ähnlich verhält es sich mit dem von manchen gerne genutzten Skript von Fuhr. Das Buch von Gaus (2003) ist mittlerweile schon ein Klassiker, beschäftigt sich aber im wesentlichen mit der Wissensrepräsentation und bietet zudem wenig Aktuelles. So fehlen etwa die Themen Information Retrieval im Internet und Multimedia-Retrieval komplett. Auch die Materialsammlung von Poetzsch (2002) konzentriert sich auf IR in klassischen Datenbanken und strebt zudem auch keine systematische Darstellung des Gebiets an. Zu wünschen wäre also, dass das hier besprochene Buch auch hierzulande in der Lehre Verwendung finden würde, da es den Studierenden einen knappen, gut lesbaren Einblick in das Themengebiet gibt. Es sollte aufgrund der vorbildlichen Aufbereitung des Stoffs auch Vorbild für zukünftige Autoren von Lehrbüchern sein. Und letztlich würde sich der Rezensent eine deutsche Übersetzung dieses Bandes wünschen."
  16. Hahn, G.: Sacherschließung in Spezialbibliotheken : eine Einführung in Formen und Systeme (1992) 0.01
    0.008719154 = product of:
      0.10462984 = sum of:
        0.10462984 = weight(_text_:systeme in 8249) [ClassicSimilarity], result of:
          0.10462984 = score(doc=8249,freq=2.0), product of:
            0.1769682 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033070438 = queryNorm
            0.5912352 = fieldWeight in 8249, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.078125 = fieldNorm(doc=8249)
      0.083333336 = coord(1/12)
    
  17. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.01
    0.008468851 = product of:
      0.05081311 = sum of:
        0.041851934 = weight(_text_:systeme in 1767) [ClassicSimilarity], result of:
          0.041851934 = score(doc=1767,freq=2.0), product of:
            0.1769682 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033070438 = queryNorm
            0.2364941 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.008961176 = product of:
          0.017922351 = sum of:
            0.017922351 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.017922351 = score(doc=1767,freq=2.0), product of:
                0.11580704 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033070438 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
  18. Gilster, P.: Suchen und Finden im Internet (1997) 0.01
    0.008392029 = product of:
      0.10070435 = sum of:
        0.10070435 = weight(_text_:internet in 5632) [ClassicSimilarity], result of:
          0.10070435 = score(doc=5632,freq=20.0), product of:
            0.09763186 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033070438 = queryNorm
            1.0314702 = fieldWeight in 5632, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=5632)
      0.083333336 = coord(1/12)
    
    RSWK
    Internet / Medienangebot (21)
    Internet / Online-Recherche (21)
    Internet / Suchmaschine (21)
    Internet / Navigieren (21)
    Subject
    Internet / Medienangebot (21)
    Internet / Online-Recherche (21)
    Internet / Suchmaschine (21)
    Internet / Navigieren (21)
    Theme
    Internet
  19. Babiak, U.: Effektive Suche im Internet : Suchstrategien, Methoden, Quellen (1999) 0.01
    0.0079613775 = product of:
      0.09553652 = sum of:
        0.09553652 = weight(_text_:internet in 3895) [ClassicSimilarity], result of:
          0.09553652 = score(doc=3895,freq=18.0), product of:
            0.09763186 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033070438 = queryNorm
            0.97853845 = fieldWeight in 3895, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=3895)
      0.083333336 = coord(1/12)
    
    Footnote
    Rez. in: Internet Professionell 1999, August, S.19 (GO)
    RSWK
    Internet / Suchmaschine (21)
    Internet / Navigieren (21)
    Internet / Online-Recherche (21)
    Subject
    Internet / Suchmaschine (21)
    Internet / Navigieren (21)
    Internet / Online-Recherche (21)
    Theme
    Internet
  20. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2000) 0.01
    0.007847626 = product of:
      0.09417151 = sum of:
        0.09417151 = weight(_text_:informatik in 1082) [ClassicSimilarity], result of:
          0.09417151 = score(doc=1082,freq=4.0), product of:
            0.16874103 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033070438 = queryNorm
            0.55808306 = fieldWeight in 1082, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1082)
      0.083333336 = coord(1/12)
    
    RSWK
    Medizinische Informatik / Lehrbuch
    Subject
    Medizinische Informatik / Lehrbuch

Years

Languages

  • d 52
  • e 29

Types

  • m 76
  • a 2
  • el 2
  • h 1
  • s 1
  • x 1
  • More… Less…

Subjects

Classifications