Search (9 results, page 1 of 1)

  • × classification_ss:"TVV (DU)"
  1. Jurafsky, D.; Martin, J.H.: Speech and language processing : ani ntroduction to natural language processing, computational linguistics and speech recognition (2009) 0.02
    0.021233775 = product of:
      0.0849351 = sum of:
        0.0849351 = product of:
          0.1698702 = sum of:
            0.1698702 = weight(_text_:lehrbuch in 1081) [ClassicSimilarity], result of:
              0.1698702 = score(doc=1081,freq=4.0), product of:
                0.3139294 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.045324896 = queryNorm
                0.54110956 = fieldWeight in 1081, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1081)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    RSWK
    Computerlinguistik / Automatische Spracherkennung / Lehrbuch
    Subject
    Computerlinguistik / Automatische Spracherkennung / Lehrbuch
  2. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.02
    0.020804768 = product of:
      0.08321907 = sum of:
        0.08321907 = product of:
          0.16643815 = sum of:
            0.16643815 = weight(_text_:lehrbuch in 1735) [ClassicSimilarity], result of:
              0.16643815 = score(doc=1735,freq=6.0), product of:
                0.3139294 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.045324896 = queryNorm
                0.530177 = fieldWeight in 1735, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1735)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen, der Graphentheorie, den statistischen Verfahren sowie der Texttechnologie beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik und Phonologie, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Die drei letzten Teile des Buchs geben Überblicke über die verwendeten sprachtechnologischen Informationsquellen, die vielfältigen Anwendungen in der Praxis sowie über Evaluationsverfahren für sprachverarbeitende Systeme. Anhand konkreter Fragestellungen - von der Entwicklung von Korrekturprogrammen über das Informationsmanagement bis zur Maschinellen Übersetzung - wird das Zusammenwirken der einzelnen Methoden aufgezeigt. Für die dritte Auflage wurden sämtliche Kapitel überarbeitet und aktualisiert sowie zum Teil zu eigenständigen, neuen Kapiteln zusammengeführt. Insbesondere trägt die dritte Auflage der rasanten Entwicklung in der Computerlinguistik und Sprachtechnologie durch eine stärkere Fokussierung auf statistische Grundlagen und Methoden Rechnung. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand." [Manfred Pinkal]
    RSWK
    Computerlinguistik / Lehrbuch
    Subject
    Computerlinguistik / Lehrbuch
  3. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.01
    0.012807466 = product of:
      0.051229864 = sum of:
        0.051229864 = weight(_text_:retrieval in 4325) [ClassicSimilarity], result of:
          0.051229864 = score(doc=4325,freq=10.0), product of:
            0.13710396 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.045324896 = queryNorm
            0.37365708 = fieldWeight in 4325, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4325)
      0.25 = coord(1/4)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
    RSWK
    Natürlichsprachiges System / Dokumentverarbeitung / Wissensrepräsentation / Benutzermodell / Information Retrieval / Relationales Datenmodell
    Subject
    Natürlichsprachiges System / Dokumentverarbeitung / Wissensrepräsentation / Benutzermodell / Information Retrieval / Relationales Datenmodell
  4. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.01
    0.012807466 = product of:
      0.051229864 = sum of:
        0.051229864 = weight(_text_:retrieval in 4385) [ClassicSimilarity], result of:
          0.051229864 = score(doc=4385,freq=10.0), product of:
            0.13710396 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.045324896 = queryNorm
            0.37365708 = fieldWeight in 4385, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4385)
      0.25 = coord(1/4)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
    RSWK
    Natürlichsprachiges System / Dokumentverarbeitung / Wissensrepräsentation / Benutzermodell / Information Retrieval / Relationales Datenmodell
    Subject
    Natürlichsprachiges System / Dokumentverarbeitung / Wissensrepräsentation / Benutzermodell / Information Retrieval / Relationales Datenmodell
  5. Jacquemin, C.: Spotting and discovering terms through natural language processing (2001) 0.01
    0.012807466 = product of:
      0.051229864 = sum of:
        0.051229864 = weight(_text_:retrieval in 119) [ClassicSimilarity], result of:
          0.051229864 = score(doc=119,freq=10.0), product of:
            0.13710396 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.045324896 = queryNorm
            0.37365708 = fieldWeight in 119, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=119)
      0.25 = coord(1/4)
    
    Abstract
    In this book Christian Jacquemin shows how the power of natural language processing (NLP) can be used to advance text indexing and information retrieval (IR). Jacquemin's novel tool is FASTR, a parser that normalizes terms and recognizes term variants. Since there are more meanings in a language than there are words, FASTR uses a metagrammar composed of shallow linguistic transformations that describe the morphological, syntactic, semantic, and pragmatic variations of words and terms. The acquired parsed terms can then be applied for precise retrieval and assembly of information. The use of a corpus-based unification grammar to define, recognize, and combine term variants from their base forms allows for intelligent information access to, or "linguistic data tuning" of, heterogeneous texts. FASTR can be used to do automatic controlled indexing, to carry out content-based Web searches through conceptually related alternative query formulations, to abstract scientific and technical extracts, and even to translate and collect terms from multilingual material. Jacquemin provides a comprehensive account of the method and implementation of this innovative retrieval technique for text processing.
    RSWK
    Automatische Indexierung  / Computerlinguistik  / Information Retrieval
    Subject
    Automatische Indexierung  / Computerlinguistik  / Information Retrieval
  6. Kuhlthau, C.C: Seeking meaning : a process approach to library and information services (2004) 0.00
    0.0040500765 = product of:
      0.016200306 = sum of:
        0.016200306 = weight(_text_:retrieval in 3347) [ClassicSimilarity], result of:
          0.016200306 = score(doc=3347,freq=4.0), product of:
            0.13710396 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.045324896 = queryNorm
            0.11816074 = fieldWeight in 3347, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3347)
      0.25 = coord(1/4)
    
    LCSH
    Information retrieval
    Subject
    Information retrieval
  7. Spinning the Semantic Web : bringing the World Wide Web to its full potential (2003) 0.00
    0.004009371 = product of:
      0.016037485 = sum of:
        0.016037485 = weight(_text_:retrieval in 1981) [ClassicSimilarity], result of:
          0.016037485 = score(doc=1981,freq=2.0), product of:
            0.13710396 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.045324896 = queryNorm
            0.11697317 = fieldWeight in 1981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1981)
      0.25 = coord(1/4)
    
    Abstract
    As the World Wide Web continues to expand, it becomes increasingly difficult for users to obtain information efficiently. Because most search engines read format languages such as HTML or SGML, search results reflect formatting tags more than actual page content, which is expressed in natural language. Spinning the Semantic Web describes an exciting new type of hierarchy and standardization that will replace the current "Web of links" with a "Web of meaning." Using a flexible set of languages and tools, the Semantic Web will make all available information - display elements, metadata, services, images, and especially content - accessible. The result will be an immense repository of information accessible for a wide range of new applications. This first handbook for the Semantic Web covers, among other topics, software agents that can negotiate and collect information, markup languages that can tag many more types of information in a document, and knowledge systems that enable machines to read Web pages and determine their reliability. The truly interdisciplinary Semantic Web combines aspects of artificial intelligence, markup languages, natural language processing, information retrieval, knowledge representation, intelligent agents, and databases.
  8. Schweibenz, W.; Thissen, F.: Qualität im Web : Benutzerfreundliche Webseiten durch Usability Evaluation (2003) 0.00
    0.0038380611 = product of:
      0.0153522445 = sum of:
        0.0153522445 = product of:
          0.030704489 = sum of:
            0.030704489 = weight(_text_:22 in 767) [ClassicSimilarity], result of:
              0.030704489 = score(doc=767,freq=2.0), product of:
                0.15872006 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045324896 = queryNorm
                0.19345059 = fieldWeight in 767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=767)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 3.2008 14:24:08
  9. Towards the Semantic Web : ontology-driven knowledge management (2004) 0.00
    0.0034366038 = product of:
      0.013746415 = sum of:
        0.013746415 = weight(_text_:retrieval in 4401) [ClassicSimilarity], result of:
          0.013746415 = score(doc=4401,freq=2.0), product of:
            0.13710396 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.045324896 = queryNorm
            0.10026272 = fieldWeight in 4401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4401)
      0.25 = coord(1/4)
    
    Abstract
    With the current changes driven by the expansion of the World Wide Web, this book uses a different approach from other books on the market: it applies ontologies to electronically available information to improve the quality of knowledge management in large and distributed organizations. Ontologies are formal theories supporting knowledge sharing and reuse. They can be used to explicitly represent semantics of semi-structured information. These enable sophisticated automatic support for acquiring, maintaining and accessing information. Methodology and tools are developed for intelligent access to large volumes of semi-structured and textual information sources in intra- and extra-, and internet-based environments to employ the full power of ontologies in supporting knowledge management from the information client perspective and the information provider. The aim of the book is to support efficient and effective knowledge management and focuses on weakly-structured online information sources. It is aimed primarily at researchers in the area of knowledge management and information retrieval and will also be a useful reference for students in computer science at the postgraduate level and for business managers who are aiming to increase the corporations' information infrastructure. The Semantic Web is a very important initiative affecting the future of the WWW that is currently generating huge interest. The book covers several highly significant contributions to the semantic web research effort, including a new language for defining ontologies, several novel software tools and a coherent methodology for the application of the tools for business advantage. It also provides 3 case studies which give examples of the real benefits to be derived from the adoption of semantic-web based ontologies in "real world" situations. As such, the book is an excellent mixture of theory, tools and applications in an important area of WWW research. * Provides guidelines for introducing knowledge management concepts and tools into enterprises, to help knowledge providers present their knowledge efficiently and effectively. * Introduces an intelligent search tool that supports users in accessing information and a tool environment for maintenance, conversion and acquisition of information sources. * Discusses three large case studies which will help to develop the technology according to the actual needs of large and or virtual organisations and will provide a testbed for evaluating tools and methods. The book is aimed at people with at least a good understanding of existing WWW technology and some level of technical understanding of the underpinning technologies (XML/RDF). It will be of interest to graduate students, academic and industrial researchers in the field, and the many industrial personnel who are tracking WWW technology developments in order to understand the business implications. It could also be used to support undergraduate courses in the area but is not itself an introductory text.

Languages

Types