Search (8 results, page 1 of 1)

  • × subject_ss:"Computer science"
  1. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.04
    0.04186523 = product of:
      0.12559569 = sum of:
        0.090067595 = weight(_text_:einzelne in 1735) [ClassicSimilarity], result of:
          0.090067595 = score(doc=1735,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.36785913 = fieldWeight in 1735, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
        0.035528086 = weight(_text_:der in 1735) [ClassicSimilarity], result of:
          0.035528086 = score(doc=1735,freq=30.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3823389 = fieldWeight in 1735, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen, der Graphentheorie, den statistischen Verfahren sowie der Texttechnologie beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik und Phonologie, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Die drei letzten Teile des Buchs geben Überblicke über die verwendeten sprachtechnologischen Informationsquellen, die vielfältigen Anwendungen in der Praxis sowie über Evaluationsverfahren für sprachverarbeitende Systeme. Anhand konkreter Fragestellungen - von der Entwicklung von Korrekturprogrammen über das Informationsmanagement bis zur Maschinellen Übersetzung - wird das Zusammenwirken der einzelnen Methoden aufgezeigt. Für die dritte Auflage wurden sämtliche Kapitel überarbeitet und aktualisiert sowie zum Teil zu eigenständigen, neuen Kapiteln zusammengeführt. Insbesondere trägt die dritte Auflage der rasanten Entwicklung in der Computerlinguistik und Sprachtechnologie durch eine stärkere Fokussierung auf statistische Grundlagen und Methoden Rechnung. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand." [Manfred Pinkal]
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  2. Corporate Semantic Web : wie semantische Anwendungen in Unternehmen Nutzen stiften (2015) 0.00
    0.0037449892 = product of:
      0.022469934 = sum of:
        0.022469934 = weight(_text_:der in 2246) [ClassicSimilarity], result of:
          0.022469934 = score(doc=2246,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.24181235 = fieldWeight in 2246, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2246)
      0.16666667 = coord(1/6)
    
    Abstract
    Beim Corporate Semantic Web betrachtet man Semantic Web-Anwendungen, die innerhalb eines Unternehmens oder einer Organisation - kommerziell und nicht kommerziell - eingesetzt werden, von Mitarbeitern, von Kunden oder Partnern. Die Autoren erläutern prägende Erfahrungen in der Entwicklung von Semantic Web-Anwendungen. Sie berichten über Software-Architektur, Methodik, Technologieauswahl, Linked Open Data Sets, Lizenzfragen etc. Anwendungen aus den Branchen Banken, Versicherungen, Telekommunikation, Medien, Energie, Maschinenbau, Logistik, Touristik, Spielwaren, Bibliothekswesen und Kultur werden vorgestellt. Der Leser erhält so einen umfassenden Überblick über die Semantic Web-Einsatzbereiche sowie konkrete Umsetzungshinweise für eigene Vorhaben.
    Content
    Kapitel 1; Corporate Semantic Web; 1.1 Das Semantic Web; 1.2 Semantische Anwendungen im Unternehmenseinsatz; 1.3 Bereitstellen von Linked Data reicht nicht; 1.4 Eine global vernetzte Wissensbasis -- Fiktion oder Realität?; 1.5 Semantik)=)RDF?; 1.6 Richtig vorgehen; 1.7 Modellieren ist einfach (?!); 1.8 Juristische Fragen; 1.9 Semantische Anwendungen stiften Nutzen in Unternehmen -- nachweislich!; 1.10 Fazit; Literatur; Kapitel 2; Einordnung und Abgrenzung des Corporate Semantic Webs; 2.1 Grundlegende Begriffe; 2.2 Corporate Semantic Web 2.3 Public Semantic Web2.4 Social Semantic Web 3.0; 2.5 Pragmatic Web; 2.6 Zusammenfassung und Ausblick "Ubiquitous Pragmatic Web 4.0"; Literatur; Kapitel 3; Marktstudie: Welche Standards und Tools werden in Unternehmen eingesetzt?; 3.1 Einleitung; 3.2 Semantische Suche in Webarchiven (Quantinum AG); 3.2.1 Kundenanforderungen; 3.2.2 Technische Umsetzung; 3.2.3 Erfahrungswerte; 3.3 Semantische Analyse und Suche in Kundenspezifikationen (Ontos AG); 3.3.1 Kundenanforderungen; 3.3.2 Technische Umsetzung; 3.3.3 Erfahrungswerte 3.4 Sicherheit für Banken im Risikomanagement (VICO Research & Consulting GmbH)3.4.1 Kundenanforderungen; 3.4.2 Technische Umsetzung; 3.4.3 Erfahrungswerte; 3.5 Interaktive Fahrzeugdiagnose (semafora GmbH); 3.5.1 Kundenanforderungen; 3.5.2 Technische Umsetzung; 3.5.3 Erfahrungswerte; 3.6 Quo Vadis?; 3.7 Umfrage-Ergebnisse; 3.8 Semantic Web Standards & Tools; 3.9 Ausblick; Literatur; Kapitel 4; Modellierung des Sprachraums von Unternehmen; 4.1 Hintergrund; 4.2 Eine Frage der Bedeutung; 4.3 Bedeutung von Begriffen im Unternehmenskontext; 4.3.1 Website-Suche bei einem Industrieunternehmen 4.3.2 Extranet-Suche bei einem Marktforschungsunternehmen4.3.3 Intranet-Suche bei einem Fernsehsender; 4.4 Variabilität unserer Sprache und unseres Sprachgebrauchs; 4.4.1 Konsequenzen des Sprachgebrauchs; 4.5 Terminologiemanagement und Unternehmensthesaurus; 4.5.1 Unternehmensthesaurus; 4.5.2 Mut zur Lücke: Arbeiten mit unvollständigen Terminologien; 4.6 Pragmatischer Aufbau von Unternehmensthesauri; 4.6.1 Begriffsanalyse des Anwendungsbereichs; 4.6.2 Informationsquellen; 4.6.3 Häufigkeitsverteilung; 4.6.4 Aufwand und Nutzen; Literatur; Kapitel 5 Schlendern durch digitale Museen und Bibliotheken5.1 Einleitung; 5.2 Anwendungsfall 1: Schlendern durch das Digitale Museum; 5.3 Anwendungsfall 2: Literatur in Bibliotheken finden; 5.4 Herausforderungen; 5.5 Die Anforderungen treiben die Architektur; 5.5.1 Semantic ETL; 5.5.2 Semantic Logic; 5.5.3 Client; 5.6 Diskussion; 5.7 Empfehlungen und Fazit; Literatur; Kapitel 6; Semantische Suche im Bereich der Energieforschungsförderung; 6.1 Das Projekt EnArgus®; 6.2 Die Fachontologie; 6.2.1 Semantische Suche; 6.2.2 Repräsentation der semantischen Relationen in der Fachontologie
  3. Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme : Grundlagen, Algorithmen, Anwendungen (2008) 0.00
    0.003418692 = product of:
      0.02051215 = sum of:
        0.02051215 = weight(_text_:der in 4622) [ClassicSimilarity], result of:
          0.02051215 = score(doc=4622,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.22074346 = fieldWeight in 4622, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
      0.16666667 = coord(1/6)
    
    Abstract
    Dieses Buch präsentiert ein breites Spektrum aktueller Methoden zur Repräsentation und Verarbeitung (un)sicheren Wissens in maschinellen Systemen in didaktisch aufbereiteter Form. Neben symbolischen Ansätzen des nichtmonotonen Schließens (Default-Logik, hier konstruktiv und leicht verständlich mittels sog. Default-Bäume realisiert) werden auch ausführlich quantitative Methoden wie z.B. probabilistische Markov- und Bayes-Netze vorgestellt. Weitere Abschnitte beschäftigen sich mit Wissensdynamik (Truth Maintenance-Systeme), Aktionen und Planen, maschinellem Lernen, Data Mining und fallbasiertem Schließen.In einem vertieften Querschnitt werden zentrale alternative Ansätze einer logikbasierten Wissensmodellierung ausführlich behandelt. Detailliert beschriebene Algorithmen geben dem Praktiker nützliche Hinweise zur Anwendung der vorgestellten Ansätze an die Hand, während fundiertes Hintergrundwissen ein tieferes Verständnis für die Besonderheiten der einzelnen Methoden vermittelt . Mit einer weitgehend vollständigen Darstellung des Stoffes und zahlreichen, in den Text integrierten Aufgaben ist das Buch für ein Selbststudium konzipiert, eignet sich aber gleichermaßen für eine entsprechende Vorlesung. Im Online-Service zu diesem Buch werden u.a. ausführliche Lösungshinweise zu allen Aufgaben des Buches angeboten.Zahlreiche Beispiele mit medizinischem, biologischem, wirtschaftlichem und technischem Hintergrund illustrieren konkrete Anwendungsszenarien. Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verständlich und anschaulich dargestellt. Repräsentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. In der vierten, verbesserten Auflage wurde die Anzahl der motivierenden Selbsttestaufgaben mit aktuellem Praxisbezug nochmals erweitert. Ein Online-Service mit ausführlichen Musterlösungen erleichtert das Lernen.
  4. Gödert, W.; Lepsky, K.; Nagelschmidt, M.: Informationserschließung und Automatisches Indexieren : ein Lehr- und Arbeitsbuch (2011) 0.00
    0.0033101342 = product of:
      0.019860804 = sum of:
        0.019860804 = weight(_text_:der in 2550) [ClassicSimilarity], result of:
          0.019860804 = score(doc=2550,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.21373394 = fieldWeight in 2550, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2550)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Buch vermittelt Kenntnisse über die Modellierung dokumentbezogener Metadaten durch praktische Aufgabenstellungen, begleitende theoretische Erläuterungen sowie ergänzende Übungen. Als Beispiele dienen Bilddokumente und bibliografische Daten. Es wird vermittelt, wie entsprechende Datenbanken aufgebaut und mit geeigneten Suchumgebungen ausgestattet werden. Es wird dargestellt und praktisch geübt, wie Kenntnisse über die Struktur der Daten zum Import von Fremddaten genutzt werden können. Zielvorstellung ist der Aufbau von Datenbanken zur formalen und inhaltlichen Erschließung und die Gestaltung von Retrievalumgebungen, für bibliografische Daten auch die Erstellung von Bibliografien. Als Methoden zur inhaltlichen Erschließung werden besonders die semantische Strukturierung von Themenfeldern am Beispiel des aspektorientierten Thesaurus-Konzepts und das Automatische Indexieren bibliografischer Daten behandelt. Abgerundet wird die Darstellung durch die Diskussion von Bezügen zum Aufbau relationaler Datenbanken für bibliografische Daten sowie Hintergründe der Zeichencodierung und Ordnungsfragen.
  5. Semantic keyword-based search on structured data sources : First COST Action IC1302 International KEYSTONE Conference, IKC 2015, Coimbra, Portugal, September 8-9, 2015. Revised Selected Papers (2016) 0.00
    0.0026568945 = product of:
      0.015941367 = sum of:
        0.015941367 = product of:
          0.031882733 = sum of:
            0.031882733 = weight(_text_:22 in 2753) [ClassicSimilarity], result of:
              0.031882733 = score(doc=2753,freq=4.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.21886435 = fieldWeight in 2753, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2753)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    This book constitutes the thoroughly refereed post-conference proceedings of the First COST Action IC1302 International KEYSTONE Conference on semantic Keyword-based Search on Structured Data Sources, IKC 2015, held in Coimbra, Portugal, in September 2015. The 13 revised full papers, 3 revised short papers, and 2 invited papers were carefully reviewed and selected from 22 initial submissions. The paper topics cover techniques for keyword search, semantic data management, social Web and social media, information retrieval, benchmarking for search on big data.
    Date
    1. 2.2016 18:25:22
  6. Spink, A.: Information behavior : an evolutionary instinct (2010) 0.00
    0.0026481075 = product of:
      0.015888644 = sum of:
        0.015888644 = weight(_text_:der in 4313) [ClassicSimilarity], result of:
          0.015888644 = score(doc=4313,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.17098716 = fieldWeight in 4313, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4313)
      0.16666667 = coord(1/6)
    
    Footnote
    Rez. in: iwp 62(2011) H.1, S.48 (D. Lewandowski): "... Es ist sehr schade, dass die Autorin aus diesem interessanten und für die Zukunft des Fachs sicherlich entscheidenden Thema nicht mehr gemacht hat. Gerade bei einem Thema, das noch nicht intensiv beackert wurde, ist eine ausführliche Darstellung von großer Bedeutung. Auch in Hinblick auf die Unmenge an Literatur, die in diesem Buch zitiert wird, erscheint die Form der Darstellung in keiner Weise angemessen. Ebenso unangemessen wirkt der Preis von 85 Euro für dieses schmale Werk, welches auch gut in der Form von einem oder zwei längeren Aufsätzen hätte veröffentlicht werden können."
  7. Gartner, R.: Metadata : shaping knowledge from antiquity to the semantic web (2016) 0.00
    0.0019111068 = product of:
      0.01146664 = sum of:
        0.01146664 = weight(_text_:der in 731) [ClassicSimilarity], result of:
          0.01146664 = score(doc=731,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.12339935 = fieldWeight in 731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=731)
      0.16666667 = coord(1/6)
    
    Theme
    Geschichte der Kataloge
  8. Gossen, T.: Search engines for children : search user interfaces and information-seeking behaviour (2016) 0.00
    0.0016438694 = product of:
      0.009863216 = sum of:
        0.009863216 = product of:
          0.019726433 = sum of:
            0.019726433 = weight(_text_:22 in 2752) [ClassicSimilarity], result of:
              0.019726433 = score(doc=2752,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.1354154 = fieldWeight in 2752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2752)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    1. 2.2016 18:25:22

Languages

Types