Search (8 results, page 1 of 1)

  • × classification_ss:"TYP (HA)"
  1. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 4325) [ClassicSimilarity], result of:
          0.028369 = score(doc=4325,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 4325, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4325)
      0.2 = coord(1/5)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
  2. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 4385) [ClassicSimilarity], result of:
          0.028369 = score(doc=4385,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 4385, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4385)
      0.2 = coord(1/5)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
  3. Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002) 0.00
    0.0045390404 = product of:
      0.0226952 = sum of:
        0.0226952 = weight(_text_:den in 4731) [ClassicSimilarity], result of:
          0.0226952 = score(doc=4731,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.21939759 = fieldWeight in 4731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
      0.2 = coord(1/5)
    
    Abstract
    Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
    Content
    Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
  4. ¬Die Googleisierung der Informationssuche : Suchmaschinen zwischen Nutzung und Regulierung (2014) 0.00
    0.0045390404 = product of:
      0.0226952 = sum of:
        0.0226952 = weight(_text_:den in 1840) [ClassicSimilarity], result of:
          0.0226952 = score(doc=1840,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.21939759 = fieldWeight in 1840, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=1840)
      0.2 = coord(1/5)
    
    Abstract
    Suchmaschinen ermöglichen den Zugang zu Informationen im Internet und machen es als grenzenloses Informationsportal nutzbar. Netzinhalte, die nicht durch Suchmaschinen auffindbar sind, existieren für die Internetnutzer gar nicht - ein großes Gefahrenpotenzial für den einzelnen Nutzer und die Gesellschaft. Der vorliegende Band beleuchtet das Phänomen aus kommunikationswissenschaftlicher, rechtlicher, pädagogischer und technischer Perspektive.
    Footnote
    Rez. in: Mitt. VOEB 68(2015) H.1, S.180-183 (O.Oberhauser): "Aus dieser kurzen Skizze geht hervor, dass der vorliegende Band eine Reihe interessanter und mitunter auch brisanter Teilthemen beinhaltet. Wer an der Diskussion um die Rolle der meistgenutzten Suchmaschine in unserer Gesellschaft Interesse hat, findet in diesem Buch reichlich Material und Ideen. Jeder Beitrag wird zudem durch ein Literaturverzeichnis ergänzt, in dem weiterführende Quellen genannt werden. Die Beiträge sind durchweg "lesbar" geschrieben und nur in mässigem Ausmass von soziologischem oder rechtswissenschaftlichem Fachjargon durchsetzt. In stilistischer Hinsicht ist der Text dennoch nicht ohne Probleme, zumal bereits im ersten Absatz der Einleitung ein als Hauptsatz "verkaufter" Nebensatz auffällt ("Denn Suchmaschinenbetreiber wie Google ermöglichen und gestalten den Zugang zu Informationen im Netz.") und die gleiche stilistische Schwäche allein in der 19-seitigen Einleitung in über einem Dutzend weiterer Fälle registriert werden kann, vom nächsten Beitrag gar nicht zu sprechen. Ein funktionierendes Verlagslektorat hätte derlei rigoros bereinigen müssen. Es hätte eventuell auch dafür Sorge tragen können, dass am Ende des Bandes nicht nur ein Verzeichnis der Autorinnen und Autoren aufscheint, sondern auch ein Sachregister - ein solches fehlt nämlich bedauerlicherweise. In optischer Hinsicht ist der Hardcover-Band ansprechend gestaltet und gut gelungen. Der Preis liegt mit rund 80 Euro leider in der Oberklasse; auch die E-Book-Version macht die Anschaffung nicht billiger, da kein Preisunterschied zur gebundenen Ausgabe besteht. Dennoch ist das Buch aufgrund der interessanten Inhalte durchaus zu empfehlen; grössere Bibliotheken sowie kommunikations- und informationswissenschaftliche Spezialsammlungen sollten es nach Möglichkeit erwerben."
  5. Stuckenschmidt, H.; Harmelen, F. van: Information sharing on the semantic web (2005) 0.00
    0.002111581 = product of:
      0.010557904 = sum of:
        0.010557904 = product of:
          0.03167371 = sum of:
            0.03167371 = weight(_text_:f in 2789) [ClassicSimilarity], result of:
              0.03167371 = score(doc=2789,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.22018565 = fieldWeight in 2789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
  6. Research and advanced technology for digital libraries : 7th European conference, ECDL2003 Trondheim, Norway, August 17-22, 2003. Proceedings (2003) 0.00
    0.0013039465 = product of:
      0.0065197325 = sum of:
        0.0065197325 = product of:
          0.019559197 = sum of:
            0.019559197 = weight(_text_:22 in 2426) [ClassicSimilarity], result of:
              0.019559197 = score(doc=2426,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15476047 = fieldWeight in 2426, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2426)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
  7. Research and advanced technology for digital libraries : 10th European conference ; proceedings / ECDL 2006, Alicante, Spain, September 17 - 22, 2006 ; proceedings (2006) 0.00
    0.0013039465 = product of:
      0.0065197325 = sum of:
        0.0065197325 = product of:
          0.019559197 = sum of:
            0.019559197 = weight(_text_:22 in 2428) [ClassicSimilarity], result of:
              0.019559197 = score(doc=2428,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15476047 = fieldWeight in 2428, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2428)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
  8. Information visualization in data mining and knowledge discovery (2002) 0.00
    6.5197324E-4 = product of:
      0.0032598663 = sum of:
        0.0032598663 = product of:
          0.009779599 = sum of:
            0.009779599 = weight(_text_:22 in 1789) [ClassicSimilarity], result of:
              0.009779599 = score(doc=1789,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.07738023 = fieldWeight in 1789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1789)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
    Date
    23. 3.2008 19:10:22

Languages

Types

Subjects