Search (2 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Automatisches Abstracting"
  • × year_i:[1990 TO 2000}
  1. Ruda, S.: Maschinenunterstützte Kondensierung von Fachtexten mit CONNY : Abstracting am Beispiel eines 'Nachrichten für Dokumentation'-Textkorpus (1994) 0.01
    0.0061368938 = product of:
      0.08591651 = sum of:
        0.08591651 = weight(_text_:semantik in 2376) [ClassicSimilarity], result of:
          0.08591651 = score(doc=2376,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.5202706 = fieldWeight in 2376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2376)
      0.071428575 = coord(1/14)
    
    Abstract
    Als Textkorpus sind von 50 verschiedenen Autoren verfaßte Dokumente der Zeitschrift 'Nachrichten für Dokumentation' aus einem Zwanzigjahreszeitraum (1969-1989) herangezogen worden. Die Untersuchung der Abstracts hat ergeben, daß lediglich 15 von 50 Abstracts aus ausschließlich 'normgerechten' Abstractsätzen bestehen und kein Abstract allen Anforderungen der Richtlinien genügt. Insofern signalisieren sie die Abstracting-Richtlinien als 'Wunschdenken', was die Idee des maschinenunterstützten Abstracting nach linguistischen Merkmalen bekräftigt. CONNY ist ein interaktives linhuistisches Abstracting-Modell für Fachtexte, das dem Abstractor auf der Oberflächenstruktur operierende allgemeine Abstracting-Richtlinien anbietet. Es kondendiert die als abstractrelevant bewertenden Primärtextteile auf Primärtext-, Satz- und Abstractebene hinsichtlich Lexik, Syntax und Semantik
  2. Dammeyer, A.; Jürgensen, W.; Krüwel, C.; Poliak, E.; Ruttkowski, S.; Schäfer, Th.; Sirava, M.; Hermes, T.: Videoanalyse mit DiVA (1998) 0.00
    0.0029408536 = product of:
      0.04117195 = sum of:
        0.04117195 = weight(_text_:bedeutung in 23) [ClassicSimilarity], result of:
          0.04117195 = score(doc=23,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.33344045 = fieldWeight in 23, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.046875 = fieldNorm(doc=23)
      0.071428575 = coord(1/14)
    
    Abstract
    Die Bedeutung von Videos nimmt für multimediale Systeme stetig zu. Dabei existiert eine Vielzahl von Produkten zur Betrachtung von Videos, allerdings nur wenige Ansätze, den Inhalt eines Videos zu erschließen. Das DiVA-System, welches an der Universität Bremen im Rahmen eines studentischen Projektes entwickelt wird, dient der automatischen Analyse von MPEG-I Videofilmen. Der dabei verfolgte Ansatz läßt sich in vier Phasen gliedern. Zunächst wird der Videofilm durch eine Shotanalyse in seine einzelnen Kameraeinstellungen (Shots) unterteilt. Darauf aufbauend findet eine Kamerabewegungsanalyse sowie die Erstellung von Mosaicbildern statt. Mit Methoden der künstlichen Intelligenz und der digitalen Bildverarbeitung wird das analysierte Material nach Bild- und Toninformationen ausgewertet. Das Resultat ist eine textuelle Beschreibung eines Videofilms, auf der mit Hilfe von Text-Retrieval-Systemen recherchiert werden kann