Search (12 results, page 1 of 1)

  • × author_ss:"Endres-Niggemeyer, B."
  1. Endres-Niggemeyer, B.: ¬Eine Repräsentation der Informationsstruktur von Fachzeitschriften (1987) 0.01
    0.006553731 = product of:
      0.039322384 = sum of:
        0.039322384 = weight(_text_:der in 5278) [ClassicSimilarity], result of:
          0.039322384 = score(doc=5278,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4231716 = fieldWeight in 5278, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5278)
      0.16666667 = coord(1/6)
    
    Abstract
    AUTOCAT soll ein in der Routineproduktion gebrauchstüchtiges wissensbasiertes System zur Formalerfassung von Zeitschriftenaufsätzen nach INIS-Regeln werden. Der AUTOCAT-Prototyp übernimmt eine Zeitschrift vom optischen Leser und liefert Output in der Form eines ausgefüllten INIS-Datenblattes ab. Die Formalerfassung untergliedert sich in die schwierigere Erkennung von Informationselementen und deren leichtere Transformation nach INIS-Regeln. AUTOCAT erkennt die Informationselemente mit seiner Repräsentation des Erwartungswissens über Zeitschriftenstrukturen. Sie wurde anhand von rund 330 Kernzeitschriften des Faches Physik validiert. Ihr Schwerpunkt ist die Darstellung der Zusammensetzungsstruktur des komplexen Informationsobjetkt Zeitschrift. Konkrete Zeitschriften werden abgeleitet, indem man die Beschreibungen der Zeitschriftenkomponenten mit Typangaben spezifiziert. Die Repräsentation ist in PROLOG implementiert
  2. Endres-Niggemeyer, B.: Bessere Information durch Zusammenfassen aus dem WWW (1999) 0.01
    0.006115542 = product of:
      0.03669325 = sum of:
        0.03669325 = weight(_text_:der in 4496) [ClassicSimilarity], result of:
          0.03669325 = score(doc=4496,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3948779 = fieldWeight in 4496, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4496)
      0.16666667 = coord(1/6)
    
    Abstract
    Am Beispiel der Knochenmarktransplantation, eines medizinischen Spezialgebietes, wird im folgenden dargelegt, wie man BenutzerInnen eine großen Teil des Aufwandes bei der Wissensbeschaffung abnehmen kann, indem man Suchergebnisse aus dem Netz fragebezogen zusammenfaßt. Dadurch wird in zeitkritischen Situationen, wie sie in Diagnose und Therapie alltäglich sind, die Aufnahme neuen Wissens ermöglicht. Auf einen Überblick über den Stand des Textzusammenfassens und der Ontologieentwicklung folgt eine Systemskizze, in der die Informationssuche im WWW durch ein kognitiv fundiertes Zusammenfassungssystem ergänzt wird. Dazu wird eine Fach-Ontologie vorgeschlagen, die das benötigte Wissen organisiert und repräsentiert.
  3. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.01
    0.005405426 = product of:
      0.032432556 = sum of:
        0.032432556 = weight(_text_:der in 4497) [ClassicSimilarity], result of:
          0.032432556 = score(doc=4497,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 4497, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
      0.16666667 = coord(1/6)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  4. Schott, H.; Endres-Niggemeyer, B.: ¬Ein individuelles prozedurales Modell des Abstracting (1992) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 8852) [ClassicSimilarity], result of:
          0.032106593 = score(doc=8852,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 8852, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=8852)
      0.16666667 = coord(1/6)
    
    Source
    Textproduktion: neue Wege der Forschung. Hrsg.: H.P. Krings u.a
  5. Capurro, R.; Dietel, C.; Endres-Niggemeyer, B.; Herget, J.; Noak, C.; Teichert, E.: Beyond information quality (1994) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 5275) [ClassicSimilarity], result of:
          0.032106593 = score(doc=5275,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 5275, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5275)
      0.16666667 = coord(1/6)
    
    Abstract
    Informationsqualität hat viele Facetten. Das Ziel der Diskussion auf dem Deutschen Dokumentartag 1993 in Jena war es, über die Perspektive des Informationsmanagements hinauszugreifen. Aus der Erfahrung eines erfolgreichen Betriebes (Der Spiegel) und eines großen Fachverbandes (tekom) wurden praktische Maßnahmen zur Realisierung qualitativ hochwertiger Information geschildert. Beobachtet wurde auch, daß man Informationsqualität machen können muß. Die hierzu notwendige methodische Kompetenz muß in wesentlichen Punkten durch einschlägige Ausbildung sowie Forschung und Entwicklung aufgebaut werden. Angemahnt wurde auch die sinnliche Komponente der Informationsqualität, die besonders in computerunterstützten Systemen zu kurz kommt. Abschließend wurde Informationsqualität im umfassenderen Zusammenhang einer gesamtgesellschaftlichen Informationsordnung diskutiert
  6. Endres-Niggemeyer, B.: Empirical methods for ontology engineering in bone marrow transplantation (2000) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 6657) [ClassicSimilarity], result of:
          0.032106593 = score(doc=6657,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 6657, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6657)
      0.16666667 = coord(1/6)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.6
    Source
    Globalisierung und Wissensorganisation: Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999. Hrsg.: H.P. Ohly, G. Rahmstorf u. A. Sigel
  7. Endres-Niggemeyer, B.: ¬An empirical process model of abstracting (1992) 0.00
    0.0045866566 = product of:
      0.027519938 = sum of:
        0.027519938 = weight(_text_:der in 8834) [ClassicSimilarity], result of:
          0.027519938 = score(doc=8834,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29615843 = fieldWeight in 8834, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=8834)
      0.16666667 = coord(1/6)
    
    Source
    Mensch und Maschine: Informationelle Schnittstellen der Kommunikation. Proc. des 3. Int. Symposiums für Informationswissenschaft (ISI'92), 5.-7.11.1992 in Saarbrücken. Hrsg.: H.H. Zimmermann, H.-D. Luckhardt u. A. Schulz
  8. Endres-Niggemeyer, B.; Nax, K.; Storp, M.: Ideenskizze eines dynamisch konfigurierbaren elektronischen Thesaurus am Beispiel der Sozialwissenschaften (1994) 0.00
    0.0045866566 = product of:
      0.027519938 = sum of:
        0.027519938 = weight(_text_:der in 112) [ClassicSimilarity], result of:
          0.027519938 = score(doc=112,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29615843 = fieldWeight in 112, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=112)
      0.16666667 = coord(1/6)
    
  9. Endres-Niggemeyer, B.: Wissensbasierte Ansätze zur Formalerfassung (1988) 0.00
    0.0045866566 = product of:
      0.027519938 = sum of:
        0.027519938 = weight(_text_:der in 524) [ClassicSimilarity], result of:
          0.027519938 = score(doc=524,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29615843 = fieldWeight in 524, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=524)
      0.16666667 = coord(1/6)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  10. Endres-Niggemeyer, B.; Jauris-Heipke, S.; Pinsky, S.M.; Ulbricht, U.: Wissen gewinnen durch Wissen : Ontologiebasierte Informationsextraktion (2006) 0.00
    0.004273365 = product of:
      0.025640188 = sum of:
        0.025640188 = weight(_text_:der in 6016) [ClassicSimilarity], result of:
          0.025640188 = score(doc=6016,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27592933 = fieldWeight in 6016, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6016)
      0.16666667 = coord(1/6)
    
    Abstract
    Die ontologiebasierte Informationsextraktion, über die hier berichtet wird, ist Teil eines Systems zum automatischen Zusammenfassen, das sich am Vorgehen kompetenter Menschen orientiert. Dahinter steht die Annahme, dass Menschen die Ergebnisse eines Systems leichter übernehmen können, wenn sie mit Verfahren erarbeitet worden sind, die sie selbst auch benutzen. Das erste Anwendungsgebiet ist Knochenmarktransplantation (KMT). Im Kern des Systems Summit-BMT (Summarize It in Bone Marrow Transplantation) steht eine Ontologie des Fachgebietes. Sie ist als MySQL-Datenbank realisiert und versorgt menschliche Benutzer und Systemkomponenten mit Wissen. Summit-BMT unterstützt die Frageformulierung mit einem empirisch fundierten Szenario-Interface. Die Retrievalergebnisse werden durch ein Textpassagenretrieval vorselektiert und dann kognitiv fundierten Agenten unterbreitet, die unter Einsatz ihrer Wissensbasis / Ontologie genauer prüfen, ob die Propositionen aus der Benutzerfrage getroffen werden. Die relevanten Textclips aus dem Duelldokument werden in das Szenarioformular eingetragen und mit einem Link zu ihrem Vorkommen im Original präsentiert. In diesem Artikel stehen die Ontologie und ihr Gebrauch zur wissensbasierten Informationsextraktion im Mittelpunkt. Die Ontologiedatenbank hält unterschiedliche Wissenstypen so bereit, dass sie leicht kombiniert werden können: Konzepte, Propositionen und ihre syntaktisch-semantischen Schemata, Unifikatoren, Paraphrasen und Definitionen von Frage-Szenarios. Auf sie stützen sich die Systemagenten, welche von Menschen adaptierte Zusammenfassungsstrategien ausführen. Mängel in anderen Verarbeitungsschritten führen zu Verlusten, aber die eigentliche Qualität der Ergebnisse steht und fällt mit der Qualität der Ontologie. Erste Tests der Extraktionsleistung fallen verblüffend positiv aus.
  11. Endres-Niggemeyer, B.: Referierregeln und Referate : Abstracting als regelgesteuerter Textverarbeitungsprozeß (1985) 0.00
    0.0037837985 = product of:
      0.02270279 = sum of:
        0.02270279 = weight(_text_:der in 6602) [ClassicSimilarity], result of:
          0.02270279 = score(doc=6602,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.24431825 = fieldWeight in 6602, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6602)
      0.16666667 = coord(1/6)
    
    Abstract
    Referierregeln steuern Referierprozesse. Inhaltsbezogene Vorschriften aus drei Referierregeln wurden mit zugehö-rigen Abstracts verglichen. Das Ergebnis war unbefriedi-gend: Referierregeln sind teilweise inkonsistent, ihre Angaben sind nicht immer sachgerecht und oft als Hand-lungsanleitung nicht geeignet. Referieren erscheint als unterbestimmter Denk- und Textverarbeitungsvorgang mit beachtlichem Klärungs- und Gestaltungsbedarf. Die Regeln enthalten zuwenig Wissen über die von ihnen geregelten Sachverhalte. Sie geben oft zu einfache und sachferne Inhaltsstrukturen vor. Ideen für differenziertere Referatstrukturen werden entwickelt. Sie berücksichtigen die Abhängigkeit der Referatstruktur von der Textstruktur des Originaldokuments stärker. Die Klärung des Referier-vorganges bis zu einer gemeinsamen Zieldefinition ist für die weitere Entwicklung des intellektuellen wie des automatischen Referierens wichtig.
  12. Endres-Niggemeyer, B.: Thinkie: Lautes Denken mit Spracherkennung (mobil) (2013) 0.00
    0.0022933283 = product of:
      0.013759969 = sum of:
        0.013759969 = weight(_text_:der in 1145) [ClassicSimilarity], result of:
          0.013759969 = score(doc=1145,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.14807922 = fieldWeight in 1145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1145)
      0.16666667 = coord(1/6)
    
    Abstract
    Lautes Denken ist eine bewährte Methode zum Erforschen kognitiver Prozesse. Es wird in vielen Disziplinen benutzt, z. B. um aufzudecken, welche Erfahrungen Benutzer bei der Interaktion mit Computerschnittstellen machen. Nach einer kurzen Erklärung des Lauten Denkens wird die App Thinkie vorgestellt. Thinkie ist eine mobile Lösung für das Laute Denken auf iPhone und iPad. Die Testperson nimmt auf dem iPhone den Ton auf. Die Spracherkennungssoftware Siri (http://www.apple.com/de/ios/siri/) transkribiert ihn. Parallel wird auf dem iPad oder einem anderen Gerät gefilmt. Auf dem iPad kann man - mit Video im Blick - das Transkript aufarbeiten und interpretieren. Die Textdateien transportiert Thinkie über eine Cloud-Kollektion, die Filme werden mit iTunes übertragen. Thinkie ist noch nicht tauglich für den praktischen Gebrauch. Noch sind die Sequenzen zu kurz, die Siri verarbeiten kann. Das wird sich ändern.