Search (3135 results, page 1 of 157)

  • × language_ss:"d"
  1. Öttl, S.; Streiff, D.; Stettler, N.; Studer, M.: Aufbau einer Testumgebung zur Ermittlung signifikanter Parameter bei der Ontologieabfrage (2010) 0.11
    0.11096816 = product of:
      0.22193632 = sum of:
        0.15025917 = weight(_text_:et in 4257) [ClassicSimilarity], result of:
          0.15025917 = score(doc=4257,freq=16.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.7331258 = fieldWeight in 4257, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4257)
        0.07167714 = product of:
          0.14335428 = sum of:
            0.14335428 = weight(_text_:al in 4257) [ClassicSimilarity], result of:
              0.14335428 = score(doc=4257,freq=16.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.716083 = fieldWeight in 4257, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4257)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Der Einsatz von semantischen Technologien ist mittlerweile ein etabliertes Mittel zur Optimierung von Information-Retrieval-Systemen. Obwohl der Einsatz von Ontologien für verschiedene Anwendungsbereiche wie beispielsweise zur Query-Expansion (Bhogal et al. 2007), zur Strukturierung von Benutzeroberflächen bzw. zur Dialoggestaltung (z. B. Garcia & Sicilia 2003; Liu et al. 2005; Lopez et al. 2006; Paulheim 2009; Paulheim & Probst 2010), in Recommendersystemen (z. B. Taehee et al. 2006; Cantador et al. 2008; Middleton et al. 2001; Middleton et al. 2009) usw. rege erforscht wird, gibt es noch kaum Bestrebungen, die einzelnen Abfragemethodiken für Ontologien systematisch zu untersuchen. Bei der Abfrage von Ontologien geht es in erster Linie darum, Zusammenhänge zwischen Begriffen zu ermitteln, indem hierarchische (Classes und Individuals), semantische (Object Properties) und ergänzende (Datatype Properties) Beziehungen abgefragt oder logische Verknüpfungen abgeleitet werden. Hierbei werden sogenannte Reasoner für die Ableitungen und als Abfragesprache SPARQL (seltener auch XPath) eingesetzt. Ein weiterer, weniger oft eingesetzter, vielversprechender Ansatz findet sich bei Hoser et al. (2006) und Weng & Chang (2008), die Techniken der Sozialen Netzwerkanalyse zur Auswertung von Ontologien miteinsetzen (Semantic Network Analysis). Um die Abfrage von Ontologien sowie Kombinationen der unterschiedlichen Abfragemöglichkeiten systematisch untersuchen zu können, wurde am SII eine entsprechende Testumgebung entwickelt, die in diesem Beitrag genauer vorgestellt werden soll.
  2. Wille, R.: Begriffliche Wissensverarbeitung in der Wirtschaft (2002) 0.11
    0.110154286 = product of:
      0.14687239 = sum of:
        0.037019525 = weight(_text_:r in 547) [ClassicSimilarity], result of:
          0.037019525 = score(doc=547,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.25601473 = fieldWeight in 547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.0546875 = fieldNorm(doc=547)
        0.07437449 = weight(_text_:et in 547) [ClassicSimilarity], result of:
          0.07437449 = score(doc=547,freq=2.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.36287874 = fieldWeight in 547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=547)
        0.035478372 = product of:
          0.070956744 = sum of:
            0.070956744 = weight(_text_:al in 547) [ClassicSimilarity], result of:
              0.070956744 = score(doc=547,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.35444298 = fieldWeight in 547, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=547)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    Begriffliche Wissensverarbeitung ist einem pragmatischen Wissensverständnis verpflichtet, nach dem menschliches Wissen in einem offenen Prozess menschlichen Denkens, Argumentierens und Kommunizierens entsteht und weiterlebt. Sie gründet sich auf eine mathematische Begriffstheorie, die auf das wechselseitige Zusammenwirken von Formalem und Inhaltlichem ausgerichtet ist. Wie diese theoretische Konzeption in der wirtschaftlichen Praxis zur Wirkung kommt wird erläutert anhand der Kernprozesse des organisationalen Wissensmanagements, d.h. nach G. Probst et al. anhand von Wissensidentifikation, Wissenserwerb, Wissensentwicklung, Wissens(ver)teilung, Wissensnutzung und Wissensbewahrung; jeweils an einem Beispiel wird der Einsatz spezifischer Methoden der Begrifflichen Wissensverarbeitung demonstriert. Abschließend wird auf den prozesshaften Wirkungszusammenhang von Wissenszielen und Wissensbewertungen mit den Kernprozessen aus Sicht der Begrifflichen Wissensverarbeitung eingegangen.
  3. Handbuch Web Mining im Marketing : Konzepte, Systeme, Fallstudien (2002) 0.11
    0.109852865 = product of:
      0.21970573 = sum of:
        0.14874898 = weight(_text_:et in 6106) [ClassicSimilarity], result of:
          0.14874898 = score(doc=6106,freq=2.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.7257575 = fieldWeight in 6106, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6106)
        0.070956744 = product of:
          0.14191349 = sum of:
            0.14191349 = weight(_text_:al in 6106) [ClassicSimilarity], result of:
              0.14191349 = score(doc=6106,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.70888597 = fieldWeight in 6106, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6106)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Editor
    Hippner, H. et al.
  4. Krause, J.: Principles of content analysis for information retrieval systems : an overview (1996) 0.11
    0.109852865 = product of:
      0.21970573 = sum of:
        0.14874898 = weight(_text_:et in 5270) [ClassicSimilarity], result of:
          0.14874898 = score(doc=5270,freq=2.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.7257575 = fieldWeight in 5270, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5270)
        0.070956744 = product of:
          0.14191349 = sum of:
            0.14191349 = weight(_text_:al in 5270) [ClassicSimilarity], result of:
              0.14191349 = score(doc=5270,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.70888597 = fieldWeight in 5270, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5270)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Source
    Text analysis and computer. Ed.: C. Züll et al
  5. Lewandowski, D.: Query understanding (2011) 0.11
    0.10671973 = product of:
      0.21343946 = sum of:
        0.08499941 = weight(_text_:et in 344) [ClassicSimilarity], result of:
          0.08499941 = score(doc=344,freq=2.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.41471857 = fieldWeight in 344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0625 = fieldNorm(doc=344)
        0.12844005 = sum of:
          0.08109342 = weight(_text_:al in 344) [ClassicSimilarity], result of:
            0.08109342 = score(doc=344,freq=2.0), product of:
              0.20019227 = queryWeight, product of:
                4.582931 = idf(docFreq=1228, maxDocs=44218)
                0.043682147 = queryNorm
              0.4050777 = fieldWeight in 344, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.582931 = idf(docFreq=1228, maxDocs=44218)
                0.0625 = fieldNorm(doc=344)
          0.047346625 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
            0.047346625 = score(doc=344,freq=2.0), product of:
              0.15296744 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043682147 = queryNorm
              0.30952093 = fieldWeight in 344, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=344)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Kapitel wird beschrieben, wie Suchmaschinen Suchanfragen interpretieren können, um letztendlich den Nutzern besser auf ihren Kontext zugeschnittene Ergebnisse liefern zu können. Nach einer Diskussion der Notwendigkeit und der Einsatzmöglichkeiten des Query Understanding wird aufgezeigt, auf welcher Datenbasis und an welchen Ansatzpunkten Suchanfragen interpretiert werden können. Dann erfolgt eine Erläuterung der Interpretationsmöglichkeiten anhand der Suchanfragen-Facetten von Calderon-Benavides et al. (2010), welcher sich eine Diskussion der Verfahren zur Ermittlung der Facetten anschließt.
    Date
    18. 9.2018 18:22:18
  6. Helbing, D.: ¬Das große Scheitern (2019) 0.11
    0.10671973 = product of:
      0.21343946 = sum of:
        0.08499941 = weight(_text_:et in 5599) [ClassicSimilarity], result of:
          0.08499941 = score(doc=5599,freq=2.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.41471857 = fieldWeight in 5599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5599)
        0.12844005 = sum of:
          0.08109342 = weight(_text_:al in 5599) [ClassicSimilarity], result of:
            0.08109342 = score(doc=5599,freq=2.0), product of:
              0.20019227 = queryWeight, product of:
                4.582931 = idf(docFreq=1228, maxDocs=44218)
                0.043682147 = queryNorm
              0.4050777 = fieldWeight in 5599, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.582931 = idf(docFreq=1228, maxDocs=44218)
                0.0625 = fieldNorm(doc=5599)
          0.047346625 = weight(_text_:22 in 5599) [ClassicSimilarity], result of:
            0.047346625 = score(doc=5599,freq=2.0), product of:
              0.15296744 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043682147 = queryNorm
              0.30952093 = fieldWeight in 5599, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=5599)
      0.5 = coord(2/4)
    
    Content
    Vgl. auch den Beitrag von D. Helbing et al.: 'Digitale Demokratie statt Datendiktatur: Digital-Manifest' in: Spektrum der Wissenschaft. 2016, H.1, S.50-60.
    Date
    25.12.2019 14:19:22
  7. Arntz, R.; Picht, H.; Mayer, F.: Einführung in die Terminologiearbeit (2004) 0.10
    0.10473113 = product of:
      0.13964151 = sum of:
        0.031731024 = weight(_text_:r in 5015) [ClassicSimilarity], result of:
          0.031731024 = score(doc=5015,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.2194412 = fieldWeight in 5015, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.046875 = fieldNorm(doc=5015)
        0.0901555 = weight(_text_:et in 5015) [ClassicSimilarity], result of:
          0.0901555 = score(doc=5015,freq=4.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.43987548 = fieldWeight in 5015, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5015)
        0.017754983 = product of:
          0.035509966 = sum of:
            0.035509966 = weight(_text_:22 in 5015) [ClassicSimilarity], result of:
              0.035509966 = score(doc=5015,freq=2.0), product of:
                0.15296744 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043682147 = queryNorm
                0.23214069 = fieldWeight in 5015, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5015)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Classification
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
    Date
    22. 4.2007 12:13:14
    RVK
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
  8. Arntz, R.; Picht, H.: Einführung in die Terminologiearbeit (1989) 0.10
    0.10473113 = product of:
      0.13964151 = sum of:
        0.031731024 = weight(_text_:r in 218) [ClassicSimilarity], result of:
          0.031731024 = score(doc=218,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.2194412 = fieldWeight in 218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.0901555 = weight(_text_:et in 218) [ClassicSimilarity], result of:
          0.0901555 = score(doc=218,freq=4.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.43987548 = fieldWeight in 218, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.017754983 = product of:
          0.035509966 = sum of:
            0.035509966 = weight(_text_:22 in 218) [ClassicSimilarity], result of:
              0.035509966 = score(doc=218,freq=2.0), product of:
                0.15296744 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043682147 = queryNorm
                0.23214069 = fieldWeight in 218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=218)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Classification
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
    Date
    22. 4.2007 12:15:17
    RVK
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
  9. Engerer, V.: Indexierungstheorie für Linguisten : zu einigen natürlichsprachlichen Zügen in künstlichen Indexsprachen (2014) 0.09
    0.094159596 = product of:
      0.18831919 = sum of:
        0.12749912 = weight(_text_:et in 3339) [ClassicSimilarity], result of:
          0.12749912 = score(doc=3339,freq=2.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.6220778 = fieldWeight in 3339, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3339)
        0.06082007 = product of:
          0.12164014 = sum of:
            0.12164014 = weight(_text_:al in 3339) [ClassicSimilarity], result of:
              0.12164014 = score(doc=3339,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.60761654 = fieldWeight in 3339, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3339)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Source
    Dialekte, Konzepte, Kontakte. Ergebnisse des Arbeitstreffens der Gesellschaft für Sprache und Sprachen, GeSuS e.V., 31. Mai - 1. Juni 2013 in Freiburg/Breisgau. Hrsg.: V. Schönenberger et al
  10. Burkart-Sabsoub, M.; Wersig, G.: Klassifikationssysteme in Information und Dokumentation in der Bundesrepublik Deutschland (1982) 0.08
    0.08285474 = product of:
      0.16570948 = sum of:
        0.08461606 = weight(_text_:r in 3334) [ClassicSimilarity], result of:
          0.08461606 = score(doc=3334,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.5851765 = fieldWeight in 3334, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.125 = fieldNorm(doc=3334)
        0.08109342 = product of:
          0.16218685 = sum of:
            0.16218685 = weight(_text_:al in 3334) [ClassicSimilarity], result of:
              0.16218685 = score(doc=3334,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.8101554 = fieldWeight in 3334, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.125 = fieldNorm(doc=3334)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Signature
    Al 12b Bur
    Type
    r
  11. Theoretische Konferenz zu Fragen der Sachkatalogisierung : Berlin, 9.-11.12.1959 (1960) 0.08
    0.08285474 = product of:
      0.16570948 = sum of:
        0.08461606 = weight(_text_:r in 3396) [ClassicSimilarity], result of:
          0.08461606 = score(doc=3396,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.5851765 = fieldWeight in 3396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.125 = fieldNorm(doc=3396)
        0.08109342 = product of:
          0.16218685 = sum of:
            0.16218685 = weight(_text_:al in 3396) [ClassicSimilarity], result of:
              0.16218685 = score(doc=3396,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.8101554 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.125 = fieldNorm(doc=3396)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Editor
    Unger, R.; Nestler, F. (Red.)
    Signature
    Al 12b Kon
  12. Burkart-Sabsoub, M.; Wersig, G.: Kombinatorischer Einsatz von Dokumentationssprachen : Bericht über eine Besuchs-Exploration (1982) 0.08
    0.08285474 = product of:
      0.16570948 = sum of:
        0.08461606 = weight(_text_:r in 3448) [ClassicSimilarity], result of:
          0.08461606 = score(doc=3448,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.5851765 = fieldWeight in 3448, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.125 = fieldNorm(doc=3448)
        0.08109342 = product of:
          0.16218685 = sum of:
            0.16218685 = weight(_text_:al in 3448) [ClassicSimilarity], result of:
              0.16218685 = score(doc=3448,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.8101554 = fieldWeight in 3448, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.125 = fieldNorm(doc=3448)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Signature
    Al 12b Bur
    Type
    r
  13. Burkart-Sabsoub, M.; Wersig, G.: Perspektiven für Klassifikationssysteme in neueren Entwicklungen der Informationspraxis (1982) 0.08
    0.08285474 = product of:
      0.16570948 = sum of:
        0.08461606 = weight(_text_:r in 3451) [ClassicSimilarity], result of:
          0.08461606 = score(doc=3451,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.5851765 = fieldWeight in 3451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.125 = fieldNorm(doc=3451)
        0.08109342 = product of:
          0.16218685 = sum of:
            0.16218685 = weight(_text_:al in 3451) [ClassicSimilarity], result of:
              0.16218685 = score(doc=3451,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.8101554 = fieldWeight in 3451, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.125 = fieldNorm(doc=3451)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Signature
    Al 12b Bur
    Type
    r
  14. Gorbacevskaja, N.; Novikiva, E.: Entwicklung der Katalogisierung in der UDSSR (1960) 0.08
    0.08285474 = product of:
      0.16570948 = sum of:
        0.08461606 = weight(_text_:r in 3493) [ClassicSimilarity], result of:
          0.08461606 = score(doc=3493,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.5851765 = fieldWeight in 3493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.125 = fieldNorm(doc=3493)
        0.08109342 = product of:
          0.16218685 = sum of:
            0.16218685 = weight(_text_:al in 3493) [ClassicSimilarity], result of:
              0.16218685 = score(doc=3493,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.8101554 = fieldWeight in 3493, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.125 = fieldNorm(doc=3493)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Signature
    Al 12b Gor
    Type
    r
  15. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.08
    0.0824464 = product of:
      0.10992853 = sum of:
        0.021154014 = weight(_text_:r in 6078) [ClassicSimilarity], result of:
          0.021154014 = score(doc=6078,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.14629413 = fieldWeight in 6078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.060103666 = weight(_text_:et in 6078) [ClassicSimilarity], result of:
          0.060103666 = score(doc=6078,freq=4.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.29325032 = fieldWeight in 6078, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.028670855 = product of:
          0.05734171 = sum of:
            0.05734171 = weight(_text_:al in 6078) [ClassicSimilarity], result of:
              0.05734171 = score(doc=6078,freq=4.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.2864332 = fieldWeight in 6078, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6078)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
  16. Schmidt, R.: Maschinelle Text-Ton-Synchronisation in Wissenschaft und Wirtschaft (2000) 0.08
    0.07868163 = product of:
      0.10490885 = sum of:
        0.026442517 = weight(_text_:r in 5559) [ClassicSimilarity], result of:
          0.026442517 = score(doc=5559,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.18286766 = fieldWeight in 5559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.053124636 = weight(_text_:et in 5559) [ClassicSimilarity], result of:
          0.053124636 = score(doc=5559,freq=2.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.2591991 = fieldWeight in 5559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.025341695 = product of:
          0.05068339 = sum of:
            0.05068339 = weight(_text_:al in 5559) [ClassicSimilarity], result of:
              0.05068339 = score(doc=5559,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.25317356 = fieldWeight in 5559, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5559)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    Tonmaterial in Form von Audio- oder Videoaufnahmen spielt in Bereichen der Wissenschaft, die sich mit verbaler Interaktion beschäftigen, eine bedeutende Rolle. Solche Gebiete sind u,a. die Linguistik, Psychologie, Soziologie und Kriminalistik. Gegenstand der Untersuchung können dabei z.B. die Formen des sprachlichen Handelns und der Sprachvariation in Abhängigkeit von der Situation oder die Ausprägung und Entwicklung von Sprachunterschieden vor dem sozialen Hintergrund sein. Im Rahmen der Analyse eines Gesprächsverlaufs kann beispielsweise die Form der Rederechtsicherung von Interesse sein. In diesem Zusammenhang stellen sich Fragen wie z.B. "Wie bringen Gesprächsteilnehrner Gesprächsbeteiligte dazu, ihre Rede zu unterbrechen?" oder "Wie wehren Gesprächsteilnehmer Unterbrechungsversuche voll anderen Teilnehmern ab?". Denkbar ist hier u.a. nach dem Vorkommen von "ausreden lassen" zu suchen, wobei diese beiden Wörter nicht unbedingt nebeneinander auftreten müssen. Bei der Suche nach Stellen an denen ein Gesprächsteilnehmer Ansprüche oder Forderungen an einen Gesprächspartner stellt, können die flektierten Formen der Modalverben wie z.B. "müssen", "sollen" oder "dürfen" für die Anfrage wichtig sein, während Konnektiva wie "aber", "ja aber" oder "doch" auf oppositive Gesprächsabschnitte verweisen können. Näheres zur gesprächsanalytischen Methodik kann Deppermann (1999) und Brünner et al. (1999) entnommen werden. In dem Bereich der Linguistik, die den Gebrauch von gesprochener Sprache in offiziellen und privaten Situationen zum Gegenstand hat, sind u.a. auch Aussprachevarianten von großem Interesse. Von der Untersuchung der Sprachfärbungen erhofft man sich detaillierte Aussagen über die Sprechersituation und die regionale (König (1988)) und soziale Herkunft des Sprechers machen zu können. In der Kriminalistik wirken solche Ergebnisse unterstützend bei der Identifizierung von Personen
  17. Rudolph, S.; Hemmje, M.: Visualisierung von Thesauri zur interaktiven Unterstüzung von visuellen Anfragen an Textdatenbanken (1994) 0.08
    0.07868163 = product of:
      0.10490885 = sum of:
        0.026442517 = weight(_text_:r in 2382) [ClassicSimilarity], result of:
          0.026442517 = score(doc=2382,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.18286766 = fieldWeight in 2382, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2382)
        0.053124636 = weight(_text_:et in 2382) [ClassicSimilarity], result of:
          0.053124636 = score(doc=2382,freq=2.0), product of:
            0.20495686 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.043682147 = queryNorm
            0.2591991 = fieldWeight in 2382, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2382)
        0.025341695 = product of:
          0.05068339 = sum of:
            0.05068339 = weight(_text_:al in 2382) [ClassicSimilarity], result of:
              0.05068339 = score(doc=2382,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.25317356 = fieldWeight in 2382, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2382)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    In der folgenden Studie wird eine Komponente für eine visuelle Benutzerschnittstelle zu Textdatenbanken entworfen. Mit Hilfe einer Terminologievisualisierung wird dem Benutzer eine Hilfestellung bei der Relevanzbewertung von Dokumenten und bei der Erweiterung seiner visuellen Anfrage an das Retrieval-System gegeben. Dazu werden zuerst die grundlegenden Information-Retrieval-Modelle eingehender vorgestellt, d.h., generelle Retrieval-Modelle, Retrievaloperationen und spezielle Retrieval-Modelle wie Text-Retrieval werden erläutert. Die Funktionalität eines Text-Retrieval-Systems wird vorgestellt. Darüber hinaus werden bereits existierende Implementierungen visueller Information-Retrieval-Benutzerschnittstellen vorgestellt. Im weiteren Verlauf der Arbeit werden mögliche Visualisierungen der mit Hilfe eines Text-Retrieval-Systems gefundenen Dokumente aufgezeigt. Es werden mehrere Vorschläge zur Visualisierung von Thesauri diskutiert. Es wird gezeigt, wie neuronale Netze zur Kartierung eines Eingabebereiches benutzt werden können. Klassifikationsebenen einer objekt-orientierten Annäherung eines Information-Retrieval-Systems werden vorgestellt. In diesem Zusammenhang werden auch die Eigenschaften von Thesauri sowie die Architektur und Funktion eines Parsersystems erläutert. Mit diesen Voraussetzung wird die Implementierung einer visuellen Terminologierunterstützung realisiert. Abschließend wird ein Fazit zur vorgestellten Realisierung basierend auf einem Drei-Schichten-Modell von [Agosti et al. 1990] gezogen.
    Type
    r
  18. Burkart-Sabsoub, M.; Wersig, G.; Blohm, W.: Ergebnisse einer Umfrage im Sommer 1981 : ¬Die Nutzung der DK in der Bundesrepublik Deutschland und Österreich (1982) 0.07
    0.0724979 = product of:
      0.1449958 = sum of:
        0.07403905 = weight(_text_:r in 3144) [ClassicSimilarity], result of:
          0.07403905 = score(doc=3144,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.51202947 = fieldWeight in 3144, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.109375 = fieldNorm(doc=3144)
        0.070956744 = product of:
          0.14191349 = sum of:
            0.14191349 = weight(_text_:al in 3144) [ClassicSimilarity], result of:
              0.14191349 = score(doc=3144,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.70888597 = fieldWeight in 3144, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3144)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Signature
    Al 12b DK
    Type
    r
  19. Burkart-Sabsoub, M.; Wersig, G.: Entscheidungsdimensionen und -abläufe zum Einsatz von Klassifikationssystemen : Bericht über ein exploratives Experiment (1982) 0.07
    0.0724979 = product of:
      0.1449958 = sum of:
        0.07403905 = weight(_text_:r in 3449) [ClassicSimilarity], result of:
          0.07403905 = score(doc=3449,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.51202947 = fieldWeight in 3449, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.109375 = fieldNorm(doc=3449)
        0.070956744 = product of:
          0.14191349 = sum of:
            0.14191349 = weight(_text_:al in 3449) [ClassicSimilarity], result of:
              0.14191349 = score(doc=3449,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.70888597 = fieldWeight in 3449, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3449)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Signature
    Al 12b Bur
    Type
    r
  20. Burkart-Sabsoub, M.; Wersig, G.: Nutzung von Klassifikationssystemen in deutschen IuD-Stellen : Ergebnisse einer Umfage im Winter 1980/81 (1981) 0.07
    0.0724979 = product of:
      0.1449958 = sum of:
        0.07403905 = weight(_text_:r in 3450) [ClassicSimilarity], result of:
          0.07403905 = score(doc=3450,freq=2.0), product of:
            0.1445992 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.043682147 = queryNorm
            0.51202947 = fieldWeight in 3450, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.109375 = fieldNorm(doc=3450)
        0.070956744 = product of:
          0.14191349 = sum of:
            0.14191349 = weight(_text_:al in 3450) [ClassicSimilarity], result of:
              0.14191349 = score(doc=3450,freq=2.0), product of:
                0.20019227 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.043682147 = queryNorm
                0.70888597 = fieldWeight in 3450, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3450)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Signature
    Al 12b Bur
    Type
    r

Languages

Types

  • a 2202
  • m 523
  • s 174
  • el 168
  • r 123
  • ? 67
  • x 55
  • i 37
  • b 12
  • p 8
  • d 6
  • h 5
  • n 3
  • u 2
  • au 1
  • More… Less…

Themes

Subjects

Classifications