Search (11961 results, page 1 of 599)

  • × language_ss:"d"
  1. Krause, J.: Principles of content analysis for information retrieval systems : an overview (1996) 0.17
    0.1731143 = product of:
      0.23081906 = sum of:
        0.009066874 = weight(_text_:a in 5270) [ClassicSimilarity], result of:
          0.009066874 = score(doc=5270,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.17835285 = fieldWeight in 5270, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.109375 = fieldNorm(doc=5270)
        0.1501345 = weight(_text_:et in 5270) [ClassicSimilarity], result of:
          0.1501345 = score(doc=5270,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.7257575 = fieldWeight in 5270, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5270)
        0.07161768 = product of:
          0.14323536 = sum of:
            0.14323536 = weight(_text_:al in 5270) [ClassicSimilarity], result of:
              0.14323536 = score(doc=5270,freq=2.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.70888597 = fieldWeight in 5270, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5270)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Source
    Text analysis and computer. Ed.: C. Züll et al
    Type
    a
  2. Öttl, S.; Streiff, D.; Stettler, N.; Studer, M.: Aufbau einer Testumgebung zur Ermittlung signifikanter Parameter bei der Ontologieabfrage (2010) 0.17
    0.17043129 = product of:
      0.22724171 = sum of:
        0.003238169 = weight(_text_:a in 4257) [ClassicSimilarity], result of:
          0.003238169 = score(doc=4257,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.06369744 = fieldWeight in 4257, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4257)
        0.15165876 = weight(_text_:et in 4257) [ClassicSimilarity], result of:
          0.15165876 = score(doc=4257,freq=16.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.7331258 = fieldWeight in 4257, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4257)
        0.07234478 = product of:
          0.14468956 = sum of:
            0.14468956 = weight(_text_:al in 4257) [ClassicSimilarity], result of:
              0.14468956 = score(doc=4257,freq=16.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.716083 = fieldWeight in 4257, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4257)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    Der Einsatz von semantischen Technologien ist mittlerweile ein etabliertes Mittel zur Optimierung von Information-Retrieval-Systemen. Obwohl der Einsatz von Ontologien für verschiedene Anwendungsbereiche wie beispielsweise zur Query-Expansion (Bhogal et al. 2007), zur Strukturierung von Benutzeroberflächen bzw. zur Dialoggestaltung (z. B. Garcia & Sicilia 2003; Liu et al. 2005; Lopez et al. 2006; Paulheim 2009; Paulheim & Probst 2010), in Recommendersystemen (z. B. Taehee et al. 2006; Cantador et al. 2008; Middleton et al. 2001; Middleton et al. 2009) usw. rege erforscht wird, gibt es noch kaum Bestrebungen, die einzelnen Abfragemethodiken für Ontologien systematisch zu untersuchen. Bei der Abfrage von Ontologien geht es in erster Linie darum, Zusammenhänge zwischen Begriffen zu ermitteln, indem hierarchische (Classes und Individuals), semantische (Object Properties) und ergänzende (Datatype Properties) Beziehungen abgefragt oder logische Verknüpfungen abgeleitet werden. Hierbei werden sogenannte Reasoner für die Ableitungen und als Abfragesprache SPARQL (seltener auch XPath) eingesetzt. Ein weiterer, weniger oft eingesetzter, vielversprechender Ansatz findet sich bei Hoser et al. (2006) und Weng & Chang (2008), die Techniken der Sozialen Netzwerkanalyse zur Auswertung von Ontologien miteinsetzen (Semantic Network Analysis). Um die Abfrage von Ontologien sowie Kombinationen der unterschiedlichen Abfragemöglichkeiten systematisch untersuchen zu können, wurde am SII eine entsprechende Testumgebung entwickelt, die in diesem Beitrag genauer vorgestellt werden soll.
    Type
    a
  3. Lewandowski, D.: Query understanding (2011) 0.17
    0.16545647 = product of:
      0.22060862 = sum of:
        0.0051810704 = weight(_text_:a in 344) [ClassicSimilarity], result of:
          0.0051810704 = score(doc=344,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.10191591 = fieldWeight in 344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0625 = fieldNorm(doc=344)
        0.08579115 = weight(_text_:et in 344) [ClassicSimilarity], result of:
          0.08579115 = score(doc=344,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.41471857 = fieldWeight in 344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0625 = fieldNorm(doc=344)
        0.1296364 = sum of:
          0.08184877 = weight(_text_:al in 344) [ClassicSimilarity], result of:
            0.08184877 = score(doc=344,freq=2.0), product of:
              0.20205697 = queryWeight, product of:
                4.582931 = idf(docFreq=1228, maxDocs=44218)
                0.044089027 = queryNorm
              0.4050777 = fieldWeight in 344, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.582931 = idf(docFreq=1228, maxDocs=44218)
                0.0625 = fieldNorm(doc=344)
          0.047787637 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
            0.047787637 = score(doc=344,freq=2.0), product of:
              0.15439226 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044089027 = queryNorm
              0.30952093 = fieldWeight in 344, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=344)
      0.75 = coord(3/4)
    
    Abstract
    In diesem Kapitel wird beschrieben, wie Suchmaschinen Suchanfragen interpretieren können, um letztendlich den Nutzern besser auf ihren Kontext zugeschnittene Ergebnisse liefern zu können. Nach einer Diskussion der Notwendigkeit und der Einsatzmöglichkeiten des Query Understanding wird aufgezeigt, auf welcher Datenbasis und an welchen Ansatzpunkten Suchanfragen interpretiert werden können. Dann erfolgt eine Erläuterung der Interpretationsmöglichkeiten anhand der Suchanfragen-Facetten von Calderon-Benavides et al. (2010), welcher sich eine Diskussion der Verfahren zur Ermittlung der Facetten anschließt.
    Date
    18. 9.2018 18:22:18
    Type
    a
  4. Helbing, D.: ¬Das große Scheitern (2019) 0.17
    0.16545647 = product of:
      0.22060862 = sum of:
        0.0051810704 = weight(_text_:a in 5599) [ClassicSimilarity], result of:
          0.0051810704 = score(doc=5599,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.10191591 = fieldWeight in 5599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0625 = fieldNorm(doc=5599)
        0.08579115 = weight(_text_:et in 5599) [ClassicSimilarity], result of:
          0.08579115 = score(doc=5599,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.41471857 = fieldWeight in 5599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5599)
        0.1296364 = sum of:
          0.08184877 = weight(_text_:al in 5599) [ClassicSimilarity], result of:
            0.08184877 = score(doc=5599,freq=2.0), product of:
              0.20205697 = queryWeight, product of:
                4.582931 = idf(docFreq=1228, maxDocs=44218)
                0.044089027 = queryNorm
              0.4050777 = fieldWeight in 5599, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.582931 = idf(docFreq=1228, maxDocs=44218)
                0.0625 = fieldNorm(doc=5599)
          0.047787637 = weight(_text_:22 in 5599) [ClassicSimilarity], result of:
            0.047787637 = score(doc=5599,freq=2.0), product of:
              0.15439226 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044089027 = queryNorm
              0.30952093 = fieldWeight in 5599, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=5599)
      0.75 = coord(3/4)
    
    Content
    Vgl. auch den Beitrag von D. Helbing et al.: 'Digitale Demokratie statt Datendiktatur: Digital-Manifest' in: Spektrum der Wissenschaft. 2016, H.1, S.50-60.
    Date
    25.12.2019 14:19:22
    Type
    a
  5. Engerer, V.: Indexierungstheorie für Linguisten : zu einigen natürlichsprachlichen Zügen in künstlichen Indexsprachen (2014) 0.15
    0.14838368 = product of:
      0.19784491 = sum of:
        0.007771606 = weight(_text_:a in 3339) [ClassicSimilarity], result of:
          0.007771606 = score(doc=3339,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.15287387 = fieldWeight in 3339, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.09375 = fieldNorm(doc=3339)
        0.12868671 = weight(_text_:et in 3339) [ClassicSimilarity], result of:
          0.12868671 = score(doc=3339,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.6220778 = fieldWeight in 3339, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3339)
        0.06138658 = product of:
          0.12277316 = sum of:
            0.12277316 = weight(_text_:al in 3339) [ClassicSimilarity], result of:
              0.12277316 = score(doc=3339,freq=2.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.60761654 = fieldWeight in 3339, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3339)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Source
    Dialekte, Konzepte, Kontakte. Ergebnisse des Arbeitstreffens der Gesellschaft für Sprache und Sprachen, GeSuS e.V., 31. Mai - 1. Juni 2013 in Freiburg/Breisgau. Hrsg.: V. Schönenberger et al
    Type
    a
  6. Handbuch Web Mining im Marketing : Konzepte, Systeme, Fallstudien (2002) 0.11
    0.11087609 = product of:
      0.22175218 = sum of:
        0.1501345 = weight(_text_:et in 6106) [ClassicSimilarity], result of:
          0.1501345 = score(doc=6106,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.7257575 = fieldWeight in 6106, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6106)
        0.07161768 = product of:
          0.14323536 = sum of:
            0.14323536 = weight(_text_:al in 6106) [ClassicSimilarity], result of:
              0.14323536 = score(doc=6106,freq=2.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.70888597 = fieldWeight in 6106, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6106)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Editor
    Hippner, H. et al.
  7. Weltsch, F.: ¬Der "engste Begriff" oder Gruppenbildung : ein Grundproblem des Schlagwortkataloges (1928) 0.11
    0.11069457 = product of:
      0.22138914 = sum of:
        0.009066874 = weight(_text_:a in 636) [ClassicSimilarity], result of:
          0.009066874 = score(doc=636,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.17835285 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.109375 = fieldNorm(doc=636)
        0.21232226 = weight(_text_:et in 636) [ClassicSimilarity], result of:
          0.21232226 = score(doc=636,freq=4.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            1.0263761 = fieldWeight in 636, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.109375 = fieldNorm(doc=636)
      0.5 = coord(2/4)
    
    Series
    Procès-verbaux et Mèmoires; 2
    Source
    Congrès International des Bibliothécaires et des amis du livre tenu à Prague 1926
    Type
    a
  8. Glasersfeld, E. von: ¬Die Begriffe der Anpassung und Viabilität in einer radikal konstruktivistischen Erkenntnistheorie (1987) 0.10
    0.10053201 = product of:
      0.13404268 = sum of:
        0.007327141 = weight(_text_:a in 1889) [ClassicSimilarity], result of:
          0.007327141 = score(doc=1889,freq=4.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.14413087 = fieldWeight in 1889, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0625 = fieldNorm(doc=1889)
        0.08579115 = weight(_text_:et in 1889) [ClassicSimilarity], result of:
          0.08579115 = score(doc=1889,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.41471857 = fieldWeight in 1889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1889)
        0.040924385 = product of:
          0.08184877 = sum of:
            0.08184877 = weight(_text_:al in 1889) [ClassicSimilarity], result of:
              0.08184877 = score(doc=1889,freq=2.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.4050777 = fieldWeight in 1889, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1889)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Footnote
    Original: 'The concepts of adaptation and viability in a radical constructivist theory of knowledge' in: New directions of Piagetian theory and their application to education. Ed.: I. Sigel et al. Hillsdale, NJ 1981.
    Type
    a
  9. Wille, R.: Begriffliche Wissensverarbeitung in der Wirtschaft (2002) 0.09
    0.08655715 = product of:
      0.11540953 = sum of:
        0.004533437 = weight(_text_:a in 547) [ClassicSimilarity], result of:
          0.004533437 = score(doc=547,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.089176424 = fieldWeight in 547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0546875 = fieldNorm(doc=547)
        0.07506725 = weight(_text_:et in 547) [ClassicSimilarity], result of:
          0.07506725 = score(doc=547,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.36287874 = fieldWeight in 547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=547)
        0.03580884 = product of:
          0.07161768 = sum of:
            0.07161768 = weight(_text_:al in 547) [ClassicSimilarity], result of:
              0.07161768 = score(doc=547,freq=2.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.35444298 = fieldWeight in 547, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=547)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    Begriffliche Wissensverarbeitung ist einem pragmatischen Wissensverständnis verpflichtet, nach dem menschliches Wissen in einem offenen Prozess menschlichen Denkens, Argumentierens und Kommunizierens entsteht und weiterlebt. Sie gründet sich auf eine mathematische Begriffstheorie, die auf das wechselseitige Zusammenwirken von Formalem und Inhaltlichem ausgerichtet ist. Wie diese theoretische Konzeption in der wirtschaftlichen Praxis zur Wirkung kommt wird erläutert anhand der Kernprozesse des organisationalen Wissensmanagements, d.h. nach G. Probst et al. anhand von Wissensidentifikation, Wissenserwerb, Wissensentwicklung, Wissens(ver)teilung, Wissensnutzung und Wissensbewahrung; jeweils an einem Beispiel wird der Einsatz spezifischer Methoden der Begrifflichen Wissensverarbeitung demonstriert. Abschließend wird auf den prozesshaften Wirkungszusammenhang von Wissenszielen und Wissensbewertungen mit den Kernprozessen aus Sicht der Begrifflichen Wissensverarbeitung eingegangen.
    Type
    a
  10. Felgner, U.: Hilberts "Grundlagen der Geometrie" und ihre Stellung in der Geschichte der Grundlagendiskussion (2014) 0.09
    0.08655715 = product of:
      0.11540953 = sum of:
        0.004533437 = weight(_text_:a in 5901) [ClassicSimilarity], result of:
          0.004533437 = score(doc=5901,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.089176424 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5901)
        0.07506725 = weight(_text_:et in 5901) [ClassicSimilarity], result of:
          0.07506725 = score(doc=5901,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.36287874 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5901)
        0.03580884 = product of:
          0.07161768 = sum of:
            0.07161768 = weight(_text_:al in 5901) [ClassicSimilarity], result of:
              0.07161768 = score(doc=5901,freq=2.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.35444298 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5901)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    In seinen "Grundlagen der Geometrie" hat Hilbert die Bemühungen um eine Grundlegung der Geometrie zu einem überzeugenden Abschluss gebracht. Um diese Leistung würdigen zu können, müssen wir auf die lange Geschichte der Grundlagendiskussion - von der Antike bis zur Gegenwart - jedenfalls in großen Zügen eingehen. Wir werden insbesondere über das Problem, wie die geometrischen Grundbegriffe einzuführen sind (Euklid, Heron, Descartes, Pascal, Hobbes, Tschirnhaus et al.), und über die verschiedenen Entwürfe einer axiomatischen Grundlegung (Aristoteles, Euklid, Tschirnhaus etal.) berichten und danach das von Hilbert aufgestellte Axiomensystem besprechen. Ähnlich wie Dedekind 1888 den Bereich der natürlichen Zahlen (bis auf Isomorphie) als minimales Modell eines bestimmten Axiomensystems charakterisieren konnte, gelang es Hilbert, die euklidische Geometrie als maximales Modell seines Axiomensystems zu charakterisieren.
    Type
    a
  11. et: Bilddatenbank im Netz (2005) 0.09
    0.08614953 = product of:
      0.11486603 = sum of:
        0.0051810704 = weight(_text_:a in 4022) [ClassicSimilarity], result of:
          0.0051810704 = score(doc=4022,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.10191591 = fieldWeight in 4022, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0625 = fieldNorm(doc=4022)
        0.08579115 = weight(_text_:et in 4022) [ClassicSimilarity], result of:
          0.08579115 = score(doc=4022,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.41471857 = fieldWeight in 4022, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4022)
        0.023893818 = product of:
          0.047787637 = sum of:
            0.047787637 = weight(_text_:22 in 4022) [ClassicSimilarity], result of:
              0.047787637 = score(doc=4022,freq=2.0), product of:
                0.15439226 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044089027 = queryNorm
                0.30952093 = fieldWeight in 4022, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4022)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Author
    et
    Date
    28. 9.2005 11:22:58
    Type
    a
  12. Arntz, R.; Picht, H.; Mayer, F.: Einführung in die Terminologiearbeit (2004) 0.09
    0.085808225 = product of:
      0.11441097 = sum of:
        0.0054953555 = weight(_text_:a in 5015) [ClassicSimilarity], result of:
          0.0054953555 = score(doc=5015,freq=4.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.10809815 = fieldWeight in 5015, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046875 = fieldNorm(doc=5015)
        0.09099525 = weight(_text_:et in 5015) [ClassicSimilarity], result of:
          0.09099525 = score(doc=5015,freq=4.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.43987548 = fieldWeight in 5015, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5015)
        0.017920362 = product of:
          0.035840724 = sum of:
            0.035840724 = weight(_text_:22 in 5015) [ClassicSimilarity], result of:
              0.035840724 = score(doc=5015,freq=2.0), product of:
                0.15439226 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044089027 = queryNorm
                0.23214069 = fieldWeight in 5015, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5015)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Classification
    Spr A 689 Fachsprache
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
    Date
    22. 4.2007 12:13:14
    RVK
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
    SBB
    Spr A 689 Fachsprache
  13. Arntz, R.; Picht, H.: Einführung in die Terminologiearbeit (1989) 0.09
    0.085808225 = product of:
      0.11441097 = sum of:
        0.0054953555 = weight(_text_:a in 218) [ClassicSimilarity], result of:
          0.0054953555 = score(doc=218,freq=4.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.10809815 = fieldWeight in 218, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.09099525 = weight(_text_:et in 218) [ClassicSimilarity], result of:
          0.09099525 = score(doc=218,freq=4.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.43987548 = fieldWeight in 218, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.017920362 = product of:
          0.035840724 = sum of:
            0.035840724 = weight(_text_:22 in 218) [ClassicSimilarity], result of:
              0.035840724 = score(doc=218,freq=2.0), product of:
                0.15439226 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044089027 = queryNorm
                0.23214069 = fieldWeight in 218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=218)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Classification
    Spr A 689 Fachsprache
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
    Date
    22. 4.2007 12:15:17
    RVK
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
    SBB
    Spr A 689 Fachsprache
  14. Dahlberg, I.: Grundlagen universaler Wissensordnung : Probleme und Möglichkeiten eines universalen Klassifikationssystems des Wissens (1974) 0.08
    0.084260926 = product of:
      0.16852185 = sum of:
        0.006476338 = weight(_text_:a in 127) [ClassicSimilarity], result of:
          0.006476338 = score(doc=127,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.12739488 = fieldWeight in 127, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.078125 = fieldNorm(doc=127)
        0.16204551 = sum of:
          0.10231097 = weight(_text_:al in 127) [ClassicSimilarity], result of:
            0.10231097 = score(doc=127,freq=2.0), product of:
              0.20205697 = queryWeight, product of:
                4.582931 = idf(docFreq=1228, maxDocs=44218)
                0.044089027 = queryNorm
              0.5063471 = fieldWeight in 127, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.582931 = idf(docFreq=1228, maxDocs=44218)
                0.078125 = fieldNorm(doc=127)
          0.059734546 = weight(_text_:22 in 127) [ClassicSimilarity], result of:
            0.059734546 = score(doc=127,freq=2.0), product of:
              0.15439226 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044089027 = queryNorm
              0.38690117 = fieldWeight in 127, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=127)
      0.5 = coord(2/4)
    
    Footnote
    Zugleich Dissertation Univ. Düsseldorf. - Rez. in: ZfBB. 22(1975) S.53-57 (H.-A. Koch)
    Signature
    Al 12b Dah
  15. Svenonius, E.: Präkoordination - ja oder nein? (1994) 0.07
    0.07419184 = product of:
      0.098922454 = sum of:
        0.003885803 = weight(_text_:a in 1643) [ClassicSimilarity], result of:
          0.003885803 = score(doc=1643,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.07643694 = fieldWeight in 1643, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046875 = fieldNorm(doc=1643)
        0.064343356 = weight(_text_:et in 1643) [ClassicSimilarity], result of:
          0.064343356 = score(doc=1643,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.3110389 = fieldWeight in 1643, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1643)
        0.03069329 = product of:
          0.06138658 = sum of:
            0.06138658 = weight(_text_:al in 1643) [ClassicSimilarity], result of:
              0.06138658 = score(doc=1643,freq=2.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.30380827 = fieldWeight in 1643, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1643)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Footnote
    Original in: Subject indexing: principles and practices in the 90's. Proceedings ... Ed.: R.P. Holley et al. München: Saur 1995, S.231-255. - Übersetzt und mit einem Nachwort (S.294-296) versehen von M. Heiner-Freiling
    Type
    a
  16. Gust von Loh, S.: Wissensmanagement und Informationsbedarfsanalyse in kleinen und mittleren Unternehmen : Teil 1: Grundlagen des Wissensmanagements (2008) 0.07
    0.07419184 = product of:
      0.098922454 = sum of:
        0.003885803 = weight(_text_:a in 1599) [ClassicSimilarity], result of:
          0.003885803 = score(doc=1599,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.07643694 = fieldWeight in 1599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046875 = fieldNorm(doc=1599)
        0.064343356 = weight(_text_:et in 1599) [ClassicSimilarity], result of:
          0.064343356 = score(doc=1599,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.3110389 = fieldWeight in 1599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1599)
        0.03069329 = product of:
          0.06138658 = sum of:
            0.06138658 = weight(_text_:al in 1599) [ClassicSimilarity], result of:
              0.06138658 = score(doc=1599,freq=2.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.30380827 = fieldWeight in 1599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1599)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    Zentrale These des Artikels ist, dass Informationsbedarfsanalysen vor Einführung von Wissensmanagement insbesondere in kleinen und mittleren Unternehmen (KMU) zwingend durchzuführen sind, um zielgenau einzelne Bausteine implementieren zu können. Dazu werden Begrifflichkeiten und Theorien erläutert, die zu einer praktischen Anwendung notwendig sind und diese erleichtern können. Begrifflichkeiten, wie Daten, Information und Wissen müssen zwingend in ihren unterschiedlichen Meinungen erfasst werden. Auch der Unterschied zwischen Informations- und Wissensmanagement ist zu klären. Zentrale Bedeutung für Unternehmen hat das implizite Wissen. Dieses zeichnet sich dadurch aus, dass es nur schwer oder gar nicht in Sprache gefasst werden kann. Gerade das implizite Wissen macht die Umsetzung von Wissensmanagementansätzen in der Praxis so schwierig. Wie mit diesem eventuell umgegangen werden kann, zeigen Nonaka und Takeuchi mit ihrer Wissensspirale. Dieser asiatische Ansatz ist neben dem praktisch orientierten Ansatz von Probst et al., ebenfalls theoretische Grundlage des Wissensmanagements.
    Type
    a
  17. Untiet-Kepp, S.-J.: der Stand der Forschung : Adaptive Unterstützung für das computergestützte kollaborative Lernen (2010) 0.07
    0.07419184 = product of:
      0.098922454 = sum of:
        0.003885803 = weight(_text_:a in 4017) [ClassicSimilarity], result of:
          0.003885803 = score(doc=4017,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.07643694 = fieldWeight in 4017, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046875 = fieldNorm(doc=4017)
        0.064343356 = weight(_text_:et in 4017) [ClassicSimilarity], result of:
          0.064343356 = score(doc=4017,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.3110389 = fieldWeight in 4017, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4017)
        0.03069329 = product of:
          0.06138658 = sum of:
            0.06138658 = weight(_text_:al in 4017) [ClassicSimilarity], result of:
              0.06138658 = score(doc=4017,freq=2.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.30380827 = fieldWeight in 4017, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4017)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    Computergestütztes kollaboratives Lernen hat sich aus dem konstruktivistischen Lernparadigma heraus zu einem eigenen Forschungsgebiet entwickelt, da es sich besonders für das aktive, soziale, kontextbezogene und selbstorganisierte Lernen eignet (vgl. Jadin 2008). Neben der Bereitstellung von CSCL-Werkzeugen beschäftigt sich dieses Forschungsgebiet auch mit der Bereitstellung von Unterstützungsmaßnahmen, die entweder strukturierend oder regulierend auf den Lernprozess Einfluss nehmen (Dillenbourg et al. 1996). Die regulierende Unterstützung zeichnet sich durch ihre Adaptivität aus, die mit Hilfe von Techniken umgesetzt wird, die aus dem Bereich der Adaptive Educational Hypermedia Systeme stammen. Zunehmend halten auch Techniken der künstlichen Intelligenz, die bereits in intelligenten tutoriellen Systemen verwendet wurden, Einzug in kollaborative Systeme. Dieser Beitrag stellt die adaptiven und intelligenten Techniken vor, die zur Unterstützung der Lernenden in virtuellen Umgebungen entwickelt wurden und veranschaulicht sie anhand von Beispielsystemen und -ansätzen. Der Artikel schließt mit einer Betrachtung des weiteren Forschungsbedarfs im Hinblick auf aktuelle technologische und gesellschaftliche Entwicklungen.
    Type
    a
  18. Lietz, H.H.: Diagnose von Emerging Science (2013) 0.07
    0.07419184 = product of:
      0.098922454 = sum of:
        0.003885803 = weight(_text_:a in 927) [ClassicSimilarity], result of:
          0.003885803 = score(doc=927,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.07643694 = fieldWeight in 927, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046875 = fieldNorm(doc=927)
        0.064343356 = weight(_text_:et in 927) [ClassicSimilarity], result of:
          0.064343356 = score(doc=927,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.3110389 = fieldWeight in 927, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.046875 = fieldNorm(doc=927)
        0.03069329 = product of:
          0.06138658 = sum of:
            0.06138658 = weight(_text_:al in 927) [ClassicSimilarity], result of:
              0.06138658 = score(doc=927,freq=2.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.30380827 = fieldWeight in 927, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.046875 = fieldNorm(doc=927)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    Was ist Emerging Science, und wie lässt sich messen, ob es sich bei einem Fachgebiet um Emerging Science handelt oder nicht? Häufig wird Emerging Science als Forschungsfront mit Hilfe verschiedener Verfahren der Zitationsanalyse diagnostiziert. Bettencourt et al. verwenden Kollaborationsanalysen und legen das Augenmerk auf eine strukturelle Diagnose des Emergenzprozesses an sich. Dem Modell nach zeigt sich die Etablierung eines Paradigmas in einem Fachgebiet in Form einer topologischen Veränderung seiner Sozialstruktur. In der vorliegenden Arbeit wird das Modell auf die "New Science of Networks" und das Fachgebiet der Szientometrie angewendet. Erwartungsgemäß zeigen sich Unterschiede in ihren Evolutionsprozessen. Modell und Methoden der Netzwerkanalyse werden vor dem Hintergrund der Wissenschaftsforschung, der Komplexitätstheorie und der Relationalen Soziologie diskutiert. Besondere Berücksichtigung findet dabei die Selbstähnlichkeit des Wissenschaftssystems. Diskutiert werden auch die Auswirkungen unterschiedlicher Zählmethoden auf die Ergebnisse der Untersuchungen.
    Type
    a
  19. Beck, C.: ¬Die Qualität der Fremddatenanreicherung FRED (2021) 0.07
    0.07419184 = product of:
      0.098922454 = sum of:
        0.003885803 = weight(_text_:a in 377) [ClassicSimilarity], result of:
          0.003885803 = score(doc=377,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.07643694 = fieldWeight in 377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046875 = fieldNorm(doc=377)
        0.064343356 = weight(_text_:et in 377) [ClassicSimilarity], result of:
          0.064343356 = score(doc=377,freq=2.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.3110389 = fieldWeight in 377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.046875 = fieldNorm(doc=377)
        0.03069329 = product of:
          0.06138658 = sum of:
            0.06138658 = weight(_text_:al in 377) [ClassicSimilarity], result of:
              0.06138658 = score(doc=377,freq=2.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.30380827 = fieldWeight in 377, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.046875 = fieldNorm(doc=377)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    Das Projekt Fremddatenanreicherung (FRED) der Zentralbibliothek Zürich und der Universitätsbibliotheken Basel und Bern wurde schon verschiedentlich in Präsentationen vorgestellt und in der Literatur (Bucher et al. 2018) behandelt, wobei allerdings nur das Projekt vorgestellt und statistische Werte zur quantitativen Datenanreicherung sowie die Kooperation innerhalb des Projekts, also bei der Implementierung von FRED, dargestellt wurden. Der vorliegende Beitrag versucht weiterführend, die Qualität dieser Fremddatenanreicherung mittels einer subjektiven Beschreibung und Bewertung zu untersuchen. Zudem werden abschließend ein paar Fragen zum weiteren Einsatz von FRED in der völlig veränderten Bibliothekslandschaft der Schweiz mit der Swiss Library Service Platform (SLSP) ab 2021 aufgeworfen. Die Untersuchung erfolgt mittels einer Stichprobe aus Printbüchern für zwei sozialwissenschaftliche Fächer, stellt aber nur eine Art Beobachtung dar, deren Ergebnisse nicht repräsentativ für die Datenanreicherung durch FRED sind. Nicht behandelt wird im Folgenden die zeitweilig in Zürich, Basel und Bern erfolgte Datenanreicherung von E-Books. Auch ist die Qualität der geleisteten intellektuellen Verschlagwortung in den Verbünden, aus denen FRED schöpft, kein Thema. Es geht hier nur, aber immerhin, um die mit FRED erzielten Resultate im intellektuellen Verschlagwortungsumfeld des Frühjahres 2020.
    Type
    a
  20. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.07
    0.069143966 = product of:
      0.09219195 = sum of:
        0.0025905352 = weight(_text_:a in 6078) [ClassicSimilarity], result of:
          0.0025905352 = score(doc=6078,freq=2.0), product of:
            0.05083672 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.044089027 = queryNorm
            0.050957955 = fieldWeight in 6078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.060663503 = weight(_text_:et in 6078) [ClassicSimilarity], result of:
          0.060663503 = score(doc=6078,freq=4.0), product of:
            0.20686594 = queryWeight, product of:
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.044089027 = queryNorm
            0.29325032 = fieldWeight in 6078, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.692005 = idf(docFreq=1101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.028937912 = product of:
          0.057875823 = sum of:
            0.057875823 = weight(_text_:al in 6078) [ClassicSimilarity], result of:
              0.057875823 = score(doc=6078,freq=4.0), product of:
                0.20205697 = queryWeight, product of:
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.044089027 = queryNorm
                0.2864332 = fieldWeight in 6078, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.582931 = idf(docFreq=1228, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6078)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
    Type
    a

Authors

Languages

  • e 25
  • m 2

Types

  • a 10981
  • el 618
  • m 579
  • s 162
  • x 113
  • ? 63
  • i 57
  • r 32
  • b 13
  • h 8
  • d 6
  • n 4
  • p 4
  • l 3
  • u 3
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications