Search (26 results, page 1 of 2)

  • × type_ss:"r"
  • × language_ss:"d"
  1. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.02
    0.02273049 = product of:
      0.113652445 = sum of:
        0.113652445 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
          0.113652445 = score(doc=7383,freq=2.0), product of:
            0.18359412 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.052428056 = queryNorm
            0.61904186 = fieldWeight in 7383, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.125 = fieldNorm(doc=7383)
      0.2 = coord(1/5)
    
    Date
    22. 2.1997 19:46:30
  2. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.014206556 = product of:
      0.07103278 = sum of:
        0.07103278 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
          0.07103278 = score(doc=5576,freq=2.0), product of:
            0.18359412 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.052428056 = queryNorm
            0.38690117 = fieldWeight in 5576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
      0.2 = coord(1/5)
    
    Date
    13.12.2017 14:17:22
  3. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.01
    0.011365245 = product of:
      0.056826223 = sum of:
        0.056826223 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
          0.056826223 = score(doc=1484,freq=2.0), product of:
            0.18359412 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.052428056 = queryNorm
            0.30952093 = fieldWeight in 1484, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
      0.2 = coord(1/5)
    
    Date
    13. 9.2014 14:45:22
  4. Gorbacevskaja, N.; Novikiva, E.: Entwicklung der Katalogisierung in der UDSSR (1960) 0.01
    0.011185444 = product of:
      0.05592722 = sum of:
        0.05592722 = weight(_text_:1 in 3493) [ClassicSimilarity], result of:
          0.05592722 = score(doc=3493,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.4342524 = fieldWeight in 3493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.125 = fieldNorm(doc=3493)
      0.2 = coord(1/5)
    
    Series
    Sowjetische Beiträge zum Bibliothekswesen der UDSSR in deutscher Übersetzung. 1
  5. Erschließung in der Deutschen Nationalbibliothek ab 1. Oktober 2015 (2015) 0.01
    0.007909304 = product of:
      0.03954652 = sum of:
        0.03954652 = weight(_text_:1 in 2440) [ClassicSimilarity], result of:
          0.03954652 = score(doc=2440,freq=4.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.30706283 = fieldWeight in 2440, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.0625 = fieldNorm(doc=2440)
      0.2 = coord(1/5)
    
    Abstract
    Am 1. Oktober 2015 wird die Deutsche Nationalbibliothek (DNB) mit der Erschließung nach dem Regelwerk Resource Description and Access (RDA) beginnen. Die Verbünde und Bibliotheken in Deutschland, Österreich und der deutschsprachigen Schweiz folgen innerhalb der darauffolgenden drei Monate. Im Vorfeld des Umstiegs auf RDA waren nicht nur umfangreiche Schulungsunterlagen zu erstellen und Schulungen zu planen, sondern die DNB musste auch ihre Erschließungspraxis überprüfen und hat in Folge dieser Überprüfung sowohl die Formal- als auch die Inhaltserschließung neu ausgerichtet.
  6. Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur (2011) 0.01
    0.007103278 = product of:
      0.03551639 = sum of:
        0.03551639 = weight(_text_:22 in 4291) [ClassicSimilarity], result of:
          0.03551639 = score(doc=4291,freq=2.0), product of:
            0.18359412 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.052428056 = queryNorm
            0.19345059 = fieldWeight in 4291, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
      0.2 = coord(1/5)
    
    Date
    7. 2.2011 19:52:22
  7. Förderung von Informationsinfrastrukturen für die Wissenschaft : Ein Positionspapier der Deutschen Forschungsgemeinschaft (2018) 0.01
    0.007103278 = product of:
      0.03551639 = sum of:
        0.03551639 = weight(_text_:22 in 4178) [ClassicSimilarity], result of:
          0.03551639 = score(doc=4178,freq=2.0), product of:
            0.18359412 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.052428056 = queryNorm
            0.19345059 = fieldWeight in 4178, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4178)
      0.2 = coord(1/5)
    
    Date
    22. 3.2018 17:30:43
  8. Wehling, E.: Framing-Manual : Unser gemeinsamer freier Rundfunk ARD (2019) 0.01
    0.007103278 = product of:
      0.03551639 = sum of:
        0.03551639 = weight(_text_:22 in 4997) [ClassicSimilarity], result of:
          0.03551639 = score(doc=4997,freq=2.0), product of:
            0.18359412 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.052428056 = queryNorm
            0.19345059 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.2 = coord(1/5)
    
    Date
    22. 2.2019 9:26:20
  9. Wätjen, H.-J.; Diekmann, B.; Möller, G.; Carstensen, K.-U.: Bericht zum DFG-Projekt: GERHARD : German Harvest Automated Retrieval and Directory (1998) 0.01
    0.006990903 = product of:
      0.034954514 = sum of:
        0.034954514 = weight(_text_:1 in 3065) [ClassicSimilarity], result of:
          0.034954514 = score(doc=3065,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.27140775 = fieldWeight in 3065, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.078125 = fieldNorm(doc=3065)
      0.2 = coord(1/5)
    
    Date
    1. 4.2002 11:00:42
  10. Schweins, K.: Methoden zur Erschließung von Filmsequenzen (1997) 0.01
    0.006990903 = product of:
      0.034954514 = sum of:
        0.034954514 = weight(_text_:1 in 1628) [ClassicSimilarity], result of:
          0.034954514 = score(doc=1628,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.27140775 = fieldWeight in 1628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: nfd 50(1999) H.1, S.56 (W. Putz)
  11. Mengel, A.: Thesaurusrelationen, Konsistenz, Inferenz und Interdependenz (1991) 0.01
    0.006920641 = product of:
      0.034603205 = sum of:
        0.034603205 = weight(_text_:1 in 4710) [ClassicSimilarity], result of:
          0.034603205 = score(doc=4710,freq=4.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.26867998 = fieldWeight in 4710, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4710)
      0.2 = coord(1/5)
    
    Abstract
    Die hier aufgeführten Regeln beziehen sich ausschließlich auf hier aufgeführte Relationsarten und die Beziehungen unter ihnen. Die Ergebnisse sind in Zusammenarbeit mit der Thesaurusredaktion des Projekts ATLAS entstanden (ATLAS 1990). Gedanken von Rostek & Fischer (1988), Schäuble (1989), Vanek (1980), Sick (1989) und Konrad (1990) sowie die Empfehlungen der DIN 1463 (1987) wurden mit berücksichtigt. Diese Regeln werden außerdem für die Entwicklung des Textinterpretationssystem ATLAS/ti (Muhr 1990) und ATLAS/PfleSaurus (Willenborg 1991) weiterverwendet. Punkt 1. enthält Definitionen: Thesaurus, Thesaurusrelationen und deren formal logische Eigenschaften. Punkt 2. enthält Konsistenzregeln. Punkt 3. enthält Inferenzregeln. Punkt 4. enthält zwei Beispielthesauri. Ein System zur Erstellung und Pflege von Thesauri solllte die unter Punkt 1.-3. beschriebenen Definitionen und Regeln berücksichtigen.
  12. Stock, W.G.: Publikation und Zitat : Die problematische Basis empirischer Wissenschaftsforschung (2001) 0.01
    0.0060543 = product of:
      0.030271498 = sum of:
        0.030271498 = weight(_text_:1 in 5787) [ClassicSimilarity], result of:
          0.030271498 = score(doc=5787,freq=6.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.23504603 = fieldWeight in 5787, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
      0.2 = coord(1/5)
    
    Abstract
    Die empirische Wissenschaftsforschung arbeitet bei den Indikatoren wissenschaftlicher Leistung und wissenschaftlicher Wirkung mit Publikations- und Zitationsraten. Die vorliegende Arbeit befaßt sich mit dabei auftretenden methodischen Problemen. Was ist überhaupt eine Publikation? Was heißt Zitation? Zentral ist auch die Zählbasis, d.h. die Einheitenbildung: Was ist 1 Publikation? und: Was ist 1 Zitation? Bei Printpublikationen gibt es eine Reihe von beachtenswerten Faktoren (u.a. Mehrautorenwerke, Gewichtungsfaktoren wie den Impact Factor, Dokumenttypen). Bei elektronischen Publikationen im Internet mit ihrem dynamischen Charakter ist die Einheitenbildung noch weitaus problematischer. Zitationen, verstanden als zitierte Publikationen, werfen alle methodischen Probleme der Publikationseinheiten auf, hinzu kommen weitere, spezifische Probleme. Lösungsmöglichkeiten im syntaktischen Bereich (Relativierung auf Textseiten oder Zeichen) ändern am grundlegenden Problem nur wenig, Lösungsversuche im semantischen Bereich (etwa im Rahmen der semantischen Informationstheorie) sind im Rahmen der Publikations- und Zitationsanalysen nicht durchführbar und verweisen sowohl auf themenanalytische Methoden als auch auf die Wissenschaftstheorie. Mit diesem Working Paper wollen wir vor allem auf offene Probleme hinweisen; "endgültige" Lösungen wird der Leser nicht finden, wohl aber Lösungsvorschläge, die meist durchaus noch diskussionswürdig sind. In der Informationswissenschaft wie in der Wissenschaftsforschung sind wir bisher viel zu sicher davon ausgegangen, daß wir wissen, was Publikationen und Zitationen sind
    Date
    1. 5.2001 16:53:31
  13. Empfehlungen für Planung und Einrichtung von Terminologiedatenbanken (1994) 0.01
    0.005592722 = product of:
      0.02796361 = sum of:
        0.02796361 = weight(_text_:1 in 8810) [ClassicSimilarity], result of:
          0.02796361 = score(doc=8810,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.2171262 = fieldWeight in 8810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.0625 = fieldNorm(doc=8810)
      0.2 = coord(1/5)
    
    Content
    Enthält folgende Kapitel: (1) Einleitung (einschl. historischem Überblick, Typen von Datenbanken, benutzer und ihre Anfragen, Definitionen); (2) Datenmodelle für terminologische Datenbanken (die Eintragung, Datenfelder, Relationen, der terminologische Datensatz); (3) Phasen der Planung und Einrichtung terminologischer Datenbanken; (4) Erarbeitung und Zusammentragen terminologischer Daten; (5) Organisation und Verwaltung terminologischer Datenbanken; (6) Zusammenfassung
  14. Arnold, F.-J. (Red.): Telekommunikationspolitik : Rahmenbedingungen für die Telekommunikation (1995) 0.01
    0.005592722 = product of:
      0.02796361 = sum of:
        0.02796361 = weight(_text_:1 in 4208) [ClassicSimilarity], result of:
          0.02796361 = score(doc=4208,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.2171262 = fieldWeight in 4208, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.0625 = fieldNorm(doc=4208)
      0.2 = coord(1/5)
    
    Series
    Schriften der Veröffentlichungen im Rahmen der Landesinitiative TELETECH NRW; Bd.1
  15. Puzicha, J.: Informationen finden! : Intelligente Suchmaschinentechnologie & automatische Kategorisierung (2007) 0.00
    0.004194542 = product of:
      0.020972708 = sum of:
        0.020972708 = weight(_text_:1 in 2817) [ClassicSimilarity], result of:
          0.020972708 = score(doc=2817,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.16284466 = fieldWeight in 2817, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
      0.2 = coord(1/5)
    
    Abstract
    Wie in diesem Text erläutert wurde, ist die Effektivität von Such- und Klassifizierungssystemen durch folgendes bestimmt: 1) den Arbeitsauftrag, 2) die Genauigkeit des Systems, 3) den zu erreichenden Automatisierungsgrad, 4) die Einfachheit der Integration in bereits vorhandene Systeme. Diese Kriterien gehen davon aus, dass jedes System, unabhängig von der Technologie, in der Lage ist, Grundvoraussetzungen des Produkts in Bezug auf Funktionalität, Skalierbarkeit und Input-Methode zu erfüllen. Diese Produkteigenschaften sind in der Recommind Produktliteratur genauer erläutert. Von diesen Fähigkeiten ausgehend sollte die vorhergehende Diskussion jedoch einige klare Trends aufgezeigt haben. Es ist nicht überraschend, dass jüngere Entwicklungen im Maschine Learning und anderen Bereichen der Informatik einen theoretischen Ausgangspunkt für die Entwicklung von Suchmaschinen- und Klassifizierungstechnologie haben. Besonders jüngste Fortschritte bei den statistischen Methoden (PLSA) und anderen mathematischen Werkzeugen (SVMs) haben eine Ergebnisqualität auf Durchbruchsniveau erreicht. Dazu kommt noch die Flexibilität in der Anwendung durch Selbsttraining und Kategorienerkennen von PLSA-Systemen, wie auch eine neue Generation von vorher unerreichten Produktivitätsverbesserungen.
  16. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.00
    0.004194542 = product of:
      0.020972708 = sum of:
        0.020972708 = weight(_text_:1 in 4322) [ClassicSimilarity], result of:
          0.020972708 = score(doc=4322,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.16284466 = fieldWeight in 4322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.2 = coord(1/5)
    
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  17. Reiner, U.: VZG-Projekt Colibri : Bewertung von automatisch DDC-klassifizierten Titeldatensätzen der Deutschen Nationalbibliothek (DNB) (2009) 0.00
    0.0034954515 = product of:
      0.017477257 = sum of:
        0.017477257 = weight(_text_:1 in 2675) [ClassicSimilarity], result of:
          0.017477257 = score(doc=2675,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.13570388 = fieldWeight in 2675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
      0.2 = coord(1/5)
    
    Series
    VZG-Colibri-Bericht 1/2008
  18. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.00
    0.0034954515 = product of:
      0.017477257 = sum of:
        0.017477257 = weight(_text_:1 in 4497) [ClassicSimilarity], result of:
          0.017477257 = score(doc=4497,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.13570388 = fieldWeight in 4497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
      0.2 = coord(1/5)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  19. Nentwig, L.: Semantische Interoperabilität : Bd.1: Eine technische Einführung (2010) 0.00
    0.0034954515 = product of:
      0.017477257 = sum of:
        0.017477257 = weight(_text_:1 in 4847) [ClassicSimilarity], result of:
          0.017477257 = score(doc=4847,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.13570388 = fieldWeight in 4847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
      0.2 = coord(1/5)
    
  20. Nentwig, L.: Semantische Interoperabilität : Bd.2: Semantische Konflikte (2010) 0.00
    0.0034954515 = product of:
      0.017477257 = sum of:
        0.017477257 = weight(_text_:1 in 4848) [ClassicSimilarity], result of:
          0.017477257 = score(doc=4848,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.13570388 = fieldWeight in 4848, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
      0.2 = coord(1/5)
    
    Abstract
    Prozessketten in der freien Wirtschaft oder Verwaltung sind zunehmend geprägt von einem intensiven Austausch von Dokumenten und Daten auch über die Grenzen der beteiligten Organisationen hinweg. Wie in Band 1 der White Paper-Reihe dargelegt, ist die Sicherstellung der semantischen Interoperabilität eine der zentralen Anforderungen für einen semantisch konsistenten und damit erfolgreichen Ablauf der Geschäftsprozesse. Grundlage für semantische Interoperabilität sind die technische und die syntaktische Interoperabilität: Die technische Interoperabilität umfasst die Möglichkeit der technischen Interaktion mit sowie des Transports von Inhalten und erfordert dafür die leitungstechnische Verbindbarkeit und Passbarkeit auf Protokollebene. Die syntaktische Interoperabilität wird durch einen homogenen Einsatz von Sprachen (wie z. B. XML) sichergestellt und gewährleistet den Austausch von Daten auf Basis von vordefinierten und exakt vereinbahrten syntaktischen Strukturen. Semantische Interoperabilität stellt die komplexeste unter den Stufen der Interoperabilität dar. Der wesentliche Grund dafür, dass die Anforderung der semantischen Interoperabilität nicht erfüllt wird, ist das Vorhandensein bzw. die fehlende Auflösung sogenannter semantischer Konflikte. Ein semantischer Konflikt wird hervorgerufen, wenn die am Datenaustausch beteiligten Sender und Empfänger unterschiedliche Datenstrukturen und Dateninhalte verwenden. Eine detaillierte Beschreibung der Konfliktarten und ihrer Behandlung zeigen die nächsten Abschnitte.