Search (213 results, page 1 of 11)

  • × theme_ss:"Semantische Interoperabilität"
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.28
    0.27786735 = product of:
      0.6715127 = sum of:
        0.02812472 = product of:
          0.08437416 = sum of:
            0.08437416 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.08437416 = score(doc=1000,freq=2.0), product of:
                0.18015257 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02124939 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.08437416 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08437416 = score(doc=1000,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0099877 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.0099877 = score(doc=1000,freq=6.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08437416 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08437416 = score(doc=1000,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08437416 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08437416 = score(doc=1000,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0127314795 = weight(_text_:des in 1000) [ClassicSimilarity], result of:
          0.0127314795 = score(doc=1000,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.21635216 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08437416 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08437416 = score(doc=1000,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0127314795 = weight(_text_:des in 1000) [ClassicSimilarity], result of:
          0.0127314795 = score(doc=1000,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.21635216 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.017318087 = weight(_text_:nach in 1000) [ClassicSimilarity], result of:
          0.017318087 = score(doc=1000,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.21218479 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08437416 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08437416 = score(doc=1000,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08437416 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08437416 = score(doc=1000,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08437416 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08437416 = score(doc=1000,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.41379312 = coord(12/29)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.24
    0.23896314 = product of:
      0.8662414 = sum of:
        0.039374612 = product of:
          0.11812383 = sum of:
            0.11812383 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.11812383 = score(doc=306,freq=2.0), product of:
                0.18015257 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02124939 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.11812383 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11812383 = score(doc=306,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11812383 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11812383 = score(doc=306,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11812383 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11812383 = score(doc=306,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11812383 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11812383 = score(doc=306,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11812383 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11812383 = score(doc=306,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11812383 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11812383 = score(doc=306,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11812383 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11812383 = score(doc=306,freq=2.0), product of:
            0.18015257 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02124939 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.27586207 = coord(8/29)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  3. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.04
    0.03741183 = product of:
      0.18082385 = sum of:
        0.016309844 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.016309844 = score(doc=193,freq=16.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.065926775 = product of:
          0.13185355 = sum of:
            0.13185355 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.13185355 = score(doc=193,freq=2.0), product of:
                0.22520688 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02124939 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.065926775 = product of:
          0.13185355 = sum of:
            0.13185355 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.13185355 = score(doc=193,freq=2.0), product of:
                0.22520688 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02124939 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.0127314795 = weight(_text_:des in 193) [ClassicSimilarity], result of:
          0.0127314795 = score(doc=193,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.21635216 = fieldWeight in 193, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.0127314795 = weight(_text_:des in 193) [ClassicSimilarity], result of:
          0.0127314795 = score(doc=193,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.21635216 = fieldWeight in 193, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.0071974974 = product of:
          0.014394995 = sum of:
            0.014394995 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.014394995 = score(doc=193,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
      0.20689656 = coord(6/29)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  4. Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011) 0.03
    0.033210333 = product of:
      0.13758567 = sum of:
        0.018234963 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.018234963 = score(doc=4321,freq=20.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.023820681 = weight(_text_:informationswissenschaft in 4321) [ClassicSimilarity], result of:
          0.023820681 = score(doc=4321,freq=2.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.24885213 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.026516767 = weight(_text_:geschichte in 4321) [ClassicSimilarity], result of:
          0.026516767 = score(doc=4321,freq=2.0), product of:
            0.100994095 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02124939 = queryNorm
            0.2625576 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.009002516 = weight(_text_:des in 4321) [ClassicSimilarity], result of:
          0.009002516 = score(doc=4321,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.15298408 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.026516767 = weight(_text_:geschichte in 4321) [ClassicSimilarity], result of:
          0.026516767 = score(doc=4321,freq=2.0), product of:
            0.100994095 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02124939 = queryNorm
            0.2625576 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.009002516 = weight(_text_:des in 4321) [ClassicSimilarity], result of:
          0.009002516 = score(doc=4321,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.15298408 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.024491474 = weight(_text_:nach in 4321) [ClassicSimilarity], result of:
          0.024491474 = score(doc=4321,freq=4.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.3000746 = fieldWeight in 4321, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
      0.2413793 = coord(7/29)
    
    Abstract
    Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
    Diese These, dass die Versionierung der DDC zu einer verbesserten Suche führt, soll in dieser Arbeit untersucht werden. Es soll geprüft werden, ob die vorgeschlagene Vorgehensweise zu einem besseren Retrievalergebnis führt. Die Arbeit wird zunächst einen Überblick über die theoretischen Hintergründe von inhaltlicher Erschließung und den technischen Methoden liefern, bevor das eigentliche Problem anhand einer Testdatenbank und entsprechender Suchanfragen behandelt wird.
    Content
    Masterarbeit im Studiengang Information Science & Engineering / Informationswissenschaft
  5. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.02
    0.024570167 = product of:
      0.1017907 = sum of:
        0.013839362 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.013839362 = score(doc=4379,freq=8.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.29385152 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.010803019 = weight(_text_:des in 4379) [ClassicSimilarity], result of:
          0.010803019 = score(doc=4379,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.010803019 = weight(_text_:des in 4379) [ClassicSimilarity], result of:
          0.010803019 = score(doc=4379,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.020781705 = weight(_text_:nach in 4379) [ClassicSimilarity], result of:
          0.020781705 = score(doc=4379,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.25462174 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.00741788 = product of:
          0.02225364 = sum of:
            0.02225364 = weight(_text_:l in 4379) [ClassicSimilarity], result of:
              0.02225364 = score(doc=4379,freq=2.0), product of:
                0.08445894 = queryWeight, product of:
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.02124939 = queryNorm
                0.26348472 = fieldWeight in 4379, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.33333334 = coord(1/3)
        0.025931153 = sum of:
          0.008500358 = weight(_text_:1 in 4379) [ClassicSimilarity], result of:
            0.008500358 = score(doc=4379,freq=2.0), product of:
              0.05219918 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.02124939 = queryNorm
              0.16284466 = fieldWeight in 4379, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
          0.017430795 = weight(_text_:29 in 4379) [ClassicSimilarity], result of:
            0.017430795 = score(doc=4379,freq=2.0), product of:
              0.07474871 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.02124939 = queryNorm
              0.23319192 = fieldWeight in 4379, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
        0.012214559 = product of:
          0.024429118 = sum of:
            0.024429118 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.024429118 = score(doc=4379,freq=4.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.2413793 = coord(7/29)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
    Source
    Bibliotheksdienst. 44(2010) H.1, S.25-34
  6. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.02
    0.016185628 = product of:
      0.093876645 = sum of:
        0.016949687 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.016949687 = score(doc=4292,freq=12.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.010803019 = weight(_text_:des in 4292) [ClassicSimilarity], result of:
          0.010803019 = score(doc=4292,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.010803019 = weight(_text_:des in 4292) [ClassicSimilarity], result of:
          0.010803019 = score(doc=4292,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.02938977 = weight(_text_:nach in 4292) [ClassicSimilarity], result of:
          0.02938977 = score(doc=4292,freq=4.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.36008954 = fieldWeight in 4292, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.025931153 = sum of:
          0.008500358 = weight(_text_:1 in 4292) [ClassicSimilarity], result of:
            0.008500358 = score(doc=4292,freq=2.0), product of:
              0.05219918 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.02124939 = queryNorm
              0.16284466 = fieldWeight in 4292, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.046875 = fieldNorm(doc=4292)
          0.017430795 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
            0.017430795 = score(doc=4292,freq=2.0), product of:
              0.07474871 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.02124939 = queryNorm
              0.23319192 = fieldWeight in 4292, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=4292)
      0.1724138 = coord(5/29)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Date
    9. 2.2011 17:47:29
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.3-10
  7. Klasing, M.: Crosskonkordanzen als Möglichkeit zur Heterogenitätsbehandlung : dargestellt am Projekt CrissCross (2008) 0.02
    0.016041946 = product of:
      0.09304328 = sum of:
        0.017299203 = weight(_text_:und in 2460) [ClassicSimilarity], result of:
          0.017299203 = score(doc=2460,freq=18.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.3673144 = fieldWeight in 2460, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.011662931 = product of:
          0.023325862 = sum of:
            0.023325862 = weight(_text_:bibliothekswesen in 2460) [ClassicSimilarity], result of:
              0.023325862 = score(doc=2460,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.24625391 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.5 = coord(1/2)
        0.023820681 = weight(_text_:informationswissenschaft in 2460) [ClassicSimilarity], result of:
          0.023820681 = score(doc=2460,freq=2.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.24885213 = fieldWeight in 2460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.020130236 = weight(_text_:des in 2460) [ClassicSimilarity], result of:
          0.020130236 = score(doc=2460,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.3420828 = fieldWeight in 2460, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.020130236 = weight(_text_:des in 2460) [ClassicSimilarity], result of:
          0.020130236 = score(doc=2460,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.3420828 = fieldWeight in 2460, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
      0.1724138 = coord(5/29)
    
    Abstract
    In Zeiten, in denen der schnelle und einfache Zugriff auf strukturierte und umfangreiche Datenbestände zunehmend an Bedeutung gewinnt, stellt die Heterogenität eben dieser Bestände ein großes Problem dar. Die meisten Bibliothekskataloge, Datenbanken usw. sind inhaltlich durch unterschiedliche Instrumente erschlossen, was für den Benutzer eine gewisse Einarbeitungszeit in jedes Erschließungsinstrument sowie die Notwendigkeit zur wiederholten und neu formulierten Suche in den unterschiedlich erschlossenen Datenbeständen bedeutet. Als Möglichkeit zur Behandlung der Heterogenitätsproblematik kommen beispielsweise Crosskonkordanzen in Betracht, durch welche semantisch übereinstimmende Schlagwörter, Deskriptoren bzw. Notationen verschiedener Erschließungsinstrumente intellektuell miteinander verbunden werden, so dass mit identischer Suchfrage mehrere unterschiedlich erschlossene Datenbestände durchsucht werden können. In der vorliegenden Arbeit soll die Problematik heterogener Datenbestände sowie die Behandlungsmöglichkeit durch Crosskonkordanzen beschrieben werden. Die konkretisierende Darstellung erfolgt anhand des Projektes CrissCross, einem gemeinschaftlichen Projekt der Deutschen Nationalbibliothek und der Fachhochschule Köln, in dem Crosskonkordanzen zwischen den Erschließungsinstrumenten SWD, DDC sowie LCSH und RAMEAU erstellt werden. Besonderheiten des Projektes CrissCross sind neben der Multilingualität und der Verbindung von verbalen und klassifikatorischen Erschließungsinstrumenten auch eine intellektuelle Gewichtung der Beziehungsstärke zweier verknüpfter Terme, die so genannte Determiniertheit. Neben den integrierten Erschließungsinstrumenten wird auch die konkrete Vorgehensweise ihrer Verbindung erläutert. Des Weiteren werden die Problemfelder des Projektes und im Besonderen denkbare Einsatzmöglichkeiten der Projektergebnisse vorgestellt, die wesentlich zur Lösung der Heterogenitätsproblematik und somit zu einer Verbesserung des Retrievals für den Benutzer beitragen können.
    Footnote
    Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : Fachhochschule, Institut für Informationswissenschaft
  8. Mayr, P.: Thesauri, Klassifikationen & Co - die Renaissance der kontrollierten Vokabulare? (2006) 0.02
    0.015573447 = product of:
      0.09032599 = sum of:
        0.018307757 = weight(_text_:und in 28) [ClassicSimilarity], result of:
          0.018307757 = score(doc=28,freq=14.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.38872904 = fieldWeight in 28, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.028584816 = weight(_text_:informationswissenschaft in 28) [ClassicSimilarity], result of:
          0.028584816 = score(doc=28,freq=2.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.29862255 = fieldWeight in 28, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.018711379 = weight(_text_:des in 28) [ClassicSimilarity], result of:
          0.018711379 = score(doc=28,freq=6.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.31797147 = fieldWeight in 28, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.018711379 = weight(_text_:des in 28) [ClassicSimilarity], result of:
          0.018711379 = score(doc=28,freq=6.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.31797147 = fieldWeight in 28, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.0060106604 = product of:
          0.012021321 = sum of:
            0.012021321 = weight(_text_:1 in 28) [ClassicSimilarity], result of:
              0.012021321 = score(doc=28,freq=4.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.23029712 = fieldWeight in 28, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=28)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Der Beitrag beschäftigt sich mit aktuellen Entwicklungen im Bereich des Terminologie Mapping zwischen kontrollierten Vokabularen. Die unterschiedlichen Typen und Ausprägungen von kontrollierten Vokabularen - Thesauri, Klassifikationen, Schlagwortnormdaten und kontrollierte Schlagwortlisten - dienen hauptsächlich der inhaltlichen Erschließung von Literatur und anderen Dokumenttypen und werden u. a. in Datenbanksystemen bei der Deskriptorensuche und zum Browsing angeboten. Die Zusammenführung der heterogenen Indexierungssprachen bei der übergreifenden Datenbankrecherche (crossdatabase retrieval) führt jedoch zu Problemen bei der semantischen Integration der zugrunde liegenden Bestände. Der Beitrag stellt in diesem Kontext den Ansatz sowie die bisherigen Ergebnisse des Projekts" Modellbildung und Heterogenitätsbehandlung" vor. Im Anschluss wird auf Bradford's Law of Scattering (BLS) sowie abgeleitete Einsatzmöglichkeiten des BLS im Projekt Bezug genommen: 1) BLS zur Untersuchung der Auswirkungen der Heterogenitätsbehandlung, 2) BLS bzw. Bradfordizing als alternativer, informationswissenschaftlich begründeter Zugangsmechanismus für Zeitschriftenartikel.
    Series
    Beiträge zur Bibliotheks- und Informationswissenschaft; 1
  9. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.02
    0.015480636 = product of:
      0.089787684 = sum of:
        0.030450258 = weight(_text_:buch in 4910) [ClassicSimilarity], result of:
          0.030450258 = score(doc=4910,freq=2.0), product of:
            0.09879628 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02124939 = queryNorm
            0.3082126 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.016949687 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.016949687 = score(doc=4910,freq=12.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.35989314 = fieldWeight in 4910, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.010803019 = weight(_text_:des in 4910) [ClassicSimilarity], result of:
          0.010803019 = score(doc=4910,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.010803019 = weight(_text_:des in 4910) [ClassicSimilarity], result of:
          0.010803019 = score(doc=4910,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.020781705 = weight(_text_:nach in 4910) [ClassicSimilarity], result of:
          0.020781705 = score(doc=4910,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.25462174 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
      0.1724138 = coord(5/29)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
    Content
    Die vorliegende Arbeit wurde von der Philosophischen Fakultät I, der Humboldt-Universität zu Berlin im Jahr 2009 als Dissertation zur Erlangung des akademischen Grades Doctor philosophiae (Dr. phil.) angenommen.
  10. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.01
    0.013802827 = product of:
      0.0800564 = sum of:
        0.016632844 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.016632844 = score(doc=4302,freq=26.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.019056544 = weight(_text_:informationswissenschaft in 4302) [ClassicSimilarity], result of:
          0.019056544 = score(doc=4302,freq=2.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.1990817 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.010185183 = weight(_text_:des in 4302) [ClassicSimilarity], result of:
          0.010185183 = score(doc=4302,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.17308173 = fieldWeight in 4302, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.010185183 = weight(_text_:des in 4302) [ClassicSimilarity], result of:
          0.010185183 = score(doc=4302,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.17308173 = fieldWeight in 4302, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.023996647 = weight(_text_:nach in 4302) [ClassicSimilarity], result of:
          0.023996647 = score(doc=4302,freq=6.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.2940119 = fieldWeight in 4302, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.1724138 = coord(5/29)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
    Footnote
    Dissertation zur Erlangung des akademischen Grades Doctor philosophiae (Dr. phil.) eingereicht an der Philosophischen Fakultät I
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
  11. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.01
    0.013789235 = product of:
      0.07997756 = sum of:
        0.015633224 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.015633224 = score(doc=318,freq=30.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.016328104 = product of:
          0.032656208 = sum of:
            0.032656208 = weight(_text_:bibliothekswesen in 318) [ClassicSimilarity], result of:
              0.032656208 = score(doc=318,freq=8.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.34475547 = fieldWeight in 318, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=318)
          0.5 = coord(1/2)
        0.015436098 = weight(_text_:des in 318) [ClassicSimilarity], result of:
          0.015436098 = score(doc=318,freq=12.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.26231304 = fieldWeight in 318, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.015436098 = weight(_text_:des in 318) [ClassicSimilarity], result of:
          0.015436098 = score(doc=318,freq=12.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.26231304 = fieldWeight in 318, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.017144032 = weight(_text_:nach in 318) [ClassicSimilarity], result of:
          0.017144032 = score(doc=318,freq=4.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.21005222 = fieldWeight in 318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.1724138 = coord(5/29)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  12. Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007) 0.01
    0.013398147 = product of:
      0.07770925 = sum of:
        0.020108126 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.020108126 = score(doc=2439,freq=38.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.01610419 = weight(_text_:des in 2439) [ClassicSimilarity], result of:
          0.01610419 = score(doc=2439,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.27366623 = fieldWeight in 2439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.01610419 = weight(_text_:des in 2439) [ClassicSimilarity], result of:
          0.01610419 = score(doc=2439,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.27366623 = fieldWeight in 2439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.019634744 = sum of:
          0.008014214 = weight(_text_:1 in 2439) [ClassicSimilarity], result of:
            0.008014214 = score(doc=2439,freq=4.0), product of:
              0.05219918 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.02124939 = queryNorm
              0.15353142 = fieldWeight in 2439, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.03125 = fieldNorm(doc=2439)
          0.01162053 = weight(_text_:29 in 2439) [ClassicSimilarity], result of:
            0.01162053 = score(doc=2439,freq=2.0), product of:
              0.07474871 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.02124939 = queryNorm
              0.15546128 = fieldWeight in 2439, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.03125 = fieldNorm(doc=2439)
        0.0057579977 = product of:
          0.0115159955 = sum of:
            0.0115159955 = weight(_text_:22 in 2439) [ClassicSimilarity], result of:
              0.0115159955 = score(doc=2439,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.15476047 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
    Content
    Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."
    Date
    22. 2.2009 19:10:56
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.29-31
  13. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.01
    0.012686078 = product of:
      0.09197407 = sum of:
        0.018051691 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018051691 = score(doc=5812,freq=10.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.016328104 = product of:
          0.032656208 = sum of:
            0.032656208 = weight(_text_:bibliothekswesen in 5812) [ClassicSimilarity], result of:
              0.032656208 = score(doc=5812,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.34475547 = fieldWeight in 5812, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5812)
          0.5 = coord(1/2)
        0.033348955 = weight(_text_:informationswissenschaft in 5812) [ClassicSimilarity], result of:
          0.033348955 = score(doc=5812,freq=2.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.348393 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.024245322 = weight(_text_:nach in 5812) [ClassicSimilarity], result of:
          0.024245322 = score(doc=5812,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.2970587 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
      0.13793103 = coord(4/29)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  14. Dolud, L.; Kreis, C: ¬Die Crosskonkordanz Wirtschaft zwischen dem STW und der GND (2012) 0.01
    0.011743686 = product of:
      0.06811338 = sum of:
        0.018307757 = weight(_text_:und in 1716) [ClassicSimilarity], result of:
          0.018307757 = score(doc=1716,freq=14.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.38872904 = fieldWeight in 1716, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1716)
        0.010803019 = weight(_text_:des in 1716) [ClassicSimilarity], result of:
          0.010803019 = score(doc=1716,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 1716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1716)
        0.010803019 = weight(_text_:des in 1716) [ClassicSimilarity], result of:
          0.010803019 = score(doc=1716,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 1716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1716)
        0.020781705 = weight(_text_:nach in 1716) [ClassicSimilarity], result of:
          0.020781705 = score(doc=1716,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.25462174 = fieldWeight in 1716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.046875 = fieldNorm(doc=1716)
        0.00741788 = product of:
          0.02225364 = sum of:
            0.02225364 = weight(_text_:l in 1716) [ClassicSimilarity], result of:
              0.02225364 = score(doc=1716,freq=2.0), product of:
                0.08445894 = queryWeight, product of:
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.02124939 = queryNorm
                0.26348472 = fieldWeight in 1716, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1716)
          0.33333334 = coord(1/3)
      0.1724138 = coord(5/29)
    
    Abstract
    Bibliotheken erarbeiten mit öffentlichen Mitteln unter hohem zeitlichem, personellem und finanziellem Aufwand wertvolle und nützliche Datenbestände. Was liegt im Sinne eines effizienten Ressourceneinsatzes näher, als solche Daten einer kooperativen Nutzung zuzuführen? Diese Frage mündete in den Jahren 2002 bis 2004 in einem DFG-finanzierten Projekt, an dem seinerzeit die Deutsche Bibliothek, das Hamburger Weltwirtschaftsarchiv, die Deutsche Zentralbibliothek für Wirtschaftswissenschaften Kiel (heute ZBW - Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft), der Gemeinsame Bibliotheksverbund und die Universitäts- und Stadtbibliothek Köln beteiligt waren. Ziel war es, den normierten Wortschatz des STW (Standard-Thesaurus Wirtschaft) mit dem wirtschaftswissenschaftlichen Teil der damaligen Schlagwortnormdatei (SWD) zu relationieren. Die Crosskonkordanz STW-GND bzw. Crosskonkordanz Wirtschaft wird mittlerweile durch die DNB und die ZBW in gemeinsamer Verantwortung weiterentwickelt und laufend gepflegt. Dabei han-delt es sich vor allem um die Anpassung der Crosskonkordanz nach redaktionellen Änderungen durch kontinuierliche Einarbeitung neuer bzw. geänderter oder gelöschter Deskriptoren.
  15. Dini, L.: CACAO : multilingual access to bibliographic records (2007) 0.01
    0.010389217 = product of:
      0.07532182 = sum of:
        0.021606037 = weight(_text_:des in 126) [ClassicSimilarity], result of:
          0.021606037 = score(doc=126,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.36716178 = fieldWeight in 126, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=126)
        0.021606037 = weight(_text_:des in 126) [ClassicSimilarity], result of:
          0.021606037 = score(doc=126,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.36716178 = fieldWeight in 126, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=126)
        0.01483576 = product of:
          0.04450728 = sum of:
            0.04450728 = weight(_text_:l in 126) [ClassicSimilarity], result of:
              0.04450728 = score(doc=126,freq=2.0), product of:
                0.08445894 = queryWeight, product of:
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.02124939 = queryNorm
                0.52696943 = fieldWeight in 126, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.09375 = fieldNorm(doc=126)
          0.33333334 = coord(1/3)
        0.017273992 = product of:
          0.034547985 = sum of:
            0.034547985 = weight(_text_:22 in 126) [ClassicSimilarity], result of:
              0.034547985 = score(doc=126,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.46428138 = fieldWeight in 126, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=126)
          0.5 = coord(1/2)
      0.13793103 = coord(4/29)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  16. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.01034771 = product of:
      0.060016718 = sum of:
        0.019774636 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.019774636 = score(doc=4184,freq=12.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.012603521 = weight(_text_:des in 4184) [ClassicSimilarity], result of:
          0.012603521 = score(doc=4184,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.2141777 = fieldWeight in 4184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.012603521 = weight(_text_:des in 4184) [ClassicSimilarity], result of:
          0.012603521 = score(doc=4184,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.2141777 = fieldWeight in 4184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.0049585416 = product of:
          0.009917083 = sum of:
            0.009917083 = weight(_text_:1 in 4184) [ClassicSimilarity], result of:
              0.009917083 = score(doc=4184,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.18998542 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
        0.010076496 = product of:
          0.020152992 = sum of:
            0.020152992 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.020152992 = score(doc=4184,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
    Source
    Kommunikation, Partizipation und Wirkungen im Social Web, Band 1. Hrsg.: A. Zerfaß u.a
  17. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.01
    0.010261751 = product of:
      0.05951815 = sum of:
        0.016949687 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.016949687 = score(doc=4408,freq=12.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.010803019 = weight(_text_:des in 4408) [ClassicSimilarity], result of:
          0.010803019 = score(doc=4408,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 4408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.010803019 = weight(_text_:des in 4408) [ClassicSimilarity], result of:
          0.010803019 = score(doc=4408,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 4408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.012325434 = product of:
          0.024650868 = sum of:
            0.024650868 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.024650868 = score(doc=4408,freq=4.0), product of:
                0.07474871 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02124939 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
        0.008636996 = product of:
          0.017273992 = sum of:
            0.017273992 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.017273992 = score(doc=4408,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Imprint
    Innsbruck : Universitäts- und Landesbibliothek Tirol
    Pages
    22 S
  18. Nentwig, L.: Semantische Interoperabilität : Bd.2: Semantische Konflikte (2010) 0.01
    0.0100434385 = product of:
      0.058251943 = sum of:
        0.023065604 = weight(_text_:und in 4848) [ClassicSimilarity], result of:
          0.023065604 = score(doc=4848,freq=32.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.48975256 = fieldWeight in 4848, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.0127314795 = weight(_text_:des in 4848) [ClassicSimilarity], result of:
          0.0127314795 = score(doc=4848,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.21635216 = fieldWeight in 4848, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.0127314795 = weight(_text_:des in 4848) [ClassicSimilarity], result of:
          0.0127314795 = score(doc=4848,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.21635216 = fieldWeight in 4848, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.006181567 = product of:
          0.0185447 = sum of:
            0.0185447 = weight(_text_:l in 4848) [ClassicSimilarity], result of:
              0.0185447 = score(doc=4848,freq=2.0), product of:
                0.08445894 = queryWeight, product of:
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.02124939 = queryNorm
                0.2195706 = fieldWeight in 4848, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4848)
          0.33333334 = coord(1/3)
        0.0035418156 = product of:
          0.007083631 = sum of:
            0.007083631 = weight(_text_:1 in 4848) [ClassicSimilarity], result of:
              0.007083631 = score(doc=4848,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.13570388 = fieldWeight in 4848, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4848)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Prozessketten in der freien Wirtschaft oder Verwaltung sind zunehmend geprägt von einem intensiven Austausch von Dokumenten und Daten auch über die Grenzen der beteiligten Organisationen hinweg. Wie in Band 1 der White Paper-Reihe dargelegt, ist die Sicherstellung der semantischen Interoperabilität eine der zentralen Anforderungen für einen semantisch konsistenten und damit erfolgreichen Ablauf der Geschäftsprozesse. Grundlage für semantische Interoperabilität sind die technische und die syntaktische Interoperabilität: Die technische Interoperabilität umfasst die Möglichkeit der technischen Interaktion mit sowie des Transports von Inhalten und erfordert dafür die leitungstechnische Verbindbarkeit und Passbarkeit auf Protokollebene. Die syntaktische Interoperabilität wird durch einen homogenen Einsatz von Sprachen (wie z. B. XML) sichergestellt und gewährleistet den Austausch von Daten auf Basis von vordefinierten und exakt vereinbahrten syntaktischen Strukturen. Semantische Interoperabilität stellt die komplexeste unter den Stufen der Interoperabilität dar. Der wesentliche Grund dafür, dass die Anforderung der semantischen Interoperabilität nicht erfüllt wird, ist das Vorhandensein bzw. die fehlende Auflösung sogenannter semantischer Konflikte. Ein semantischer Konflikt wird hervorgerufen, wenn die am Datenaustausch beteiligten Sender und Empfänger unterschiedliche Datenstrukturen und Dateninhalte verwenden. Eine detaillierte Beschreibung der Konfliktarten und ihrer Behandlung zeigen die nächsten Abschnitte.
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
    Imprint
    Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
  19. Krause, J.: Sacherschließung in virtuellen Bibliotheken : Standardisierung versus Heterogenität (2000) 0.01
    0.009774997 = product of:
      0.07086873 = sum of:
        0.011532802 = weight(_text_:und in 6070) [ClassicSimilarity], result of:
          0.011532802 = score(doc=6070,freq=2.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.24487628 = fieldWeight in 6070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=6070)
        0.023325862 = product of:
          0.046651725 = sum of:
            0.046651725 = weight(_text_:bibliothekswesen in 6070) [ClassicSimilarity], result of:
              0.046651725 = score(doc=6070,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.49250782 = fieldWeight in 6070, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6070)
          0.5 = coord(1/2)
        0.018005032 = weight(_text_:des in 6070) [ClassicSimilarity], result of:
          0.018005032 = score(doc=6070,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.30596817 = fieldWeight in 6070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=6070)
        0.018005032 = weight(_text_:des in 6070) [ClassicSimilarity], result of:
          0.018005032 = score(doc=6070,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.30596817 = fieldWeight in 6070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=6070)
      0.13793103 = coord(4/29)
    
    Abstract
    Enthält auch eine kurze Darstellung des Schalenmodells (vgl. Abb.)
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.77
  20. Nentwig, L.: Semantische Interoperabilität : Bd.1: Eine technische Einführung (2010) 0.01
    0.009510645 = product of:
      0.05516174 = sum of:
        0.0199754 = weight(_text_:und in 4847) [ClassicSimilarity], result of:
          0.0199754 = score(doc=4847,freq=24.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.42413816 = fieldWeight in 4847, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
        0.0127314795 = weight(_text_:des in 4847) [ClassicSimilarity], result of:
          0.0127314795 = score(doc=4847,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.21635216 = fieldWeight in 4847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
        0.0127314795 = weight(_text_:des in 4847) [ClassicSimilarity], result of:
          0.0127314795 = score(doc=4847,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.21635216 = fieldWeight in 4847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
        0.006181567 = product of:
          0.0185447 = sum of:
            0.0185447 = weight(_text_:l in 4847) [ClassicSimilarity], result of:
              0.0185447 = score(doc=4847,freq=2.0), product of:
                0.08445894 = queryWeight, product of:
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.02124939 = queryNorm
                0.2195706 = fieldWeight in 4847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4847)
          0.33333334 = coord(1/3)
        0.0035418156 = product of:
          0.007083631 = sum of:
            0.007083631 = weight(_text_:1 in 4847) [ClassicSimilarity], result of:
              0.007083631 = score(doc=4847,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.13570388 = fieldWeight in 4847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4847)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Jede Organisation, sei es in der freien Wirtschaft oder der öffentlichen Verwaltung, nutzt heute Informationssysteme zur effizienten Abwicklung der Geschäftsprozesse. Um Kooperationen zwischen den Organisationen zu ermöglichen, steigt dabei in zunehmendem Maße die Bedeutung organisationsübergreifender und medienbruchfreier Geschäftsprozesse. Grundlage für einen solchen Datenaustausch ist ein Vorgehen, das Fehlinterpretationen und inhaltliche Missverständnisse bei der Verwendung von Begriffen, Datenstrukturen, Schreibkonventionen etc. zu vermeiden hilft und semantische Interoperabilität ermöglicht. Erst die Semantische Interoperabilität gewährleistet einen effizienten organisationsinternen Datenaustausch und eine effiziente Datenintegration mit externen Kooperationsteilnehmern. Die Arbeit an praktikablen Konzepten und Lösungen steht im Zentrum des Arbeitsgebietes »Semantic Interoperability Engineering« (SIE). In diesem Whitepaper werden dafür zentrale Begriffe und Konzepte eingeführt. Sie dienen als Basis für eine weitere Beschäftigung mit dem Thema.
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
    Imprint
    Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST

Years

Languages

  • e 127
  • d 82
  • pt 1
  • More… Less…

Types

  • a 142
  • el 63
  • m 12
  • x 10
  • r 7
  • s 4
  • n 2
  • p 1
  • More… Less…