Search (22 results, page 1 of 2)

  • × type_ss:"r"
  • × language_ss:"d"
  1. Dahlberg, I.: ¬Die Pilotstudie DB-Thesaurus (1980) 0.02
    0.024567066 = product of:
      0.12283533 = sum of:
        0.12283533 = weight(_text_:191 in 3155) [ClassicSimilarity], result of:
          0.12283533 = score(doc=3155,freq=2.0), product of:
            0.28391814 = queryWeight, product of:
              6.5264034 = idf(docFreq=175, maxDocs=44218)
              0.043503 = queryNorm
            0.43264347 = fieldWeight in 3155, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5264034 = idf(docFreq=175, maxDocs=44218)
              0.046875 = fieldNorm(doc=3155)
      0.2 = coord(1/5)
    
    Footnote
    Vgl. auch: Dahlberg, I. in: Numerische und nicht-numerische Klassifikation ... S.184-191.
  2. Sacherschließung : Zentrale Dienstleistungen und Nutzung von Fremdleistungen. Kolloquium des Dbi am 13.-14.2.1984 in Königstein (o.J.) 0.01
    0.012540047 = product of:
      0.062700234 = sum of:
        0.062700234 = weight(_text_:b in 2399) [ClassicSimilarity], result of:
          0.062700234 = score(doc=2399,freq=6.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.40680233 = fieldWeight in 2399, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=2399)
      0.2 = coord(1/5)
    
    Footnote
    Auf diesem Kolloquium wurde die Entscheidung getroffen, RSWK in der Deutschen Bibliothek für Produktion zentraler Dienstleistungen im Bereich der Sacherschließung (u.a. für die Deutsche Bibliographie) zu nutzen; vgl. den Bericht von C. Müller im Bibliotheksdienst 18(1984) u. H.D. Gebauer: DBI-Kolloquium zur Sacherschließung in: Mitteilungsblatt. Verband der Bibliotheken des Landes NW N.F. 34(1984) S.158-159. - Dieser Band wird von G. Heinrich in ihrem Beitrag in 'Neue Regelwerke zum Schlagwortkatalog' unter Nr.45 als 'im Druck' zitiert mit folgenden Beiträgen: Frankenberger, R.: Kooperative verbale Sacherschließung nach RSWK im Bayerischen Verbund; Galsterer, B. Stellenwert zentraler Sacherschließung für Öffentliche Bibliotheken; Geisselmann, F.: Aus der Arbeit der UB Augsburg an der Standardschlagwortliste; Junginger, F.: Gibt es eine tragfähige Basis für eine kooperative Sacherschließung?; Kelm, B.: Aus der Arbeit der Deutschen Bibliothek an der Standardschlagwortliste; Maaßen, B,: Die Verknüpfung der Einzelschlagwörter zu Ketten, insbesondere nach dem PRECIS-Kurzregelwerk; Pflug, G.: Die Dienstleistungen der Deutschen Bibliothek im Bereich Sacherschließung; Poll, R.: Kettenbildung nach RSWK; Rothbart, O.-R.: Die Dienstleistungen im Bereich Sacherschließung für Öffentliche Bibliotheken aus der Sicht der ekz. - Nach dem Stand der Erkenntnisse (1992) ist nicht damit zu rechnen, daß dieser Bericht jemals erscheinen wird.
  3. Wätjen, H.-J.; Diekmann, B.; Möller, G.; Carstensen, K.-U.: Bericht zum DFG-Projekt: GERHARD : German Harvest Automated Retrieval and Directory (1998) 0.01
    0.012066665 = product of:
      0.060333326 = sum of:
        0.060333326 = weight(_text_:b in 3065) [ClassicSimilarity], result of:
          0.060333326 = score(doc=3065,freq=2.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.3914457 = fieldWeight in 3065, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.078125 = fieldNorm(doc=3065)
      0.2 = coord(1/5)
    
  4. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.01
    0.01194539 = product of:
      0.05972695 = sum of:
        0.05972695 = weight(_text_:b in 4782) [ClassicSimilarity], result of:
          0.05972695 = score(doc=4782,freq=4.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.3875115 = fieldWeight in 4782, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
      0.2 = coord(1/5)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
  5. Endres-Niggemeyer, B.: Bessere Information durch Zusammenfassen aus dem WWW (1999) 0.01
    0.009653333 = product of:
      0.04826666 = sum of:
        0.04826666 = weight(_text_:b in 4496) [ClassicSimilarity], result of:
          0.04826666 = score(doc=4496,freq=2.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.31315655 = fieldWeight in 4496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0625 = fieldNorm(doc=4496)
      0.2 = coord(1/5)
    
  6. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.01
    0.0094304895 = product of:
      0.04715245 = sum of:
        0.04715245 = product of:
          0.0943049 = sum of:
            0.0943049 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
              0.0943049 = score(doc=7383,freq=2.0), product of:
                0.1523401 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043503 = queryNorm
                0.61904186 = fieldWeight in 7383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7383)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 2.1997 19:46:30
  7. Reiner, U.: VZG-Projekt Colibri : Bewertung von automatisch DDC-klassifizierten Titeldatensätzen der Deutschen Nationalbibliothek (DNB) (2009) 0.01
    0.008532421 = product of:
      0.042662103 = sum of:
        0.042662103 = weight(_text_:b in 2675) [ClassicSimilarity], result of:
          0.042662103 = score(doc=2675,freq=4.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.2767939 = fieldWeight in 2675, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
      0.2 = coord(1/5)
    
    Abstract
    Das VZG-Projekt Colibri/DDC beschäftigt sich seit 2003 mit automatischen Verfahren zur Dewey-Dezimalklassifikation (Dewey Decimal Classification, kurz DDC). Ziel des Projektes ist eine einheitliche DDC-Erschließung von bibliografischen Titeldatensätzen und eine Unterstützung der DDC-Expert(inn)en und DDC-Laien, z. B. bei der Analyse und Synthese von DDC-Notationen und deren Qualitätskontrolle und der DDC-basierten Suche. Der vorliegende Bericht konzentriert sich auf die erste größere automatische DDC-Klassifizierung und erste automatische und intellektuelle Bewertung mit der Klassifizierungskomponente vc_dcl1. Grundlage hierfür waren die von der Deutschen Nationabibliothek (DNB) im November 2007 zur Verfügung gestellten 25.653 Titeldatensätze (12 Wochen-/Monatslieferungen) der Deutschen Nationalbibliografie der Reihen A, B und H. Nach Erläuterung der automatischen DDC-Klassifizierung und automatischen Bewertung in Kapitel 2 wird in Kapitel 3 auf den DNB-Bericht "Colibri_Auswertung_DDC_Endbericht_Sommer_2008" eingegangen. Es werden Sachverhalte geklärt und Fragen gestellt, deren Antworten die Weichen für den Verlauf der weiteren Klassifizierungstests stellen werden. Über das Kapitel 3 hinaus führende weitergehende Betrachtungen und Gedanken zur Fortführung der automatischen DDC-Klassifizierung werden in Kapitel 4 angestellt. Der Bericht dient dem vertieften Verständnis für die automatischen Verfahren.
  8. Külper, U.; Will, G.: ¬Das Projekt Bücherschatz : interdisziplinäre und partizipative Entwicklung eines kindgerechten Bibliotheks-Online-Kataloges (1996) 0.01
    0.0084466655 = product of:
      0.042233326 = sum of:
        0.042233326 = weight(_text_:b in 4725) [ClassicSimilarity], result of:
          0.042233326 = score(doc=4725,freq=2.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.27401197 = fieldWeight in 4725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4725)
      0.2 = coord(1/5)
    
    Series
    Bericht; Nr.186)(FBI-HH-B-186/96
  9. Inhaltsbezogene Suche von Bildern und Videosequenzen in digitalen multimedialen Archiven : Beiträge eines Workshops der KI'98 am 16./17.9.1998 in Bremen (1998) 0.01
    0.0084466655 = product of:
      0.042233326 = sum of:
        0.042233326 = weight(_text_:b in 10) [ClassicSimilarity], result of:
          0.042233326 = score(doc=10,freq=2.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.27401197 = fieldWeight in 10, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=10)
      0.2 = coord(1/5)
    
    Content
    Enthält die Beiträge: SPECHT, G.: Architekturen von Multimedia-Datenbanksystemen zur Speicherung von Bildern und Videos; MALSY, M. u.a.: Unterstützung des strutkturierten Zugriffs auf MPEG Videos in einem Multimedia-Datenbankmanagementsystem; ARLT, B. u. R.W. BRAUSE: Image encoding by independent principal components; DITTMANN, J. u.a.: Objektverfolgung und Szenenerkennung in Video auf Basis von Kantendetektion; THOMAS, P.: Verteilte digitale Medienarchivsysteme für kooperative Fernsehproduktion; DAMMEYER, A. u.a.: Videoanalyse mit DiVA
  10. Nohr, H.: Wissen und Wissensprozesse visualisieren (2000) 0.01
    0.007334878 = product of:
      0.03667439 = sum of:
        0.03667439 = product of:
          0.07334878 = sum of:
            0.07334878 = weight(_text_:erfahrung in 2974) [ClassicSimilarity], result of:
              0.07334878 = score(doc=2974,freq=2.0), product of:
                0.28725627 = queryWeight, product of:
                  6.603137 = idf(docFreq=162, maxDocs=44218)
                  0.043503 = queryNorm
                0.25534266 = fieldWeight in 2974, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.603137 = idf(docFreq=162, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2974)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Der wirkungsvolle und erfolgreiche Umgang mit Wissen wird erst durch aufeinander abgestimmte Management-Bausteine erreicht, wie sie heute im Rahmen von Konzeptionen eines Wissensmanagements formuliert werden. Bausteine eines solchen Wissensmanagements sind auf strategischer wie auf operativer Ebene angesiedelt. Auf der strategischen Ebene geht es vor allem um die Formulierung von Wissenszielen der Organisation, basierend auf den als kritisch erkannten Erfolgsfaktoren. Auf der operativen Ebene benennen verschiedene Konzeptionen eines Wissensmanagement heute unterschiedlich differenzierte Bausteine der Realisierung. Generalisiert lassen sich in nahezu allen Konzeptionen jedoch drei Gruppen von Bausteinen identifizieren, die je nach Ansatz weiter differenziert werden können: - Wissensgenerierung und Wissenserwerb - Wissensidentifikation und Wissenstransparenz - Wissensverteilung und Wissensnutzung Wissenstransparenz bzw. die Identifikation von Wissen werden in den gängigen Konzeptionen also als ein zentrales Element der operativen Aufgaben im Wissensmanagement erkannt (vgl. Probst/Romhardt 1996; Probst et al. 1998) Bullinger et al. 1998; Davenport/Prusak 1998). Im Gegensatz zum Datenmanagement und auch zum Informationsmanagement, spielen in diesen Konzepten vor allem auch die individuellen Wissensressourcen der Mitarbeiterinnen und Mitarbeiter eine entscheidende Rolle. Es ist eine Schlüsselerkenntnis modernen Managements, dass wesentliche Werte der Unternehmung 2in den Köpfen der Mitarbeiter" zu finden sind. Dabei ist Wissen als eine Ressource erkannt, die von Menschen generiert wird, an diese Menschen gebunden ist, auf Erfahrungen und Einstellungen beruht und sich nur in sehr eingeschränktem Masse externalisieren und übertragen lässt (tacit knowledge). In diesem Sinne geht es uns in der Hauptsache um Handlungswissen, um das "gewusst wie". Wie können mühsam erworbene Erfahrungen dokumentiert und transparent gemacht werden, wie kann dafür gesorgt werden, dass sie dem Unternehmen insgesamt und jederzeit zugute kommen können? Wie können erfolgreich durchgefiihrte Aktivitäten und Prozesse als Muster dienen, wenn analoge Aufgaben an anderen Orten und zu anderen Zeiten zu erfüllen sind? Wie gelangen wir vom individuellen Wissen einzelner Mitarbeiter zur Fähigkeit von Organisationen oder Teams, komplexe Probleme und Aufgaben zu lösen? Wenn generiertes, durch Erfahrung gewonnenes oder eingekauftes Wissen dem Unternehmen insgesamt, d.h. den Mitarbeitern die dieses Wissen jeweils benötigen, zugute kommen soll, muss für eine Transparenz über das unternehmensweit vorhandene Wissen gesorgt werden, ebenso über Wissen im Umfeld eines Unternehmens (bspw. bei Partner, Kunden, Behörden usw.). Dabei ist beim Wissensmanagement zunehmend die Tendenz einer räumlich dezentralen - oft sogar globalen - sowie zeitlich flüchtigen und virtuellen Organisation der Unternehmungen zu berücksichtigen (Faisst 1996). Unternehmen suchen nach best practices zur Organisation von Team- und Gruppenprozessen. Unternehmerische Prozesse und unternehmensrelevantes Wissen besitzen heute eine hohe Komplexität, die eine Erfassung, Speicherung und Verteilung des benötigten Wissens selbst ausgeschlossen erscheinen lässt bzw. nur unter Einsatz enormer Ressourcen möglich macht. Die angesprochenen Schwierigkeiten der Externalisierung des jeweils individuellen Erfahrungswissens von Experten stehen diesem Unterfangen ohnehin unüberbrücklich im Wege.
  11. Lutz, B.; Moldaschl, M.: Expertensysteme und Industrielle Facharbeit : ein Gutachten über denkbare qualifikatorische Auswirkungen von Expertensystemen in der fertigenden Industrie erstellt im Auftrag der Enquete-Kommission "Technikfolgenabschätzung und -bewertung" des Deutschen Bundestages (1989) 0.01
    0.007239999 = product of:
      0.036199994 = sum of:
        0.036199994 = weight(_text_:b in 3890) [ClassicSimilarity], result of:
          0.036199994 = score(doc=3890,freq=2.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.23486741 = fieldWeight in 3890, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=3890)
      0.2 = coord(1/5)
    
  12. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.01
    0.0060333326 = product of:
      0.030166663 = sum of:
        0.030166663 = weight(_text_:b in 4497) [ClassicSimilarity], result of:
          0.030166663 = score(doc=4497,freq=2.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.19572285 = fieldWeight in 4497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
      0.2 = coord(1/5)
    
  13. Nentwig, L.: Semantische Interoperabilität : Bd.2: Semantische Konflikte (2010) 0.01
    0.0060333326 = product of:
      0.030166663 = sum of:
        0.030166663 = weight(_text_:b in 4848) [ClassicSimilarity], result of:
          0.030166663 = score(doc=4848,freq=2.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.19572285 = fieldWeight in 4848, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
      0.2 = coord(1/5)
    
    Abstract
    Prozessketten in der freien Wirtschaft oder Verwaltung sind zunehmend geprägt von einem intensiven Austausch von Dokumenten und Daten auch über die Grenzen der beteiligten Organisationen hinweg. Wie in Band 1 der White Paper-Reihe dargelegt, ist die Sicherstellung der semantischen Interoperabilität eine der zentralen Anforderungen für einen semantisch konsistenten und damit erfolgreichen Ablauf der Geschäftsprozesse. Grundlage für semantische Interoperabilität sind die technische und die syntaktische Interoperabilität: Die technische Interoperabilität umfasst die Möglichkeit der technischen Interaktion mit sowie des Transports von Inhalten und erfordert dafür die leitungstechnische Verbindbarkeit und Passbarkeit auf Protokollebene. Die syntaktische Interoperabilität wird durch einen homogenen Einsatz von Sprachen (wie z. B. XML) sichergestellt und gewährleistet den Austausch von Daten auf Basis von vordefinierten und exakt vereinbahrten syntaktischen Strukturen. Semantische Interoperabilität stellt die komplexeste unter den Stufen der Interoperabilität dar. Der wesentliche Grund dafür, dass die Anforderung der semantischen Interoperabilität nicht erfüllt wird, ist das Vorhandensein bzw. die fehlende Auflösung sogenannter semantischer Konflikte. Ein semantischer Konflikt wird hervorgerufen, wenn die am Datenaustausch beteiligten Sender und Empfänger unterschiedliche Datenstrukturen und Dateninhalte verwenden. Eine detaillierte Beschreibung der Konfliktarten und ihrer Behandlung zeigen die nächsten Abschnitte.
  14. Buchbinder, R.; Weidemüller, H.U.; Tiedemann, E.: Biblio-Data, die nationalbibliographische Datenbank der Deutschen Bibliothek (1979) 0.01
    0.0060333326 = product of:
      0.030166663 = sum of:
        0.030166663 = weight(_text_:b in 4) [ClassicSimilarity], result of:
          0.030166663 = score(doc=4,freq=2.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.19572285 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
      0.2 = coord(1/5)
    
    Abstract
    Die deutschen nationalbibliographische Datenbank Biblio-Data wird in Teil A mit ihren Grundlagen vorgestellt. Biblio-Data basiert auf dem Information-Retrieval-System STAIRS von IBM, das durch Zusatzprogramme der ZMD verbessert wurde. Das Hauptgewicht dieses Beitrags liegt auf der Erörterung des Biblio-Data-Konzepts, nach dem die Daten der Deutschen Bibliographie retrievalgerecht aufbereitet und eingegeben werden. Auf Eigenarten, Probleme und Mängel, die daraus entstehen, dass Biblio-Data auf nationalbibliographischen Daten aufbaut, wird ausführlich eingegangen. Zwei weitere Beiträge zeigen an einigen Beispielen die vielfältigen Suchmöglichkeiten mit Biblio-Data, um zu verdeutlichen, dass damit nicht nur viel schenellere, sondern auch bessere Recherchen ausgeführt werden können. Teil B weist nach, dass Biblio-Data weder die Innhaltsanalyse noch die Zuordnung von schlagwörtern automatisieren kann. Im derzeitigen Einsatzstadium fällt Biblio-Data die Aufgabe zu, die weiterhin knventionall-intellektuell auszuführende Sacherschließung durch retrospektive Recherchen, insbesonderr durch den wesentlich erleichterten Zugriff auf frühere Indexierungsergebnisse, zu unterstützen. Teil C schildert die praktische Arbeit mit Biblio-Data bei bibliographischen Ermittlungen und Literaturzusammenstellunen und kommt zu dem Ergebnis, dass effektive und bibliographische Arbeit aus der sinnvollen Kombination von Datenbank-Retrieval und konventioneller Suche bestehet.
  15. Feldsien-Sudhaus, I.; Horst, D.; Katzner, E.; Rajski, B.; Weier, H.; Zeumer, T. (Red.): Koha-Evaluation durch die Universitätsbibliothek der TUHH (2015) 0.01
    0.0060333326 = product of:
      0.030166663 = sum of:
        0.030166663 = weight(_text_:b in 2811) [ClassicSimilarity], result of:
          0.030166663 = score(doc=2811,freq=2.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.19572285 = fieldWeight in 2811, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2811)
      0.2 = coord(1/5)
    
  16. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.0058940565 = product of:
      0.029470282 = sum of:
        0.029470282 = product of:
          0.058940563 = sum of:
            0.058940563 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.058940563 = score(doc=5576,freq=2.0), product of:
                0.1523401 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043503 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    13.12.2017 14:17:22
  17. AG KIM Gruppe Titeldaten DINI: Empfehlungen zur RDF-Repräsentation bibliografischer Daten (2014) 0.00
    0.0048266663 = product of:
      0.02413333 = sum of:
        0.02413333 = weight(_text_:b in 4668) [ClassicSimilarity], result of:
          0.02413333 = score(doc=4668,freq=2.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.15657827 = fieldWeight in 4668, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.03125 = fieldNorm(doc=4668)
      0.2 = coord(1/5)
    
    Abstract
    In den letzten Jahren wurde eine Vielzahl an Datensets aus Kultur- und Wissenschaftseinrichtungen als Linked Open Data veröffentlicht. Auch das deutsche Bibliothekswesen hat sich aktiv an den Entwicklungen im Bereich Linked Data beteiligt. Die zuvor lediglich in den Bibliothekskatalogen vorliegenden Daten können weiteren Sparten geöffnet und so auf vielfältige Weise in externe Anwendungen eingebunden werden. Gemeinsames Ziel bei der Veröffentlichung der Bibliotheksdaten als Linked Data ist außerdem, Interoperabilität und Nachnutzbarkeit zu ermöglichen und sich auf diese Weise stärker mit anderen Domänen außerhalb der Bibliothekswelt zu vernetzen. Es bestehen sowohl Linked-Data-Services einzelner Bibliotheken als auch der deutschen Bibliotheksverbünde. Trotz ihres gemeinsamen Ziels sprechen die bestehenden Services nicht die gleiche Sprache, da sie auf unterschiedlichen Modellierungen basieren. Um die Interoperabilität dieser Datenquellen zu gewährleisten, sollten die Dienste künftig einer einheitlichen Modellierung folgen. Vor diesem Hintergrund wurde im Januar 2012 eine Arbeitsgruppe gegründet, in der alle deutschen Bibliotheksverbünde, die Deutsche Nationalbibliothek sowie einige weitere interessierte und engagierte Kolleginnen und Kollegen mit entsprechender Expertise vertreten sind. Die Gruppe Titeldaten agiert seit April 2012 als Untergruppe des Kompetenzzentrums Interoperable Metadaten (DINI-AG KIM). Die Moderation und Koordination liegt bei der Deutschen Nationalbibliothek. Im Dezember 2012 schloss sich auch der OBVSG der Arbeitsgruppe an. Die Schweizerische Nationalbibliothek folgte im Mai 2013. Vorliegende Empfehlungen sollen zu einer Harmonisierung der RDFRepräsentationen von Titeldaten im deutschsprachigen Raum beitragen und so möglichst einen Quasi-Standard etablieren. Auch international wird an der Herausforderung gearbeitet, die bestehenden bibliothekarischen Strukturen in die heute zur Verfügung stehenden Konzepte des Semantic Web zu überführen und ihren Mehrwert auszuschöpfen. Die neuesten internationalen Entwicklungen im Bereich der Bereitstellung bibliografischer Daten im Semantic Web wie die Bibliographic Framework Transition Initiative der Library of Congress (BIBFRAME) haben ebenfalls das Ziel, ein Modell zur RDF-Repräsentation bibliothekarischer Daten bereitzustellen. Die Gruppe Titeldaten beobachtet diese Entwicklungen und beabsichtigt, die Erfahrungen und Anforderungen der deutschsprachigen Bibliothekswelt mit einzubringen. Dabei werden einerseits international erarbeitete Empfehlungen aufgegriffen und andererseits Impulse aus der nationalen Kooperation dort eingebracht. Die hier verwendeten Properties könnten z. B. als Grundlage für ein Mapping zu BIBFRAME dienen.
  18. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.00
    0.0047152448 = product of:
      0.023576224 = sum of:
        0.023576224 = product of:
          0.04715245 = sum of:
            0.04715245 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.04715245 = score(doc=1484,freq=2.0), product of:
                0.1523401 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043503 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    13. 9.2014 14:45:22
  19. Dzeyk, W.: Effektiv und nutzerfreundlich : Einsatz von semantischen Technologien und Usability-Methoden zur Verbesserung der medizinischen Literatursuche (2010) 0.00
    0.0042233327 = product of:
      0.021116663 = sum of:
        0.021116663 = weight(_text_:b in 4416) [ClassicSimilarity], result of:
          0.021116663 = score(doc=4416,freq=2.0), product of:
            0.15412949 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.043503 = queryNorm
            0.13700598 = fieldWeight in 4416, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
      0.2 = coord(1/5)
    
    Abstract
    Bei einem Vergleich unter Berücksichtigung aller verfügbaren Quellen gelang es mithilfe der MorphoSaurus-Technik - bei wesentlich geringerem Datenbestand - ähnlich gute Resul-tate zu erzielen, wie mit den Suchmaschinen Google oder Google Scholar. Die Ergebnisse der Evaluation lassen den Schluss zu, dass durch den MorphoSaurus-Ansatz die Leistungsfähigkeit von Google oder Google Scholar im Bereich der medizinischen Literatursuche durch eine Erweiterung der vorhandenen Datenbasis sogar deutlich übertroffen werden kann. Zusätzlich zu den Retrieval-Tests wurde eine Usability-Untersuchung der Testsuchmaschine mit Probanden aus der Medizin durchgeführt. Die Testpersonen attestierten dem Such-interface eine hohe Gebrauchstauglichkeit und Nützlichkeit. Der szenariobasierte Usability-Test hat zudem gezeigt, dass die Testpersonen bzw. User die integrierten Unterstützungs-maßnahmen zur Erhöhung der Benutzerfreundlichkeit während der Suche als sehr positiv und nützlich bewerten. In der Testsuchmaschine wurde diese Unterstützung z. B. durch das Aufklappen und Präsentieren von verwandten MeSH- und ICD-10-Begriffen realisiert. Die Einführung eines Schiebereglers zur effektiven Eingrenzung des Suchraums wurde ebenfalls überwiegend positiv bewertet. Zudem wurden nach Abschicken der Suchanfrage sogenannte Verwandte Suchbegriffe aus verschiedenen medizinischen Teilbereichen angezeigt. Diese Facetten-Funktion diente der Eingrenzung bzw. Verfeinerung der Suche und wurde von den Testpersonen mehrheitlich als ein sinnvolles Hilfsangebot bewertet. Insgesamt stellt das MorphoSaurus-Projekt - mit seinem spezifischen Ansatz - ein gelungenes Beispiel für die Innovationsfähigkeit von Bibliotheken im Bereich der öffentlichen Informationsversorgung dar. Durch die mögliche Anpassung der MorphoSaurus-Technologie mittels fachspezifischer Thesauri ist zudem eine hohe Anschlussfähigkeit für Suchmaschinen-projekte anderer Inhaltsdomänen gegeben.
  20. Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur (2011) 0.00
    0.0029470283 = product of:
      0.014735141 = sum of:
        0.014735141 = product of:
          0.029470282 = sum of:
            0.029470282 = weight(_text_:22 in 4291) [ClassicSimilarity], result of:
              0.029470282 = score(doc=4291,freq=2.0), product of:
                0.1523401 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043503 = queryNorm
                0.19345059 = fieldWeight in 4291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4291)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    7. 2.2011 19:52:22