Search (28 results, page 1 of 2)

  • × type_ss:"r"
  • × type_ss:"el"
  1. Reiner, U.: VZG-Projekt Colibri : Bewertung von automatisch DDC-klassifizierten Titeldatensätzen der Deutschen Nationalbibliothek (DNB) (2009) 0.05
    0.04523052 = product of:
      0.09046104 = sum of:
        0.03775026 = weight(_text_:von in 2675) [ClassicSimilarity], result of:
          0.03775026 = score(doc=2675,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 2675, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
        0.05271078 = product of:
          0.079066165 = sum of:
            0.003525567 = weight(_text_:a in 2675) [ClassicSimilarity], result of:
              0.003525567 = score(doc=2675,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.06369744 = fieldWeight in 2675, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2675)
            0.075540595 = weight(_text_:z in 2675) [ClassicSimilarity], result of:
              0.075540595 = score(doc=2675,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.29484767 = fieldWeight in 2675, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2675)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Das VZG-Projekt Colibri/DDC beschäftigt sich seit 2003 mit automatischen Verfahren zur Dewey-Dezimalklassifikation (Dewey Decimal Classification, kurz DDC). Ziel des Projektes ist eine einheitliche DDC-Erschließung von bibliografischen Titeldatensätzen und eine Unterstützung der DDC-Expert(inn)en und DDC-Laien, z. B. bei der Analyse und Synthese von DDC-Notationen und deren Qualitätskontrolle und der DDC-basierten Suche. Der vorliegende Bericht konzentriert sich auf die erste größere automatische DDC-Klassifizierung und erste automatische und intellektuelle Bewertung mit der Klassifizierungskomponente vc_dcl1. Grundlage hierfür waren die von der Deutschen Nationabibliothek (DNB) im November 2007 zur Verfügung gestellten 25.653 Titeldatensätze (12 Wochen-/Monatslieferungen) der Deutschen Nationalbibliografie der Reihen A, B und H. Nach Erläuterung der automatischen DDC-Klassifizierung und automatischen Bewertung in Kapitel 2 wird in Kapitel 3 auf den DNB-Bericht "Colibri_Auswertung_DDC_Endbericht_Sommer_2008" eingegangen. Es werden Sachverhalte geklärt und Fragen gestellt, deren Antworten die Weichen für den Verlauf der weiteren Klassifizierungstests stellen werden. Über das Kapitel 3 hinaus führende weitergehende Betrachtungen und Gedanken zur Fortführung der automatischen DDC-Klassifizierung werden in Kapitel 4 angestellt. Der Bericht dient dem vertieften Verständnis für die automatischen Verfahren.
  2. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.02
    0.020445637 = product of:
      0.040891275 = sum of:
        0.039951123 = weight(_text_:von in 4250) [ClassicSimilarity], result of:
          0.039951123 = score(doc=4250,freq=14.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.3119547 = fieldWeight in 4250, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
        9.401512E-4 = product of:
          0.0028204536 = sum of:
            0.0028204536 = weight(_text_:a in 4250) [ClassicSimilarity], result of:
              0.0028204536 = score(doc=4250,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.050957955 = fieldWeight in 4250, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4250)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  3. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.02
    0.020320725 = product of:
      0.04064145 = sum of:
        0.039231222 = weight(_text_:von in 4322) [ClassicSimilarity], result of:
          0.039231222 = score(doc=4322,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.30633342 = fieldWeight in 4322, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.001410227 = product of:
          0.004230681 = sum of:
            0.004230681 = weight(_text_:a in 4322) [ClassicSimilarity], result of:
              0.004230681 = score(doc=4322,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 4322, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4322)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
  4. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.02
    0.019096741 = product of:
      0.038193483 = sum of:
        0.03737085 = weight(_text_:von in 318) [ClassicSimilarity], result of:
          0.03737085 = score(doc=318,freq=16.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29180688 = fieldWeight in 318, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        8.2263234E-4 = product of:
          0.002467897 = sum of:
            0.002467897 = weight(_text_:a in 318) [ClassicSimilarity], result of:
              0.002467897 = score(doc=318,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.044588212 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=318)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  5. Förderung von Informationsinfrastrukturen für die Wissenschaft : Ein Positionspapier der Deutschen Forschungsgemeinschaft (2018) 0.02
    0.018766414 = product of:
      0.03753283 = sum of:
        0.026693465 = weight(_text_:von in 4178) [ClassicSimilarity], result of:
          0.026693465 = score(doc=4178,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2084335 = fieldWeight in 4178, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4178)
        0.0108393645 = product of:
          0.032518093 = sum of:
            0.032518093 = weight(_text_:22 in 4178) [ClassicSimilarity], result of:
              0.032518093 = score(doc=4178,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.19345059 = fieldWeight in 4178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4178)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Als Selbstverwaltungsorganisation und Interessenvertretung der Wissenschaft sieht die DFG es als ihre Aufgabe an, den digitalen Wandel in den Wissenschaften aktiv mitzugestalten. Die Förderung im Bereich der Informationsinfrastrukturen erfolgt mit dem Anspruch, sich an einem von der Wissenschaft formulierten Bedarf zu orientieren, der anhaltend hohen Veränderungsdynamik gerecht zu werden, für unkonventionelle Projektideen sowie Projekte in einem explorativen Stadium offen zu sein und impulsgebend sowie struktur- und standardbildend zu wirken. Mit diesem Positionspapier reflektiert die DFG - nach 2006 und 2012 - zum dritten Mal die Folgen des digitalen Wandels für ihr Förderhandeln im Bereich der wissenschaftlichen Informationsinfrastrukturen. Erarbeitet wurde das Papier vom Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme, dem für die Förderung wissenschaftlicher Informationsinfrastrukturen fachlich zuständigen Gremium. Der AWBI ist im Rahmen seiner Zuständigkeit als Gremium des Hauptausschusses verantwortlich für die Ausgestaltung des Förderportfolios sowie einzelner Förderinitiativen im Bereich der wissenschaftlichen Informationsinfrastrukturen.
    Date
    22. 3.2018 17:30:43
  6. Riva, P.; Boeuf, P. le; Zumer, M.: IFLA Library Reference Model : a conceptual model for bibliographic information (2017) 0.01
    0.014637431 = product of:
      0.029274862 = sum of:
        0.026425181 = weight(_text_:von in 5179) [ClassicSimilarity], result of:
          0.026425181 = score(doc=5179,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.20633863 = fieldWeight in 5179, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5179)
        0.0028496822 = product of:
          0.008549047 = sum of:
            0.008549047 = weight(_text_:a in 5179) [ClassicSimilarity], result of:
              0.008549047 = score(doc=5179,freq=6.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.1544581 = fieldWeight in 5179, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5179)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Definition of a conceptual reference model to provide a framework for the analysis of non-administrative metadata relating to library resources. The resulting model definition was approved by the FRBR Review Group (November 2016), and then made available to the Standing Committees of the Sections on Cataloguing and Subject Analysis & Access, as well as to the ISBD Review Group, for comment in December 2016. The final document was approved by the IFLACommittee on Standards (August 2017).
    Content
    Zusammenführung von FRBR, FRAD, FRSAD
  7. Garrel, J. von; Mayer, J.; Mühlfeld, M.: Künstliche Intelligenz im Studium : eine quantitative Befragung von Studierenden zur Nutzung von ChatGPT & Co. (2023) 0.01
    0.010551518 = product of:
      0.04220607 = sum of:
        0.04220607 = weight(_text_:von in 1006) [ClassicSimilarity], result of:
          0.04220607 = score(doc=1006,freq=10.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.32956228 = fieldWeight in 1006, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1006)
      0.25 = coord(1/4)
    
    Abstract
    KI-basierte Tools wie ChatGPT bzw. GPT-4 verändern derzeit die Hochschullandschaft und vielerorts wird bereits über die Konsequenzen für die zukünftigen Lehr- und Prüfungsformen diskutiert. Um hier eine empirische Grundlage zu schaffen, ist eine deutschlandweite Befragung von Studierenden durchgeführt worden, in welcher das Nutzungsverhalten im Umgang mit KI-basierten Tools im Rahmen des Studiums und Alltags erfasst wurde. Hierbei wurden unter anderem diverse Funktionen der KI-basierten Tools identifiziert, die für die Studierenden als besonders wichtig eingeschätzt wurden. Das Ziel der quantitativen Befragung lag somit in der Erfassung davon, wie KI-Tools genutzt werden und welche Faktoren für die Nutzung maßgeblich sind. Insgesamt haben sich deutschlandweit über 6300 Studierende an der anonymen Befragung beteiligt. Die Ergebnisse dieser quantitativen Analyse verdeutlichen, dass fast zwei Drittel der befragten Studierenden KI-basierte Tools im Rahmen des Studiums nutzen bzw. genutzt haben. Explizit nennen in diesem Kontext fast die Hälfte der befragten Studierenden ChatGPT bzw. GPT-4 als genutztes Tool. Am häufigsten nutzen Studierende der Ingenieurwissenschaften sowie Mathematik und Naturwissenschaften KI-basierte Tools. Eine differenzierte Betrachtung des Nutzungsverhaltens verdeutlicht, dass die Studierenden KI-basierte Tools vielfältig einsetzen. Die Klärung von Verständnisfragen und Erläuterung fachspezifischer Konzepte zählen in diesem Kontext zu den relevantesten Nutzungsgründen.
  8. Nohr, H.: Wissen und Wissensprozesse visualisieren (2000) 0.01
    0.009909443 = product of:
      0.03963777 = sum of:
        0.03963777 = weight(_text_:von in 2974) [ClassicSimilarity], result of:
          0.03963777 = score(doc=2974,freq=18.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.30950794 = fieldWeight in 2974, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2974)
      0.25 = coord(1/4)
    
    Abstract
    Wissen wird im modernen Wirtschaftsgeschehen zunehmend als eine wettbewerbsentscheidende Ressource angesehen. Es ist zu einem der wichtigsten Werte für Unternehmen geworden, um im globalen Wettbewerb bestehen zu können. Die Bemühungen der Unternehmen um Generierung und Akquisition von Wissen werden ständig intensiviert. Alle Anstrengungen, Wissen aus externen Quellen in die Unternehmung zu integrieren bzw. selbst neues Wissen zu erzeugen, bleiben allein jedoch wenig sinnvoll. "It's an ongoing quest within an organization (...) to help discover the location, ownership, value and use of knowledge artifacts, to lern the roles and expertise of people, to identify constraints to the flow of knowledge, and to highlight opportunities to leverage existing knowledge." (Grey 1999)
    Der wirkungsvolle und erfolgreiche Umgang mit Wissen wird erst durch aufeinander abgestimmte Management-Bausteine erreicht, wie sie heute im Rahmen von Konzeptionen eines Wissensmanagements formuliert werden. Bausteine eines solchen Wissensmanagements sind auf strategischer wie auf operativer Ebene angesiedelt. Auf der strategischen Ebene geht es vor allem um die Formulierung von Wissenszielen der Organisation, basierend auf den als kritisch erkannten Erfolgsfaktoren. Auf der operativen Ebene benennen verschiedene Konzeptionen eines Wissensmanagement heute unterschiedlich differenzierte Bausteine der Realisierung. Generalisiert lassen sich in nahezu allen Konzeptionen jedoch drei Gruppen von Bausteinen identifizieren, die je nach Ansatz weiter differenziert werden können: - Wissensgenerierung und Wissenserwerb - Wissensidentifikation und Wissenstransparenz - Wissensverteilung und Wissensnutzung Wissenstransparenz bzw. die Identifikation von Wissen werden in den gängigen Konzeptionen also als ein zentrales Element der operativen Aufgaben im Wissensmanagement erkannt (vgl. Probst/Romhardt 1996; Probst et al. 1998) Bullinger et al. 1998; Davenport/Prusak 1998). Im Gegensatz zum Datenmanagement und auch zum Informationsmanagement, spielen in diesen Konzepten vor allem auch die individuellen Wissensressourcen der Mitarbeiterinnen und Mitarbeiter eine entscheidende Rolle. Es ist eine Schlüsselerkenntnis modernen Managements, dass wesentliche Werte der Unternehmung 2in den Köpfen der Mitarbeiter" zu finden sind. Dabei ist Wissen als eine Ressource erkannt, die von Menschen generiert wird, an diese Menschen gebunden ist, auf Erfahrungen und Einstellungen beruht und sich nur in sehr eingeschränktem Masse externalisieren und übertragen lässt (tacit knowledge). In diesem Sinne geht es uns in der Hauptsache um Handlungswissen, um das "gewusst wie". Wie können mühsam erworbene Erfahrungen dokumentiert und transparent gemacht werden, wie kann dafür gesorgt werden, dass sie dem Unternehmen insgesamt und jederzeit zugute kommen können? Wie können erfolgreich durchgefiihrte Aktivitäten und Prozesse als Muster dienen, wenn analoge Aufgaben an anderen Orten und zu anderen Zeiten zu erfüllen sind? Wie gelangen wir vom individuellen Wissen einzelner Mitarbeiter zur Fähigkeit von Organisationen oder Teams, komplexe Probleme und Aufgaben zu lösen? Wenn generiertes, durch Erfahrung gewonnenes oder eingekauftes Wissen dem Unternehmen insgesamt, d.h. den Mitarbeitern die dieses Wissen jeweils benötigen, zugute kommen soll, muss für eine Transparenz über das unternehmensweit vorhandene Wissen gesorgt werden, ebenso über Wissen im Umfeld eines Unternehmens (bspw. bei Partner, Kunden, Behörden usw.). Dabei ist beim Wissensmanagement zunehmend die Tendenz einer räumlich dezentralen - oft sogar globalen - sowie zeitlich flüchtigen und virtuellen Organisation der Unternehmungen zu berücksichtigen (Faisst 1996). Unternehmen suchen nach best practices zur Organisation von Team- und Gruppenprozessen. Unternehmerische Prozesse und unternehmensrelevantes Wissen besitzen heute eine hohe Komplexität, die eine Erfassung, Speicherung und Verteilung des benötigten Wissens selbst ausgeschlossen erscheinen lässt bzw. nur unter Einsatz enormer Ressourcen möglich macht. Die angesprochenen Schwierigkeiten der Externalisierung des jeweils individuellen Erfahrungswissens von Experten stehen diesem Unterfangen ohnehin unüberbrücklich im Wege.
  9. Michel, D.: Taxonomy of Subject Relationships (1997) 0.01
    0.009437565 = product of:
      0.03775026 = sum of:
        0.03775026 = weight(_text_:von in 5346) [ClassicSimilarity], result of:
          0.03775026 = score(doc=5346,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 5346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=5346)
      0.25 = coord(1/4)
    
    Abstract
    Teil von: Final Report to the ALCTS/CCS Subject Analysis Committee. June 1997 (http://web2.ala.org/ala/alctscontent/CCS/committees/subjectanalysis/subjectrelations/finalreport.cfm).
  10. Arbeitsgruppe Forschungsdaten: Forschungsdatenmanagement : eine Handreichung (2018) 0.01
    0.009342712 = product of:
      0.03737085 = sum of:
        0.03737085 = weight(_text_:von in 4174) [ClassicSimilarity], result of:
          0.03737085 = score(doc=4174,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29180688 = fieldWeight in 4174, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4174)
      0.25 = coord(1/4)
    
    Abstract
    Diese Handreichung soll als Einstieg für Wissenschaftlerinnen und Wissenschaftler, die mit digitalen Daten arbeiten, sowie für alle an dieser Thematik Interessierten dienen und bietet darüber hinaus Hinweise zu weiterführender Information. Sie wurde von der Arbeitsgruppe "Forschungsdaten" der Schwerpunktinitiative "Digitale Information" der Allianz der deutschen Wissenschaftsorganisationen verfasst. Mit dieser Publikation, die als Einstieg für Wissenschaftlerinnen und Wissenschaftler, die mit digitalen Daten arbeiten, sowie für alle an dieser Thematik Interessierten dienen soll, ergänzt die AG Forschungsdaten die Serie von Handreichungen zu den verschiedenen Themenfeldern der Schwerpunktinitiative "Digitale Information" der Allianz der deutschen Wissenschaftsorganisationen. Neben grundlegenden Hinweisen zum Forschungsdatenmanagement bietet sie Hinweise zu weiterführender Information. Online-Version unter der Creative-Commons-Lizenz "Namensnennung" (CC-BY).
  11. Calhoun, K.: ¬The changing nature of the catalog and its integration with other discovery tools : Prepared for the Library of Congress (2006) 0.01
    0.008879626 = product of:
      0.017759252 = sum of:
        0.015100104 = weight(_text_:von in 5013) [ClassicSimilarity], result of:
          0.015100104 = score(doc=5013,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.117907785 = fieldWeight in 5013, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=5013)
        0.0026591495 = product of:
          0.007977448 = sum of:
            0.007977448 = weight(_text_:a in 5013) [ClassicSimilarity], result of:
              0.007977448 = score(doc=5013,freq=16.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.14413087 = fieldWeight in 5013, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5013)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    The destabilizing influences of the Web, widespread ownership of personal computers, and rising computer literacy have created an era of discontinuous change in research libraries a time when the cumulated assets of the past do not guarantee future success. The library catalog is such an asset. Today, a large and growing number of students and scholars routinely bypass library catalogs in favor of other discovery tools, and the catalog represents a shrinking proportion of the universe of scholarly information. The catalog is in decline, its processes and structures are unsustainable, and change needs to be swift. At the same time, books and serials are not dead, and they are not yet digital. Notwithstanding widespread expansion of digitization projects, ubiquitous e-journals, and a market that seems poised to move to e-books, the role of catalog records in discovery and retrieval of the world's library collections seems likely to continue for at least a couple of decades and probably longer. This report, commissioned by the Library of Congress (LC), offers an analysis of the current situation, options for revitalizing research library catalogs, a feasibility assessment, a vision for change, and a blueprint for action. Library decision makers are the primary audience for this report, whose aim is to elicit support, dialogue, collaboration, and movement toward solutions. Readers from the business community, particularly those that directly serve libraries, may find the report helpful for defining research and development efforts. The same is true for readers from membership organizations such as OCLC Online Computer Library Center, the Research Libraries Group, the Association for Research Libraries, the Council on Library and Information Resources, the Coalition for Networked Information, and the Digital Library Federation. Library managers and practitioners from all functional groups are likely to take an interest in the interview findings and in specific actions laid out in the blueprint.
    Content
    Vgl. dazu auch die Stellungnahme von T. Mann unter: http://www.guild2910.org/AFSCMECalhounReviewREV.pdf.
  12. Schönfelder, N.: Mittelbedarf für Open Access an ausgewählten deutschen Universitäten und Forschungseinrichtungen : Transformationsrechnung (2019) 0.01
    0.008173171 = product of:
      0.032692686 = sum of:
        0.032692686 = weight(_text_:von in 5427) [ClassicSimilarity], result of:
          0.032692686 = score(doc=5427,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.25527787 = fieldWeight in 5427, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5427)
      0.25 = coord(1/4)
    
    Abstract
    Die Transformation subskriptionsbasierter, wissenschaftlicher Fachzeitschriften in den Open Access wird Änderungen in der finanziellen Belastung wissenschaftlicher Einrichtungen in Deutschland nach sich ziehen. Artikelbearbeitungsgebühren (APCs) sind im Bereich der international sichtbaren und in einschlägigen bibliographischen Datenbanken indexierten Open-Access-Zeitschriften das derzeit dominierende Geschäftsmodell. Wenn sich dieses Geschäftsmodell (APC) auch bei zurzeit hybriden Zeitschriften durchsetzen, kommt es zu einer Umverteilung von Ausgaben für Fachzeitschriften. Einrichtungen mit wenigen Publikationen werden voraussichtlich finanziell entlastet, Einrichtungen mit vielen Publikationen zusätzlich belastet. Um auf die Open-Access- Transformation adäquat im eigenen Hause zu reagieren und diese aktiv mitzugestalten, sind gesicherte Abschätzungen zu finanziellen Ent- bzw. Belastungen im Hinblick auf die zu erwartenden institutionellen APC-Gesamtausgaben der einzelnen Einrichtungen nach einer umfassenden Transformation von Zeitschriften in den Open Access unverzichtbar. An dieser Stelle setzt der vorliegende Bericht an.
    Für fünf deutsche Universitäten sowie ein Forschungsinstitut werden auf Basis der Publikationsdaten des Web of Science Abschätzungen zu den Gesamtausgaben für APCs erstellt und mit den derzeitigen Subskriptionsausgaben verglichen. Der Bericht zeigt, dass die Kostenübernahme auf Basis der projizierten Ausgaben für Publikationen aus nicht-Drittmittel-geförderter Forschung für alle hier betrachteten Einrichtungen ohne Probleme aus den derzeitigen bibliothekarischen Erwerbungsetats für Zeitschriften bestritten werden könnte. Dies setzt jedoch voraus, dass Drittmittelgeber neben der üblichen Forschungsförderung auch für die APCs der aus diesen Projekten resultierenden Publikationen aufkommen. Trifft dies nicht zu und die wissenschaftliche Einrichtung muss für sämtliche Publikationen die APCs selbst tragen, so hängen die budgetären Auswirkungen wesentlich von der zukünftigen Entwicklung der Artikelbearbeitungsgebühren ab.
  13. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.0054196822 = product of:
      0.021678729 = sum of:
        0.021678729 = product of:
          0.065036185 = sum of:
            0.065036185 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.065036185 = score(doc=5576,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    13.12.2017 14:17:22
  14. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.00
    0.0047187824 = product of:
      0.01887513 = sum of:
        0.01887513 = weight(_text_:von in 4497) [ClassicSimilarity], result of:
          0.01887513 = score(doc=4497,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.14738473 = fieldWeight in 4497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
      0.25 = coord(1/4)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  15. Eckert, K: ¬The ICE-map visualization (2011) 0.00
    0.0010511212 = product of:
      0.0042044846 = sum of:
        0.0042044846 = product of:
          0.012613453 = sum of:
            0.012613453 = weight(_text_:a in 4743) [ClassicSimilarity], result of:
              0.012613453 = score(doc=4743,freq=10.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.22789092 = fieldWeight in 4743, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4743)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    In this paper, we describe in detail the Information Content Evaluation Map (ICE-Map Visualization, formerly referred to as IC Difference Analysis). The ICE-Map Visualization is a visual data mining approach for all kinds of concept hierarchies that uses statistics about the concept usage to help a user in the evaluation and maintenance of the hierarchy. It consists of a statistical framework that employs the the notion of information content from information theory, as well as a visualization of the hierarchy and the result of the statistical analysis by means of a treemap.
  16. Babeu, A.: Building a "FRBR-inspired" catalog : the Perseus digital library experience (2008) 0.00
    9.102976E-4 = product of:
      0.0036411905 = sum of:
        0.0036411905 = product of:
          0.010923571 = sum of:
            0.010923571 = weight(_text_:a in 2429) [ClassicSimilarity], result of:
              0.010923571 = score(doc=2429,freq=30.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.19735932 = fieldWeight in 2429, product of:
                  5.477226 = tf(freq=30.0), with freq of:
                    30.0 = termFreq=30.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2429)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    If one follows any of the major cataloging or library blogs these days, it is obvious that the topic of FRBR (Functional Requirements for Bibliographic Records) has increasingly become one of major significance for the library community. What began as a proposed conceptual entity-relationship model for improving the structure of bibliographic records has become a hotly debated topic with many tangled threads that have implications not just for cataloging but for many aspects of libraries and librarianship. In the fall of 2005, the Perseus Project experimented with creating a FRBRized catalog for its current online classics collection, a collection that consists of several hundred classical texts in Greek and Latin as well as reference works and scholarly commentaries regarding these works. In the last two years, with funding from the Mellon Foundation, Perseus has amassed and digitized a growing collection of classical texts (some as image books on our own servers that will eventually be made available through Fedora), and some available through the Open Content Alliance (OCA)2, and created FRBRized cataloging data for these texts. This work was done largely as an experiment to see the potential of the FRBR model for creating a specialized catalog for classics.
    Our catalog should not be called a FRBR catalog perhaps, but instead a "FRBR Inspired catalog." As such our main goal has been "practical findability," we are seeking to support the four identified user tasks of the FRBR model, or to "Search, Identify, Select, and Obtain," rather than to create a FRBR catalog, per se. By encoding as much information as possible in the MODS and MADS records we have created, we believe that useful searching will be supported, that by using unique identifiers for works and authors users will be able to identify that the entity they have located is the desired one, that by encoding expression level information (such as the language of the work, the translator, etc) users will be able to select which expression of a work they are interested in, and that by supplying links to different online manifestations that users will be able to obtain access to a digital copy of a work. This white paper will discuss previous and current efforts by the Perseus Project in creating a FRBRized catalog, including the cataloging workflow, lessons learned during the process and will also seek to place this work in the larger context of research regarding FRBR, cataloging, Library 2.0 and the Semantic Web, and the growing importance of the FRBR model in the face of growing million book digital libraries.
  17. Adler, R.; Ewing, J.; Taylor, P.: Citation statistics : A report from the International Mathematical Union (IMU) in cooperation with the International Council of Industrial and Applied Mathematics (ICIAM) and the Institute of Mathematical Statistics (IMS) (2008) 0.00
    8.078089E-4 = product of:
      0.0032312355 = sum of:
        0.0032312355 = product of:
          0.009693706 = sum of:
            0.009693706 = weight(_text_:a in 2417) [ClassicSimilarity], result of:
              0.009693706 = score(doc=2417,freq=42.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.17513901 = fieldWeight in 2417, product of:
                  6.4807405 = tf(freq=42.0), with freq of:
                    42.0 = termFreq=42.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2417)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    This is a report about the use and misuse of citation data in the assessment of scientific research. The idea that research assessment must be done using "simple and objective" methods is increasingly prevalent today. The "simple and objective" methods are broadly interpreted as bibliometrics, that is, citation data and the statistics derived from them. There is a belief that citation statistics are inherently more accurate because they substitute simple numbers for complex judgments, and hence overcome the possible subjectivity of peer review. But this belief is unfounded. - Relying on statistics is not more accurate when the statistics are improperly used. Indeed, statistics can mislead when they are misapplied or misunderstood. Much of modern bibliometrics seems to rely on experience and intuition about the interpretation and validity of citation statistics. - While numbers appear to be "objective", their objectivity can be illusory. The meaning of a citation can be even more subjective than peer review. Because this subjectivity is less obvious for citations, those who use citation data are less likely to understand their limitations. - The sole reliance on citation data provides at best an incomplete and often shallow understanding of research - an understanding that is valid only when reinforced by other judgments. Numbers are not inherently superior to sound judgments.
    Using citation data to assess research ultimately means using citation-based statistics to rank things.journals, papers, people, programs, and disciplines. The statistical tools used to rank these things are often misunderstood and misused. - For journals, the impact factor is most often used for ranking. This is a simple average derived from the distribution of citations for a collection of articles in the journal. The average captures only a small amount of information about that distribution, and it is a rather crude statistic. In addition, there are many confounding factors when judging journals by citations, and any comparison of journals requires caution when using impact factors. Using the impact factor alone to judge a journal is like using weight alone to judge a person's health. - For papers, instead of relying on the actual count of citations to compare individual papers, people frequently substitute the impact factor of the journals in which the papers appear. They believe that higher impact factors must mean higher citation counts. But this is often not the case! This is a pervasive misuse of statistics that needs to be challenged whenever and wherever it occurs. -For individual scientists, complete citation records can be difficult to compare. As a consequence, there have been attempts to find simple statistics that capture the full complexity of a scientist's citation record with a single number. The most notable of these is the h-index, which seems to be gaining in popularity. But even a casual inspection of the h-index and its variants shows that these are naive attempts to understand complicated citation records. While they capture a small amount of information about the distribution of a scientist's citations, they lose crucial information that is essential for the assessment of research.
    The validity of statistics such as the impact factor and h-index is neither well understood nor well studied. The connection of these statistics with research quality is sometimes established on the basis of "experience." The justification for relying on them is that they are "readily available." The few studies of these statistics that were done focused narrowly on showing a correlation with some other measure of quality rather than on determining how one can best derive useful information from citation data. We do not dismiss citation statistics as a tool for assessing the quality of research.citation data and statistics can provide some valuable information. We recognize that assessment must be practical, and for this reason easily-derived citation statistics almost surely will be part of the process. But citation data provide only a limited and incomplete view of research quality, and the statistics derived from citation data are sometimes poorly understood and misused. Research is too important to measure its value with only a single coarse tool. We hope those involved in assessment will read both the commentary and the details of this report in order to understand not only the limitations of citation statistics but also how better to use them. If we set high standards for the conduct of science, surely we should set equally high standards for assessing its quality.
  18. Knowledge graphs : new directions for knowledge representation on the Semantic Web (2019) 0.00
    7.196534E-4 = product of:
      0.0028786135 = sum of:
        0.0028786135 = product of:
          0.00863584 = sum of:
            0.00863584 = weight(_text_:a in 51) [ClassicSimilarity], result of:
              0.00863584 = score(doc=51,freq=12.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15602624 = fieldWeight in 51, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=51)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    The increasingly pervasive nature of the Web, expanding to devices and things in everydaylife, along with new trends in Artificial Intelligence call for new paradigms and a new look onKnowledge Representation and Processing at scale for the Semantic Web. The emerging, but stillto be concretely shaped concept of "Knowledge Graphs" provides an excellent unifying metaphorfor this current status of Semantic Web research. More than two decades of Semantic Webresearch provides a solid basis and a promising technology and standards stack to interlink data,ontologies and knowledge on the Web. However, neither are applications for Knowledge Graphsas such limited to Linked Open Data, nor are instantiations of Knowledge Graphs in enterprises- while often inspired by - limited to the core Semantic Web stack. This report documents theprogram and the outcomes of Dagstuhl Seminar 18371 "Knowledge Graphs: New Directions forKnowledge Representation on the Semantic Web", where a group of experts from academia andindustry discussed fundamental questions around these topics for a week in early September 2018,including the following: what are knowledge graphs? Which applications do we see to emerge?Which open research questions still need be addressed and which technology gaps still need tobe closed?
    Editor
    Polleres, A.
  19. De Rosa, C.; Cantrell, J.; Cellentani, D.; Hawk, J.; Jenkins, L.; Wilson, A.: Perceptions of libraries and information resources : A Report to the OCLC Membership (2005) 0.00
    7.051135E-4 = product of:
      0.002820454 = sum of:
        0.002820454 = product of:
          0.008461362 = sum of:
            0.008461362 = weight(_text_:a in 5018) [ClassicSimilarity], result of:
              0.008461362 = score(doc=5018,freq=8.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 5018, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5018)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Summarizes findings of an international study on information-seeking habits and preferences: With extensive input from hundreds of librarians and OCLC staff, the OCLC Market Research team developed a project and commissioned Harris Interactive Inc. to survey a representative sample of information consumers. In June of 2005, we collected over 3,300 responses from information consumers in Australia, Canada, India, Singapore, the United Kingdom and the United States. The Perceptions report provides the findings and responses from the online survey in an effort to learn more about: * Library use * Awareness and use of library electronic resources * Free vs. for-fee information * The "Library" brand The findings indicate that information consumers view libraries as places to borrow print books, but they are unaware of the rich electronic content they can access through libraries. Even though information consumers make limited use of these resources, they continue to trust libraries as reliable sources of information.
  20. Euzenat, J.; Bach, T.Le; Barrasa, J.; Bouquet, P.; Bo, J.De; Dieng, R.; Ehrig, M.; Hauswirth, M.; Jarrar, M.; Lara, R.; Maynard, D.; Napoli, A.; Stamou, G.; Stuckenschmidt, H.; Shvaiko, P.; Tessaris, S.; Acker, S. Van; Zaihrayeu, I.: State of the art on ontology alignment (2004) 0.00
    7.051135E-4 = product of:
      0.002820454 = sum of:
        0.002820454 = product of:
          0.008461362 = sum of:
            0.008461362 = weight(_text_:a in 172) [ClassicSimilarity], result of:
              0.008461362 = score(doc=172,freq=18.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 172, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=172)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    In this document we provide an overall view of the state of the art in ontology alignment. It is organised as a description of the need for ontology alignment, a presentation of the techniques currently in use for ontology alignment and a presentation of existing systems. The state of the art is not restricted to any discipline and consider as some form of ontology alignment the work made on schema matching within the database area for instance. Heterogeneity problems on the semantic web can be solved, for some of them, by aligning heterogeneous ontologies. This is illustrated through a number of use cases of ontology alignment. Aligning ontologies consists of providing the corresponding entities in these ontologies. This process is precisely defined in deliverable D2.2.1. The current deliverable presents the many techniques currently used for implementing this process. These techniques are classified along the many features that can be found in ontologies (labels, structures, instances, semantics). They resort to many different disciplines such as statistics, machine learning or data analysis. The alignment itself is obtained by combining these techniques towards a particular goal (obtaining an alignment with particular features, optimising some criterion). Several combination techniques are also presented. Finally, these techniques have been experimented in various systems for ontology alignment or schema matching. Several such systems are presented briefly in the last section and characterized by the above techniques they rely on. The conclusion is that many techniques are available for achieving ontology alignment and many systems have been developed based on these techniques. However, few comparisons and few integration is actually provided by these implementations. This deliverable serves as a basis for considering further action along these two lines. It provide a first inventory of what should be evaluated and suggests what evaluation criterion can be used.
    Content
    This document is part of a research project funded by the IST Programme of the Commission of the European Communities as project number IST-2004-507482.

Years

Languages

  • e 16
  • d 10