Search (21 results, page 1 of 2)

  • × type_ss:"r"
  • × year_i:[2010 TO 2020}
  1. Deokattey, S.; Sharma, S.B.K.; Kumar, G.R.; Bhanumurthy, K.: Knowledge organization research : an overview (2015) 0.07
    0.06745145 = product of:
      0.1349029 = sum of:
        0.01699316 = weight(_text_:information in 2092) [ClassicSimilarity], result of:
          0.01699316 = score(doc=2092,freq=4.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.1920054 = fieldWeight in 2092, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2092)
        0.11790973 = sum of:
          0.07009536 = weight(_text_:organization in 2092) [ClassicSimilarity], result of:
            0.07009536 = score(doc=2092,freq=4.0), product of:
              0.17974974 = queryWeight, product of:
                3.5653565 = idf(docFreq=3399, maxDocs=44218)
                0.050415643 = queryNorm
              0.38996086 = fieldWeight in 2092, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5653565 = idf(docFreq=3399, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2092)
          0.047814365 = weight(_text_:22 in 2092) [ClassicSimilarity], result of:
            0.047814365 = score(doc=2092,freq=2.0), product of:
              0.17654699 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050415643 = queryNorm
              0.2708308 = fieldWeight in 2092, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2092)
      0.5 = coord(2/4)
    
    Abstract
    The object of this literature review is to provide a historical perspective of R and D work in the area of Knowledge Organization (KO). This overview/summarization will provide information on major areas of KO. Journal articles published in core areas of KO: (Classification, Indexing, Thesauri and Taxonomies, Internet and Subject approach to information in the electronic era and Ontologies will be predominantly covered in this literature review. Coverage in this overview may not be completely exhaustive, but it succinctly showcases major developments in the area of KO. This review is a good source of additional reading material on KO apart from prescribed reading material on KO
    Date
    22. 6.2015 16:13:38
  2. Riva, P.; Boeuf, P. le; Zumer, M.: IFLA Library Reference Model : a conceptual model for bibliographic information (2017) 0.04
    0.04473507 = product of:
      0.08947014 = sum of:
        0.012015978 = weight(_text_:information in 5179) [ClassicSimilarity], result of:
          0.012015978 = score(doc=5179,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.13576832 = fieldWeight in 5179, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5179)
        0.077454165 = weight(_text_:standards in 5179) [ClassicSimilarity], result of:
          0.077454165 = score(doc=5179,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.34469998 = fieldWeight in 5179, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5179)
      0.5 = coord(2/4)
    
    Abstract
    Definition of a conceptual reference model to provide a framework for the analysis of non-administrative metadata relating to library resources. The resulting model definition was approved by the FRBR Review Group (November 2016), and then made available to the Standing Committees of the Sections on Cataloguing and Subject Analysis & Access, as well as to the ISBD Review Group, for comment in December 2016. The final document was approved by the IFLACommittee on Standards (August 2017).
  3. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.04
    0.03624504 = product of:
      0.07249008 = sum of:
        0.017165681 = weight(_text_:information in 4063) [ClassicSimilarity], result of:
          0.017165681 = score(doc=4063,freq=8.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.19395474 = fieldWeight in 4063, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.0553244 = weight(_text_:standards in 4063) [ClassicSimilarity], result of:
          0.0553244 = score(doc=4063,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.24621427 = fieldWeight in 4063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.5 = coord(2/4)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
    RSWK
    Suchmaschine / Semantic Web / Information Retrieval
    Suchmaschine / Information Retrieval / Ranking / Datenstruktur / Kontextbezogenes System
    Subject
    Suchmaschine / Semantic Web / Information Retrieval
    Suchmaschine / Information Retrieval / Ranking / Datenstruktur / Kontextbezogenes System
  4. Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur (2011) 0.04
    0.03620048 = product of:
      0.07240096 = sum of:
        0.0553244 = weight(_text_:standards in 4291) [ClassicSimilarity], result of:
          0.0553244 = score(doc=4291,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.24621427 = fieldWeight in 4291, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
        0.01707656 = product of:
          0.03415312 = sum of:
            0.03415312 = weight(_text_:22 in 4291) [ClassicSimilarity], result of:
              0.03415312 = score(doc=4291,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.19345059 = fieldWeight in 4291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4291)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    "Empfehlungen zur Optimierung der Informationsinfrastruktur Verbundübergreifende Entwicklung bedarfsorientierter Services Angestrebt werden sollten stringente, verbundübergreifende arbeitsteilige Strukturen bei Betrieb und Entwicklung der gegenwärtigen wie der zukünftigen Dienste, um unnötige Mehrfacharbeit zu vermeiden und die Durchsetzung einheitlicher Standards zu erleichtern. Das ist technisch machbar und organisatorisch auch im föderalen Umfeld denkbar wie andere Beispiele (z.B. DFN) zeigen. Einführung neuer Steuerungsmechanismen Das derzeitige Finanzvolumen der Länder für Informationsservices (Finanzzuweisung an Verbundzentralen) muss erhalten bleiben und weiterhin die den bisherigen Regelungen entsprechenden Steigerungen erfahren. Gleichzeitig müssen behutsam, aber konsequent neue Steuerungsmechanismen eingeführt werden, die die Verbünde im höheren Maße als bisher in die Lage versetzen, neue Entwicklungen bedarfsorientiert aufzugreifen und verlässliche Dienste aufzubauen. Zur Steuerung sollten Aufsichtsgremien im Sinne von "Beiräten" vergleichbar den Beiräten der Informationsdienstleister in der WGL eingesetzt werden. Wege zu einer Neuausrichtung der Verbünde Neben den empfohlenen politisch-administrativen Maßnahmen erscheint ein attraktiv dimensioniertes Förderprogramm der DFG zur "Neuausrichtung überregionaler Informationsservices" und "Weiterentwicklung der Bibliotheksverbünde als Teil der überregionalen Informationsinfrastruktur" [Arbeitstitel] geeignet, den notwendigen Strukturwandel hin zu einem arbeitsteiligen, verbundübergreifenden Diensteangebot anzustoßen und zu koordinieren."
    Date
    7. 2.2011 19:52:22
  5. Razum, M.; Schwichtenberg, F.: Metadatenkonzept für dynamische Daten : BW-eLabs Report (2012) 0.03
    0.026984949 = product of:
      0.053969897 = sum of:
        0.009710376 = weight(_text_:information in 994) [ClassicSimilarity], result of:
          0.009710376 = score(doc=994,freq=4.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.10971737 = fieldWeight in 994, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=994)
        0.044259522 = weight(_text_:standards in 994) [ClassicSimilarity], result of:
          0.044259522 = score(doc=994,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.19697142 = fieldWeight in 994, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.03125 = fieldNorm(doc=994)
      0.5 = coord(2/4)
    
    Abstract
    1.2. Metadaten - Metadaten sind ein entscheidender Faktor für die Archivierung, Publikation und Nachnutzung von Forschungsdaten. Nur hinreichend beschriebene Daten können durch Wissenschaftler verstanden und korrekt eingeordnet werden. Erst derartig beschriebene Daten lassen sich sinnvoll veröffentlichen und zitieren. Zusätzlich erlauben geeignete Metadaten das Browsen und Suchen in den Forschungsdaten. Deshalb ist die Definition und Verwendung geeigneter Metadaten-Modelle, die die Daten auf dem richtigen Level beschreiben, von außerordentlicher Bedeutung. Allerdings sind Metadaten, gerade im Bereich von Forschungsdaten, außerordentlich fach- und anwendungsspezifisch. Es gibt bisher nur wenige übergreifende Standards auf diesem Gebiet. Auch die in BW-eLabs vertretenen Disziplinen Materialwissenschaften und Technische Optik bauen auf sehr unterschiedlichen fachlichen Metadatenprofilen auf. Beide verwenden aber ein sehr vergleichbares Vorgehen bei der Beschreibung der kontextuellen Information, also dem Umfeld, in dem Versuchsdaten im Labor entstehen. Dieser Report beschreibt ein für das Projekt BW-eLabs geeignetes Metadaten-Modell für diese kontextuellen Informationen.
    1.3. Beziehung zur Beschreibung statischer Daten - Neben dynamischen Daten arbeitet das Projekt BW-eLabs auch mit sogenannten "statischen Daten", unter denen vor allem Publikationen zu verstehen sind. Auch hierfür sind Metadaten vorzusehen. Das dafür notwendige Konzept beschreibt ein eigener Report. Publikationen enthalten heute vielfach bereits Verweise auf Datenobjekte bzw. Messwerte. Momentan oftmals noch als sogenannte "supporting information" von Verlagen an die Publikation angehängt, ist es ein Ziel von BW-eLabs (und anderen Projekten), die dabei auftretenden Beschränkungen hinsichtlich Umfang und Nachnutzbarkeit zu umgehen und die Daten nur noch über Verweise (z.B. anhand von Persistent Identifiern) aus der Publikation heraus zu verknüpfen. Damit werden die Datenobjekte eigenständige Entitäten, die einen eigenen Publikationsverlauf nehmen.
  6. British Library / FAST/Dewey Review Group: Consultation on subject indexing and classification standards applied by the British Library (2015) 0.02
    0.023472156 = product of:
      0.093888626 = sum of:
        0.093888626 = weight(_text_:standards in 2810) [ClassicSimilarity], result of:
          0.093888626 = score(doc=2810,freq=4.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.41783947 = fieldWeight in 2810, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.046875 = fieldNorm(doc=2810)
      0.25 = coord(1/4)
    
    Content
    The Library is consulting with stakeholders concerning the potential impact of these proposals. No firm decisions have yet been taken regarding either of these standards. FAST 1. The British Library proposes to adopt FAST selectively to extend the scope of subject indexing of current and legacy content. 2. The British Library proposes to implement FAST as a replacement for LCSH in all current cataloguing, subject to mitigation of the risks identified above, in particular the question of sustainability. DDC 3. The British Library proposes to implement Abridged DDC selectively to extend the scope of subject indexing of current and legacy content.
  7. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.02
    0.019363541 = product of:
      0.077454165 = sum of:
        0.077454165 = weight(_text_:standards in 4782) [ClassicSimilarity], result of:
          0.077454165 = score(doc=4782,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.34469998 = fieldWeight in 4782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
  8. Knowledge graphs : new directions for knowledge representation on the Semantic Web (2019) 0.01
    0.0138311 = product of:
      0.0553244 = sum of:
        0.0553244 = weight(_text_:standards in 51) [ClassicSimilarity], result of:
          0.0553244 = score(doc=51,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.24621427 = fieldWeight in 51, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0390625 = fieldNorm(doc=51)
      0.25 = coord(1/4)
    
    Abstract
    The increasingly pervasive nature of the Web, expanding to devices and things in everydaylife, along with new trends in Artificial Intelligence call for new paradigms and a new look onKnowledge Representation and Processing at scale for the Semantic Web. The emerging, but stillto be concretely shaped concept of "Knowledge Graphs" provides an excellent unifying metaphorfor this current status of Semantic Web research. More than two decades of Semantic Webresearch provides a solid basis and a promising technology and standards stack to interlink data,ontologies and knowledge on the Web. However, neither are applications for Knowledge Graphsas such limited to Linked Open Data, nor are instantiations of Knowledge Graphs in enterprises- while often inspired by - limited to the core Semantic Web stack. This report documents theprogram and the outcomes of Dagstuhl Seminar 18371 "Knowledge Graphs: New Directions forKnowledge Representation on the Semantic Web", where a group of experts from academia andindustry discussed fundamental questions around these topics for a week in early September 2018,including the following: what are knowledge graphs? Which applications do we see to emerge?Which open research questions still need be addressed and which technology gaps still need tobe closed?
  9. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.01
    0.013692091 = product of:
      0.054768365 = sum of:
        0.054768365 = weight(_text_:standards in 318) [ClassicSimilarity], result of:
          0.054768365 = score(doc=318,freq=4.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.2437397 = fieldWeight in 318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.25 = coord(1/4)
    
    Abstract
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Content
    Vgl. auch die GND-Modellierung unter: http://d-nb.info/standards/elementset/gnd#.
  10. Nentwig, L.: Semantische Interoperabilität : Bd.3: Qualitätssicherung von Spezifikationen (2010) 0.01
    0.0110648805 = product of:
      0.044259522 = sum of:
        0.044259522 = weight(_text_:standards in 4849) [ClassicSimilarity], result of:
          0.044259522 = score(doc=4849,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.19697142 = fieldWeight in 4849, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.03125 = fieldNorm(doc=4849)
      0.25 = coord(1/4)
    
    Abstract
    Das SIE-Vorgehen ist für viele Umfelder geeignet: Sowohl Unternehmen mit internen Spezifikationsaktivitäten als auch Organisationen, die Standards entwickeln, können wesentlich vom SIE profitieren. Ein zentraler Aspekt ist, dass das beschriebene Vorgehen auf eine gemeinschaftliche Entwicklung von Spezifikationen durch eine offene1 und gleichberechtigte Community ausgerichtet ist. »Community« bezeichnet die Gesamtheit aller an der Entwicklung einer Spezifikation beteiligten Personen und Organisationen. Die einzelnen beteiligten Personen und Organisationen werden wiederum durch verschiedene Rollen beschrieben. Durch ihre jeweiligen Sichten ergänzen sich ihre Beiträge und tragen so zur Steigerung der Qualität bei. Durch die aktive und kontinuierliche Einbindung der Community sowie den integrierten Qualitätsmanagementprozess werden die Risiken eines Scheiterns reduziert und gleichzeitig die Chancen auf eine qualitativ hochwertige, akzeptierte und nutzbare Spezifikation deutlich gesteigert. Dem SIE-Vorgehen liegen drei Stützpfeiler als Richtlinie zugrunde, welche von der Community unbedingt eingehalten und verinnerlicht werden sollten: Kooperation - Vertrauen - Offenheit.
  11. Hochschule im digitalen Zeitalter : Informationskompetenz neu begreifen - Prozesse anders steuern (2012) 0.01
    0.01026376 = product of:
      0.02052752 = sum of:
        0.006866273 = weight(_text_:information in 506) [ClassicSimilarity], result of:
          0.006866273 = score(doc=506,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 506, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.013661247 = product of:
          0.027322493 = sum of:
            0.027322493 = weight(_text_:22 in 506) [ClassicSimilarity], result of:
              0.027322493 = score(doc=506,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.15476047 = fieldWeight in 506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    8.12.2012 17:22:26
    Theme
    Information
  12. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.00853828 = product of:
      0.03415312 = sum of:
        0.03415312 = product of:
          0.06830624 = sum of:
            0.06830624 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.06830624 = score(doc=5576,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    13.12.2017 14:17:22
  13. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.01
    0.0068306234 = product of:
      0.027322493 = sum of:
        0.027322493 = product of:
          0.054644987 = sum of:
            0.054644987 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.054644987 = score(doc=1484,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    13. 9.2014 14:45:22
  14. Arbeitsgruppe Forschungsdaten: Forschungsdatenmanagement : eine Handreichung (2018) 0.01
    0.006007989 = product of:
      0.024031956 = sum of:
        0.024031956 = weight(_text_:information in 4174) [ClassicSimilarity], result of:
          0.024031956 = score(doc=4174,freq=8.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.27153665 = fieldWeight in 4174, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4174)
      0.25 = coord(1/4)
    
    Abstract
    Diese Handreichung soll als Einstieg für Wissenschaftlerinnen und Wissenschaftler, die mit digitalen Daten arbeiten, sowie für alle an dieser Thematik Interessierten dienen und bietet darüber hinaus Hinweise zu weiterführender Information. Sie wurde von der Arbeitsgruppe "Forschungsdaten" der Schwerpunktinitiative "Digitale Information" der Allianz der deutschen Wissenschaftsorganisationen verfasst. Mit dieser Publikation, die als Einstieg für Wissenschaftlerinnen und Wissenschaftler, die mit digitalen Daten arbeiten, sowie für alle an dieser Thematik Interessierten dienen soll, ergänzt die AG Forschungsdaten die Serie von Handreichungen zu den verschiedenen Themenfeldern der Schwerpunktinitiative "Digitale Information" der Allianz der deutschen Wissenschaftsorganisationen. Neben grundlegenden Hinweisen zum Forschungsdatenmanagement bietet sie Hinweise zu weiterführender Information. Online-Version unter der Creative-Commons-Lizenz "Namensnennung" (CC-BY).
  15. Eckert, K: ¬The ICE-map visualization (2011) 0.01
    0.005946367 = product of:
      0.023785468 = sum of:
        0.023785468 = weight(_text_:information in 4743) [ClassicSimilarity], result of:
          0.023785468 = score(doc=4743,freq=6.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.2687516 = fieldWeight in 4743, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=4743)
      0.25 = coord(1/4)
    
    Abstract
    In this paper, we describe in detail the Information Content Evaluation Map (ICE-Map Visualization, formerly referred to as IC Difference Analysis). The ICE-Map Visualization is a visual data mining approach for all kinds of concept hierarchies that uses statistics about the concept usage to help a user in the evaluation and maintenance of the hierarchy. It consists of a statistical framework that employs the the notion of information content from information theory, as well as a visualization of the hierarchy and the result of the statistical analysis by means of a treemap.
  16. Förderung von Informationsinfrastrukturen für die Wissenschaft : Ein Positionspapier der Deutschen Forschungsgemeinschaft (2018) 0.00
    0.00426914 = product of:
      0.01707656 = sum of:
        0.01707656 = product of:
          0.03415312 = sum of:
            0.03415312 = weight(_text_:22 in 4178) [ClassicSimilarity], result of:
              0.03415312 = score(doc=4178,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.19345059 = fieldWeight in 4178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4178)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 3.2018 17:30:43
  17. Wehling, E.: Framing-Manual : Unser gemeinsamer freier Rundfunk ARD (2019) 0.00
    0.00426914 = product of:
      0.01707656 = sum of:
        0.01707656 = product of:
          0.03415312 = sum of:
            0.03415312 = weight(_text_:22 in 4997) [ClassicSimilarity], result of:
              0.03415312 = score(doc=4997,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.19345059 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 2.2019 9:26:20
  18. Kaytoue, M.; Kuznetsov, S.O.; Assaghir, Z.; Napoli, A.: Embedding tolerance relations in concept lattices : an application in information fusion (2010) 0.00
    0.0037164795 = product of:
      0.014865918 = sum of:
        0.014865918 = weight(_text_:information in 4843) [ClassicSimilarity], result of:
          0.014865918 = score(doc=4843,freq=6.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.16796975 = fieldWeight in 4843, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4843)
      0.25 = coord(1/4)
    
    Abstract
    Formal Concept Analysis (FCA) is a well founded mathematical framework used for conceptual classication and knowledge management. Given a binary table describing a relation between objects and attributes, FCA consists in building a set of concepts organized by a subsumption relation within a concept lattice. Accordingly, FCA requires to transform complex data, e.g. numbers, intervals, graphs, into binary data leading to loss of information and poor interpretability of object classes. In this paper, we propose a pre-processing method producing binary data from complex data taking advantage of similarity between objects. As a result, the concept lattice is composed of classes being maximal sets of pairwise similar objects. This method is based on FCA and on a formalization of similarity as a tolerance relation (reexive and symmetric). It applies to complex object descriptions and especially here to interval data. Moreover, it can be applied to any kind of structured data for which a similarity can be dened (sequences, graphs, etc.). Finally, an application highlights that the resulting concept lattice plays an important role in information fusion problem, as illustrated with a real-world example in agronomy.
  19. "Research Data Vision 2025" - ein Schritt näher : ein Diskussionspapier der Arbeitsgruppe Forschungsdaten (2018) 0.00
    0.0034331365 = product of:
      0.013732546 = sum of:
        0.013732546 = weight(_text_:information in 5755) [ClassicSimilarity], result of:
          0.013732546 = score(doc=5755,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.1551638 = fieldWeight in 5755, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=5755)
      0.25 = coord(1/4)
    
    Editor
    Schwerpunktinitiative "Digitale Information" der Allianz der deutschen Wissenschaftsorganisationen
  20. Gradmann, S.: Knowledge = Information in context : on the importance of semantic contextualisation in Europeana (2010) 0.00
    0.0034331365 = product of:
      0.013732546 = sum of:
        0.013732546 = weight(_text_:information in 3475) [ClassicSimilarity], result of:
          0.013732546 = score(doc=3475,freq=8.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.1551638 = fieldWeight in 3475, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=3475)
      0.25 = coord(1/4)
    
    Abstract
    "Europeana.eu is about ideas and inspiration. It links you to 6 million digital items." This is the opening statement taken from the Europeana WWW-site (http://www.europeana.eu/portal/aboutus.html), and it clearly is concerned with the mission of Europeana - without, however, being over-explicit as to the precise nature of that mission. Europeana's current logo, too, has a programmatic aspect: the slogan "Think Culture" clearly again is related to Europeana's mission and at same time seems somewhat closer to the point: 'thinking' culture evokes notions like conceptualisation, reasoning, semantics and the like. Still, all this remains fragmentary and insufficient to actually clarify the functional scope and mission of Europeana. In fact, the author of the present contribution is convinced that Europeana has too often been described in terms of sheer quantity, as a high volume aggregation of digital representations of cultural heritage objects without sufficiently stressing the functional aspects of this endeavour. This conviction motivates the present contribution on some of the essential functional aspects of Europeana making clear that such a contribution - even if its author is deeply involved in building Europeana - should not be read as an official statement of the project or of the European Commission (which it is not!) - but as the personal statement from an information science perspective! From this perspective the opening statement is that Europeana is much more than a machine for mechanical accumulation of object representations but that one of its main characteristics should be to enable the generation of knowledge pertaining to cultural artefacts. The rest of the paper is about the implications of this initial statement in terms of information science, on the way we technically prepare to implement the necessary data structures and functionality and on the novel functionality Europeana will offer based on these elements and which go well beyond the 'traditional' digital library paradigm. However, prior to exploring these areas it may be useful to recall the notion of 'knowledge' that forms the basis of this contribution and which in turn is part of the well known continuum reaching from data via information and knowledge to wisdom.