Search (50 results, page 1 of 3)

  • × language_ss:"d"
  • × type_ss:"a"
  • × type_ss:"el"
  1. Weisbrod, D.: Pflichtablieferung von Dissertationen mit Forschungsdaten an die DNB : Anlagerungsformen und Datenmodell (2018) 0.02
    0.016182132 = product of:
      0.113274924 = sum of:
        0.113274924 = product of:
          0.22654985 = sum of:
            0.22654985 = weight(_text_:datenmodell in 4352) [ClassicSimilarity], result of:
              0.22654985 = score(doc=4352,freq=6.0), product of:
                0.25076616 = queryWeight, product of:
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.031870656 = queryNorm
                0.9034307 = fieldWeight in 4352, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4352)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Im Rahmen des DFG-Projektes "Elektronische Dissertationen Plus" (eDissPlus) entwickeln die Humboldt-Universität zu Berlin (HU) und die Deutsche Nationalbibliothek (DNB) Lösungen für eine zeitgemäße Archivierung und Publikation von Forschungsdaten, die im Zusammenhang mit Promotionsvorhaben entstehen. Dabei müssen die unterschiedlichen Anlagerungsformen von Forschungsdaten an eine Dissertation berücksichtigt und in einem Datenmodell abgebildet sowie das von der DNB verwendete Metadatenschema XMetaDissPlus überarbeitet werden. Das ist notwendig, um die Relationen zwischen der Dissertation und den abgelieferten Forschungsdaten-Supplementen sowie den Daten, die auf externen Repositorien verbleiben sollen, nachzuweisen und im Katalog der DNB recherchierbar zu machen. Dieser Beitrag stellt das Datenmodell und die Änderungen im Metadatenschema vor.
  2. Hoppe, T.: Semantische Filterung : ein Werkzeug zur Steigerung der Effizienz im Wissensmanagement (2013) 0.01
    0.014129606 = product of:
      0.09890724 = sum of:
        0.09890724 = weight(_text_:semantisches in 2245) [ClassicSimilarity], result of:
          0.09890724 = score(doc=2245,freq=2.0), product of:
            0.18884785 = queryWeight, product of:
              5.925446 = idf(docFreq=320, maxDocs=44218)
              0.031870656 = queryNorm
            0.52374035 = fieldWeight in 2245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.925446 = idf(docFreq=320, maxDocs=44218)
              0.0625 = fieldNorm(doc=2245)
      0.14285715 = coord(1/7)
    
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  3. Hunger, M.; Neubauer, P.: ¬Die vernetzte Welt : Abfragesprachen für Graphendatenbanken (2013) 0.01
    0.009342757 = product of:
      0.0653993 = sum of:
        0.0653993 = product of:
          0.1307986 = sum of:
            0.1307986 = weight(_text_:datenmodell in 1101) [ClassicSimilarity], result of:
              0.1307986 = score(doc=1101,freq=2.0), product of:
                0.25076616 = queryWeight, product of:
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.031870656 = queryNorm
                0.5215959 = fieldWeight in 1101, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1101)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Graphendatenbanken sind darauf optimiert, stark miteinander vernetzte Informationen effizient zu speichern und greifbar zu machen. Welchen Ansprüchen müssen Abfragesprachen genügen, damit sie für die Arbeit mit diesen Datenbanken geeignet sind? Bei der Aufarbeitung realer Informationen zeigt sich, dass ein hoher, aber unterschätzter Wert in den Beziehungen zwischen Elementen steckt. Seien es Ereignisse aus Geschichte und Politik, Personen in realen und virtuellen sozialen Netzen, Proteine und Gene, Abhängigkeiten in Märkten und Ökonomien oder Rechnernetze, Computer, Software und Anwender - alles ist miteinander verbunden. Der Graph ist ein Datenmodell, das solche Verbindungsgeflechte abbilden kann. Leider lässt sich das Modell mit relationalen und Aggregat-orientierten NoSQL-Datenbanken ab einer gewissen Komplexität jedoch schwer handhaben. Graphendatenbanken sind dagegen darauf optimiert, solche stark miteinander vernetzten Informationen effizient zu speichern und greifbar zu machen. Auch komplexe Fragen lassen sich durch ausgefeilte Abfragen schnell beantworten. Hierbei kommt es auf die geeignete Abfragesprache an.
  4. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.01
    0.008831004 = product of:
      0.061817024 = sum of:
        0.061817024 = weight(_text_:semantisches in 4599) [ClassicSimilarity], result of:
          0.061817024 = score(doc=4599,freq=2.0), product of:
            0.18884785 = queryWeight, product of:
              5.925446 = idf(docFreq=320, maxDocs=44218)
              0.031870656 = queryNorm
            0.3273377 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.925446 = idf(docFreq=320, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
      0.14285715 = coord(1/7)
    
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  5. Bach, N.: ¬Die nächste PID-Evolution : selbstsouverän, datenschutzfreundlich, dezentral (2021) 0.01
    0.0077856313 = product of:
      0.054499418 = sum of:
        0.054499418 = product of:
          0.108998835 = sum of:
            0.108998835 = weight(_text_:datenmodell in 539) [ClassicSimilarity], result of:
              0.108998835 = score(doc=539,freq=2.0), product of:
                0.25076616 = queryWeight, product of:
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.031870656 = queryNorm
                0.43466327 = fieldWeight in 539, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=539)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Dieser Beitrag behandelt den zuletzt vom W3C hervorgebrachten Standard für dezentrale Identi­fikatoren (Decentralized Identifiers, kurz: DIDs) in Bezug auf den Bereich des Forschungsdatenmanagements. Es wird dargelegt, dass die aktuell im wissenschaftlichen Publikationswesen häufig verwendeten persistenten Identifikatorensysteme (Persistent Identifiers, PIDs) wie Handle, DOI, ORCID und ROR aufgrund ihrer Zentralisierung fundamentale Probleme hinsichtlich der Daten­sicherheit, dem Datenschutz und bei der Sicherstellung der Datenintegrität aufweisen. Dem werden als mögliche Lösung das System der DIDs gegenübergestellt: eine neuartige Form von weltweit eindeutigen Identifikatoren, die durch jedes Individuum oder jede Organisation selbst generiert und auf jeder als vertrauenswürdig erachteten Plattform betrieben werden können. Blockchains oder andere Distributed-Legder-Technologien können dabei als vertrauenswürdige Datenregister fungieren, aber auch direkte Peer-to-Peer-Verbindungen, auf bestehende Internetprotokolle aufsetzende Methoden oder statische DIDs sind möglich. Neben dem Schema wird die technische Spezifikation im Sinne von Datenmodell und die Anwendung von DIDs erläutert sowie im Vergleich die Unterschiede zu zentralisierten PID-Systemen herausgestellt. Zuletzt wird der Zusammenhang mit dem zugrundeliegenden neuen Paradigma einer dezentralen Identität, der Self-Sovereign Identity, hergestellt. SSI repräsentiert ein gesamtes Ökosystem, in dem Entitäten ein kryptografisch gesichertes Vertrauensnetzwerk auf der Basis von DIDs und digitalen Identitätsnachweisen bilden, um dezentral manipulationsgesichert und datenschutzgerecht identitätsbezogene Daten auszutauschen. Zum Schluss der Abhandlung stellt der Autor fünf zuvor herausgearbeitete Anforderungen in Bezug auf eine zeitgemäße Umsetzung von persistenten Identifikatoren vor.
  6. Söhler, M.: Schluss mit Schema F (2011) 0.01
    0.007064803 = product of:
      0.04945362 = sum of:
        0.04945362 = weight(_text_:semantisches in 4439) [ClassicSimilarity], result of:
          0.04945362 = score(doc=4439,freq=2.0), product of:
            0.18884785 = queryWeight, product of:
              5.925446 = idf(docFreq=320, maxDocs=44218)
              0.031870656 = queryNorm
            0.26187018 = fieldWeight in 4439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.925446 = idf(docFreq=320, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
      0.14285715 = coord(1/7)
    
    Content
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
  7. Balzer, D.; Fischer, B.K.; Kett, J.; Laux, S.; Lill, J.M.; Lindenthal, J.; Manecke, M.; Rosenkötter, M.; Vitzthum, A.: ¬Das Projekt "GND für Kulturdaten"; (GND4C) (2019) 0.01
    0.006228505 = product of:
      0.043599535 = sum of:
        0.043599535 = product of:
          0.08719907 = sum of:
            0.08719907 = weight(_text_:datenmodell in 5721) [ClassicSimilarity], result of:
              0.08719907 = score(doc=5721,freq=2.0), product of:
                0.25076616 = queryWeight, product of:
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.031870656 = queryNorm
                0.3477306 = fieldWeight in 5721, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5721)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Der erste Teil des Beitrags erläutert Ziel und Vorgehensweise des Projektes in vier thematischen Schwerpunkten: Organisationsstruktur des GND­Netzwerks, Datenmodell und Regelwerk der GND, technische Infrastruktur sowie Erfordernisse eines Dialogs über die Grenzen der Bibliothekswelt hinaus. Der zweite Teil beschreibt die Bedingungen und Erfordernisse für die Integration von Normdaten für Personen und Sachbegriffe in die GND, soweit diese nicht durch die Erschließungsarbeit der Bibliotheken vorgegeben sind. Daraufhin werden die Möglichkeiten des bestehenden Datenmodells und der bisher geltenden Regeln hinsichtlich ihres Anpassungspotenzials für historische Geografika sowie Bauwerke untersucht. Als ortsgebundene Entitäten haben Bauwerke Eigenschaften mit natürlichen Geografika gemeinsam, teilen als künstliche Objekte aber auch Eigenschaften der von Menschen geschaffenen Werke. Diese Dualität ortsgebundender Objekte gilt es, in der GND darstellbar zu machen. Im letzten Beitragsteil wird erläutert, warum es nur einen geringen Bedarf an einer konzeptionellen Änderung des Basisdatenmodells der GND gibt. Allerdings werden auch spezifische Eigenschaften identifiziert, die für Objekte aus Museen oder Archiven relevant sind und nicht vom aktuellen GND­Datenmodell abgedeckt werden. Diese zusätzlichen Anforderungen werden durch die Spezifikation von CORE­ und PLUS­Bereichen erfüllt. Das CORE­PLUS­Modell unterscheidet zwischen Minimalanforderungen an einen Normdatensatz in einem CORE­Modell und zusätzlichen Regeln für einen jeweils community­spezifischen PLUS­Bereich. Ausblick und Fazit zeigen die noch offenen Fragen auf, deren Lösung in der zweiten Hälfte der Projektlaufzeit ansteht.
  8. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.01
    0.006181703 = product of:
      0.043271918 = sum of:
        0.043271918 = weight(_text_:semantisches in 4440) [ClassicSimilarity], result of:
          0.043271918 = score(doc=4440,freq=2.0), product of:
            0.18884785 = queryWeight, product of:
              5.925446 = idf(docFreq=320, maxDocs=44218)
              0.031870656 = queryNorm
            0.2291364 = fieldWeight in 4440, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.925446 = idf(docFreq=320, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
      0.14285715 = coord(1/7)
    
    Content
    - Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
  9. Schmid, F.: »Information« ist Syntax, nicht Sinn : Quasisakrale Weltformel (2019) 0.01
    0.0052986024 = product of:
      0.037090216 = sum of:
        0.037090216 = weight(_text_:semantisches in 5289) [ClassicSimilarity], result of:
          0.037090216 = score(doc=5289,freq=2.0), product of:
            0.18884785 = queryWeight, product of:
              5.925446 = idf(docFreq=320, maxDocs=44218)
              0.031870656 = queryNorm
            0.19640264 = fieldWeight in 5289, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.925446 = idf(docFreq=320, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5289)
      0.14285715 = coord(1/7)
    
    Content
    Doch obwohl das in der Science-Fiction schon tausendmal durchgespielt wurde, gibt es noch immer keinen Computer, der Menschen imitieren kann. Die Rechnerleistungen werden zwar immer größer, aber »dennoch sind die Computer so dumm wie zuvor (.) Sie prozessieren Informationen anhand einer bestimmten und von Menschen eingegebenen Syntax. Mit der Bedeutung, der Semantik, den Ergebnissen können sie nichts anfangen«, schreibt Feustel. Das klassische Beispiel ist der Android Data in der Serie »Star Trek«, der keine Witze versteht, so sehr er sich auch müht - so setzte die Kulturindustrie vor 30 Jahren diesen Vorbehalt in Szene. Heute überwiegen hingegen Plots wie im Film »Lucy« von Luc Besson, in dem Mensch und Maschine als zwei Arten von Informationsflüssen prinzipiell kompatibel sind. Angesichts von Big-Data-Strömen und den »Deep Learning«-Prozessen der viel beschworenen Algorithmen wird allenthalben die Hoffnung - oder Befürchtung - artikuliert, es könne plötzlich eine selbstständige Intelligenz im Netz entstehen, die eben nicht mehr nur syntaktisch verarbeitet, sondern »semantisches« Bewusstsein entwickelt. Die Information könne quasi lebendig werden und als Geist aus der Flasche steigen.
  10. Wolchover, N.: Wie ein Aufsehen erregender Beweis kaum Beachtung fand (2017) 0.00
    0.004361873 = product of:
      0.03053311 = sum of:
        0.03053311 = product of:
          0.06106622 = sum of:
            0.06106622 = weight(_text_:22 in 3582) [ClassicSimilarity], result of:
              0.06106622 = score(doc=3582,freq=4.0), product of:
                0.11160561 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031870656 = queryNorm
                0.54716086 = fieldWeight in 3582, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3582)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 4.2017 10:42:05
    22. 4.2017 10:48:38
  11. Jaeger, L.: Wissenschaftler versus Wissenschaft (2020) 0.00
    0.0037011718 = product of:
      0.025908202 = sum of:
        0.025908202 = product of:
          0.051816404 = sum of:
            0.051816404 = weight(_text_:22 in 4156) [ClassicSimilarity], result of:
              0.051816404 = score(doc=4156,freq=2.0), product of:
                0.11160561 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031870656 = queryNorm
                0.46428138 = fieldWeight in 4156, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4156)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    2. 3.2020 14:08:22
  12. Wagner, E.: Über Impfstoffe zur digitalen Identität? (2020) 0.00
    0.00308431 = product of:
      0.02159017 = sum of:
        0.02159017 = product of:
          0.04318034 = sum of:
            0.04318034 = weight(_text_:22 in 5846) [ClassicSimilarity], result of:
              0.04318034 = score(doc=5846,freq=2.0), product of:
                0.11160561 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031870656 = queryNorm
                0.38690117 = fieldWeight in 5846, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5846)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    4. 5.2020 17:22:40
  13. Engel, B.: Corona-Gesundheitszertifikat als Exitstrategie (2020) 0.00
    0.00308431 = product of:
      0.02159017 = sum of:
        0.02159017 = product of:
          0.04318034 = sum of:
            0.04318034 = weight(_text_:22 in 5906) [ClassicSimilarity], result of:
              0.04318034 = score(doc=5906,freq=2.0), product of:
                0.11160561 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031870656 = queryNorm
                0.38690117 = fieldWeight in 5906, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5906)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    4. 5.2020 17:22:28
  14. Arndt, O.: Totale Telematik (2020) 0.00
    0.00308431 = product of:
      0.02159017 = sum of:
        0.02159017 = product of:
          0.04318034 = sum of:
            0.04318034 = weight(_text_:22 in 5907) [ClassicSimilarity], result of:
              0.04318034 = score(doc=5907,freq=2.0), product of:
                0.11160561 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031870656 = queryNorm
                0.38690117 = fieldWeight in 5907, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5907)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 6.2020 19:11:24
  15. Arndt, O.: Erosion der bürgerlichen Freiheiten (2020) 0.00
    0.00308431 = product of:
      0.02159017 = sum of:
        0.02159017 = product of:
          0.04318034 = sum of:
            0.04318034 = weight(_text_:22 in 82) [ClassicSimilarity], result of:
              0.04318034 = score(doc=82,freq=2.0), product of:
                0.11160561 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031870656 = queryNorm
                0.38690117 = fieldWeight in 82, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=82)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 6.2020 19:16:24
  16. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.00
    0.00308431 = product of:
      0.02159017 = sum of:
        0.02159017 = product of:
          0.04318034 = sum of:
            0.04318034 = weight(_text_:22 in 236) [ClassicSimilarity], result of:
              0.04318034 = score(doc=236,freq=2.0), product of:
                0.11160561 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031870656 = queryNorm
                0.38690117 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    7. 5.2021 22:10:24
  17. Eyert, F.: Mathematische Wissenschaftskommunikation in der digitalen Gesellschaft (2023) 0.00
    0.00308431 = product of:
      0.02159017 = sum of:
        0.02159017 = product of:
          0.04318034 = sum of:
            0.04318034 = weight(_text_:22 in 1001) [ClassicSimilarity], result of:
              0.04318034 = score(doc=1001,freq=2.0), product of:
                0.11160561 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031870656 = queryNorm
                0.38690117 = fieldWeight in 1001, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1001)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Source
    Mitteilungen der Deutschen Mathematiker-Vereinigung. 2023, H.1, S.22-25
  18. Scheven, E.: Geokoordinaten in Bibliotheksdaten : Grundlage für innovative Nachnutzung (2015) 0.00
    0.002467448 = product of:
      0.017272135 = sum of:
        0.017272135 = product of:
          0.03454427 = sum of:
            0.03454427 = weight(_text_:22 in 308) [ClassicSimilarity], result of:
              0.03454427 = score(doc=308,freq=2.0), product of:
                0.11160561 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031870656 = queryNorm
                0.30952093 = fieldWeight in 308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=308)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    16.11.2015 18:22:47
  19. Hartmann, F.: Paul Otlets Hypermedium : Dokumentation als Gegenidee zur Bibliothek (2015) 0.00
    0.002467448 = product of:
      0.017272135 = sum of:
        0.017272135 = product of:
          0.03454427 = sum of:
            0.03454427 = weight(_text_:22 in 1432) [ClassicSimilarity], result of:
              0.03454427 = score(doc=1432,freq=2.0), product of:
                0.11160561 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031870656 = queryNorm
                0.30952093 = fieldWeight in 1432, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1432)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 8.2016 15:58:46
  20. Schleim, S.: Warum die Wissenschaft nicht frei ist (2017) 0.00
    0.002467448 = product of:
      0.017272135 = sum of:
        0.017272135 = product of:
          0.03454427 = sum of:
            0.03454427 = weight(_text_:22 in 3882) [ClassicSimilarity], result of:
              0.03454427 = score(doc=3882,freq=2.0), product of:
                0.11160561 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031870656 = queryNorm
                0.30952093 = fieldWeight in 3882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3882)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    9.10.2017 15:48:22