Search (48 results, page 1 of 3)

  • × language_ss:"d"
  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.12
    0.11975689 = product of:
      0.23951378 = sum of:
        0.059878446 = product of:
          0.17963533 = sum of:
            0.17963533 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.17963533 = score(doc=4388,freq=2.0), product of:
                0.38355064 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04524064 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.17963533 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.17963533 = score(doc=4388,freq=2.0), product of:
            0.38355064 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04524064 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(2/4)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  2. Hiemenz, B.M.; Kuberek, M.: Leitlinie? Grundsätze? Policy? Richtlinie? : Forschungsdaten-Policies an deutschen Universitäten (2018) 0.04
    0.037334666 = product of:
      0.14933866 = sum of:
        0.14933866 = weight(_text_:policy in 4346) [ClassicSimilarity], result of:
          0.14933866 = score(doc=4346,freq=6.0), product of:
            0.24257277 = queryWeight, product of:
              5.361833 = idf(docFreq=563, maxDocs=44218)
              0.04524064 = queryNorm
            0.6156448 = fieldWeight in 4346, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.361833 = idf(docFreq=563, maxDocs=44218)
              0.046875 = fieldNorm(doc=4346)
      0.25 = coord(1/4)
    
    Abstract
    Die Anzahl der Forschungsdaten-Policies an deutschen Universitäten ist seit 2014 deutlich gestiegen und die Kurve geht kontinuierlich nach oben. Eine Besonderheit der deutschen Policies ist auf den ersten Blick ersichtlich: Es gibt keine einheitliche Bezeichnung - verwendet werden "Leitlinie", "Grundsätze", "Policy", "Richtlinie". Auch zeigen die Policies deutliche Unterschiede auf, was Umfang und Inhalte angeht. Um die Forschungsdaten-Policies an deutschen Universitäten weiter zu befördern, entwickelt die Technische Universität Berlin seit August 2017 im BMBF-Projekt "Modalitäten und Entwicklung institutioneller Forschungsdaten-Policies" entsprechende Handlungsanleitungen. Ziel der ersten Projektphase ist die Konzeptionierung und Erstellung eines "Baukastens" für institutionelle Forschungsdaten-Policies ("Policy-Kit"). Als methodischer Ansatz werden ForschungsdatenPolicies deutscher Hochschulen gesammelt und evaluiert und mit internationalen Empfehlungen zu Forschungsdaten-Policies abgeglichen. Die Ergebnisse werden in diesem Artikel vorgestellt.
  3. Open Knowledge Foundation: Prinzipien zu offenen bibliographischen Daten (2011) 0.03
    0.029697016 = product of:
      0.11878806 = sum of:
        0.11878806 = sum of:
          0.075446084 = weight(_text_:bibliography in 4399) [ClassicSimilarity], result of:
            0.075446084 = score(doc=4399,freq=2.0), product of:
              0.248568 = queryWeight, product of:
                5.494352 = idf(docFreq=493, maxDocs=44218)
                0.04524064 = queryNorm
              0.3035229 = fieldWeight in 4399, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.494352 = idf(docFreq=493, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4399)
          0.043341983 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
            0.043341983 = score(doc=4399,freq=4.0), product of:
              0.15842502 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04524064 = queryNorm
              0.27358043 = fieldWeight in 4399, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4399)
      0.25 = coord(1/4)
    
    Date
    22. 3.2011 18:22:29
    Footnote
    Original unter: http://openbiblio.net/principles/ (Open Bibliography and Open Bibliographic Data)
  4. Winterhalter, C.: Licence to mine : ein Überblick über Rahmenbedingungen von Text and Data Mining und den aktuellen Stand der Diskussion (2016) 0.03
    0.028740238 = product of:
      0.11496095 = sum of:
        0.11496095 = weight(_text_:policy in 673) [ClassicSimilarity], result of:
          0.11496095 = score(doc=673,freq=2.0), product of:
            0.24257277 = queryWeight, product of:
              5.361833 = idf(docFreq=563, maxDocs=44218)
              0.04524064 = queryNorm
            0.47392356 = fieldWeight in 673, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.361833 = idf(docFreq=563, maxDocs=44218)
              0.0625 = fieldNorm(doc=673)
      0.25 = coord(1/4)
    
    Abstract
    Der Artikel gibt einen Überblick über die Möglichkeiten der Anwendung von Text and Data Mining (TDM) und ähnlichen Verfahren auf der Grundlage bestehender Regelungen in Lizenzverträgen zu kostenpflichtigen elektronischen Ressourcen, die Debatte über zusätzliche Lizenzen für TDM am Beispiel von Elseviers TDM Policy und den Stand der Diskussion über die Einführung von Schrankenregelungen im Urheberrecht für TDM zu nichtkommerziellen wissenschaftlichen Zwecken.
  5. Weisbrod, D.: Bausteine Forschungsdatenmanagement : Empfehlungen und Erfahrungsberichte für die Praxis von Forschungsdatenmanagerinnen und -managern (2018) 0.03
    0.025147708 = product of:
      0.10059083 = sum of:
        0.10059083 = weight(_text_:policy in 4447) [ClassicSimilarity], result of:
          0.10059083 = score(doc=4447,freq=2.0), product of:
            0.24257277 = queryWeight, product of:
              5.361833 = idf(docFreq=563, maxDocs=44218)
              0.04524064 = queryNorm
            0.4146831 = fieldWeight in 4447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.361833 = idf(docFreq=563, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4447)
      0.25 = coord(1/4)
    
    Abstract
    Die "Bausteine Forschungsdatenmanagement - Empfehlungen und Erfahrungsberichte für die Praxis von Forschungsdatenmanagerinnen und -managern" adressieren durch Überblicks-Artikel und Best Practice Beispiele Forschungsdatenmanagerinnen und -manager an Forschungsinstitutionen, aber auch Wissenschaftlerinnen und Wissenschaftler oder Verantwortliche in Informationsinfrastruktureinrichtungen wie Bibliotheken. Eine Unterarbeitsgruppe der DINI/nestor AG Forschungsdaten hat unter dem Link https://bausteine-fdm.de/index die ersten Handreichungen zu unterschiedlichen Themen des Forschungsdatenmanagements veröffentlicht. In der Reihe der Handreichungen, die nach und nach ergänzt werden soll, sind von Autorinnen und Autoren aus der Praxis zunächst folgende Bausteine erschienen: - Wissen vermitteln über den Umgang mit Forschungsdaten - Aufbau und Bekanntmachung von Informationsangeboten über Forschungsdatenmanagement für Forschende - Erstellung und Realisierung einer institutionellen Forschungsdaten-Policy - Beratungsangebote für Forschende - Lösungsansätze zu einer technischen Infrastruktur für Forschungsdatenmanagement
  6. Helbig, K.; Biernacka, K.; Buchholz, P.; Dolzycka, D.; Hartmann, N.; Hartmann, T.; Hiemenz, B.M.; Jacob, B.; Kuberek, M.; Weiß, N.; Dreyer, M.: Lösungen und Leitfäden für das institutionelle Forschungsdatenmanagement (2019) 0.02
    0.021555178 = product of:
      0.08622071 = sum of:
        0.08622071 = weight(_text_:policy in 5595) [ClassicSimilarity], result of:
          0.08622071 = score(doc=5595,freq=2.0), product of:
            0.24257277 = queryWeight, product of:
              5.361833 = idf(docFreq=563, maxDocs=44218)
              0.04524064 = queryNorm
            0.35544267 = fieldWeight in 5595, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.361833 = idf(docFreq=563, maxDocs=44218)
              0.046875 = fieldNorm(doc=5595)
      0.25 = coord(1/4)
    
    Abstract
    Hochschulen und deren Zentraleinrichtungen beschäftigen sich zunehmend mit dem Thema Forschungsdatenmanagement (FDM), um ihre Forschenden adäquat zu unterstützen. Nicht zuletzt aufgrund neuer Verlags- und Förderanforderungen wünschen sich Forschende Beratung und Orientierung, wie sie mit ihren Forschungsdaten umgehen sollen. Damit Hochschulen schnell und nachhaltig Lösungen zum institutionellen FDM etablieren können, haben fünf Berliner und Brandenburger Universitäten im gemeinsamen Verbundvorhaben FDMentor mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) entsprechende Leitfäden und Werkzeuge erarbeitet. Die innerhalb von zwei Jahren (2017-2019) entstandenen Ergebnisse in den Bereichen Strategieentwicklung, Forschungsdaten-Policy, rechtliche Aspekte und Kompetenzausbau finden über das Verbundprojekt hinaus ihre Anwendung.
  7. Wolchover, N.: Wie ein Aufsehen erregender Beweis kaum Beachtung fand (2017) 0.01
    0.010835496 = product of:
      0.043341983 = sum of:
        0.043341983 = product of:
          0.086683966 = sum of:
            0.086683966 = weight(_text_:22 in 3582) [ClassicSimilarity], result of:
              0.086683966 = score(doc=3582,freq=4.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.54716086 = fieldWeight in 3582, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3582)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 4.2017 10:42:05
    22. 4.2017 10:48:38
  8. Hafner, R.; Schelling, B.: Automatisierung der Sacherschließung mit Semantic Web Technologie (2015) 0.01
    0.010726594 = product of:
      0.042906377 = sum of:
        0.042906377 = product of:
          0.085812755 = sum of:
            0.085812755 = weight(_text_:22 in 8365) [ClassicSimilarity], result of:
              0.085812755 = score(doc=8365,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.5416616 = fieldWeight in 8365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=8365)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 6.2015 16:08:38
  9. Vorndran, A.: Hervorholen, was in unseren Daten steckt! : Mehrwerte durch Analysen großer Bibliotheksdatenbestände (2018) 0.01
    0.0094307605 = product of:
      0.037723042 = sum of:
        0.037723042 = product of:
          0.075446084 = sum of:
            0.075446084 = weight(_text_:bibliography in 4601) [ClassicSimilarity], result of:
              0.075446084 = score(doc=4601,freq=2.0), product of:
                0.248568 = queryWeight, product of:
                  5.494352 = idf(docFreq=493, maxDocs=44218)
                  0.04524064 = queryNorm
                0.3035229 = fieldWeight in 4601, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.494352 = idf(docFreq=493, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4601)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) verfolgt das Ziel, den unter Culturegraph.org verfügbaren großen Datenbestand von mehr als 160 Millionen Titeldaten deutschsprachiger Bibliotheksverbünde sowie der Deutschen Nationalbibliothek und der British National Bibliography über Analysen, Verknüpfungen und Auswertungen in größerem Umfang nutzbar zu machen. Der Beitrag gibt einen Überblick, welche Themenstellungen und Methoden bislang im Zentrum stehen. Dies ist einerseits die Bündelung von Werken, die erlaubt, mehrere Ausgaben, Auflagen oder Übersetzungen eines Werks zusammenzuführen. Inhaltserschließende Informationen wie Klassifikation oder verbale Erschließung, ebenso wie Normdatenverknüpfungen, können so auf alle Mitglieder eines Bündels übertragen werden, so dass ein Gewinn an Standardisierung und Erschließungstiefe zu erreichen ist. Andererseits können über bibliothekarische Daten hinaus auch externe Datenquellen zur Anreicherung herangezogen werden. Dies wird anhand eines Abgleichs von Personen in der Gemeinsamen Normdatei (GND) und der Datenbank Open Researcher and Contributor ID (ORCID) dargestellt. Unter Verwendung der Culturegraph-Titeldaten werden Personen mittels der von ihnen verfassten Publikationen abgeglichen und zusammengeführt. Abschließend werden einige statistische Auswertungen des Datenbestandes vorgestellt.
  10. Röthler, D.: "Lehrautomaten" oder die MOOC-Vision der späten 60er Jahre (2014) 0.01
    0.009194223 = product of:
      0.036776893 = sum of:
        0.036776893 = product of:
          0.073553786 = sum of:
            0.073553786 = weight(_text_:22 in 1552) [ClassicSimilarity], result of:
              0.073553786 = score(doc=1552,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.46428138 = fieldWeight in 1552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1552)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 6.2018 11:04:35
  11. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.007661853 = product of:
      0.030647412 = sum of:
        0.030647412 = product of:
          0.061294824 = sum of:
            0.061294824 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.061294824 = score(doc=5576,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    13.12.2017 14:17:22
  12. Schönherr, M.: Bestechend brillant : die Schönheit der Algorithmen (2016) 0.01
    0.007661853 = product of:
      0.030647412 = sum of:
        0.030647412 = product of:
          0.061294824 = sum of:
            0.061294824 = weight(_text_:22 in 2762) [ClassicSimilarity], result of:
              0.061294824 = score(doc=2762,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.38690117 = fieldWeight in 2762, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2762)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    10. 2.2016 17:22:23
  13. Häring, N.; Hensinger, P.: "Digitale Bildung" : Der abschüssige Weg zur Konditionierungsanstalt (2019) 0.01
    0.007661853 = product of:
      0.030647412 = sum of:
        0.030647412 = product of:
          0.061294824 = sum of:
            0.061294824 = weight(_text_:22 in 4999) [ClassicSimilarity], result of:
              0.061294824 = score(doc=4999,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.38690117 = fieldWeight in 4999, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4999)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 2.2019 11:45:19
  14. Hartmann, S.; Haffner, A.: Linked-RDA-Data in der Praxis (2010) 0.01
    0.0061294823 = product of:
      0.02451793 = sum of:
        0.02451793 = product of:
          0.04903586 = sum of:
            0.04903586 = weight(_text_:22 in 1679) [ClassicSimilarity], result of:
              0.04903586 = score(doc=1679,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.30952093 = fieldWeight in 1679, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1679)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    13. 2.2011 20:22:23
  15. Eckert, K.: SKOS: eine Sprache für die Übertragung von Thesauri ins Semantic Web (2011) 0.01
    0.0061294823 = product of:
      0.02451793 = sum of:
        0.02451793 = product of:
          0.04903586 = sum of:
            0.04903586 = weight(_text_:22 in 4331) [ClassicSimilarity], result of:
              0.04903586 = score(doc=4331,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.30952093 = fieldWeight in 4331, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4331)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    15. 3.2011 19:21:22
  16. Scheven, E.: Geokoordinaten in Bibliotheksdaten : Grundlage für innovative Nachnutzung (2015) 0.01
    0.0061294823 = product of:
      0.02451793 = sum of:
        0.02451793 = product of:
          0.04903586 = sum of:
            0.04903586 = weight(_text_:22 in 308) [ClassicSimilarity], result of:
              0.04903586 = score(doc=308,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.30952093 = fieldWeight in 308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=308)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    16.11.2015 18:22:47
  17. Hartmann, F.: Paul Otlets Hypermedium : Dokumentation als Gegenidee zur Bibliothek (2015) 0.01
    0.0061294823 = product of:
      0.02451793 = sum of:
        0.02451793 = product of:
          0.04903586 = sum of:
            0.04903586 = weight(_text_:22 in 1432) [ClassicSimilarity], result of:
              0.04903586 = score(doc=1432,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.30952093 = fieldWeight in 1432, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1432)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 8.2016 15:58:46
  18. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.01
    0.0061294823 = product of:
      0.02451793 = sum of:
        0.02451793 = product of:
          0.04903586 = sum of:
            0.04903586 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.04903586 = score(doc=1490,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 3.2015 9:30:24
  19. Schleim, S.: Warum die Wissenschaft nicht frei ist (2017) 0.01
    0.0061294823 = product of:
      0.02451793 = sum of:
        0.02451793 = product of:
          0.04903586 = sum of:
            0.04903586 = weight(_text_:22 in 3882) [ClassicSimilarity], result of:
              0.04903586 = score(doc=3882,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.30952093 = fieldWeight in 3882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3882)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    9.10.2017 15:48:22
  20. Rötzer, F.: Chinesischer Roboter besteht weltweit erstmals Zulassungsprüfung für Mediziner (2017) 0.01
    0.0061294823 = product of:
      0.02451793 = sum of:
        0.02451793 = product of:
          0.04903586 = sum of:
            0.04903586 = weight(_text_:22 in 3978) [ClassicSimilarity], result of:
              0.04903586 = score(doc=3978,freq=2.0), product of:
                0.15842502 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04524064 = queryNorm
                0.30952093 = fieldWeight in 3978, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3978)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Issue
    [22. November 2017].