Search (37 results, page 1 of 2)

  • × type_ss:"el"
  • × year_i:[2020 TO 2030}
  1. Gesellschaftliche Verantwortung und wirtschaftliche,soziale und ökologische Potenziale : Bericht der Enquete-Kommission Künstliche Intelligenz (2020) 0.04
    0.039819542 = product of:
      0.15927817 = sum of:
        0.15927817 = weight(_text_:soziale in 27) [ClassicSimilarity], result of:
          0.15927817 = score(doc=27,freq=4.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.57277864 = fieldWeight in 27, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
      0.25 = coord(1/4)
    
    Abstract
    Der Bundestag greift mit der Enquete-Kommission "Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale" eine der zentralen Debatten unserer Zeit auf. Die Enquete-Kommission, die sich zu gleichen Teilen aus Mitgliedern des Deutschen Bundestages und sachverständigen externen Expertinnen und Experten zusammensetzt, soll den zukünftigen Einfluss der Künstlichen Intelligenz (KI) auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt untersuchen. Erörtert werden sowohl die Chancen als auch die Herausforderungen der KI für Gesellschaft, Staat und Wirtschaft. Zur Diskussion stehen eine Vielzahl technischer, rechtlicher und ethischer Fragen. Zum Auftrag der Enquete-Kommission gehört, nach dem Einsetzungsbeschluss (19/2978) auf Basis ihrer Untersuchungsergebnisse den staatlichen Handlungsbedarf auf nationaler, europäischer und internationaler Ebene zu identifizieren und zu beschreiben, um einerseits die Chancen der KI wirtschaftlich und gesellschaftlich nutzbar zu machen und ihre Risiken zu minimieren.
  2. Michel, A.: Informationsdidaktik für verschiedene Wissenskulturen (2020) 0.03
    0.028156668 = product of:
      0.11262667 = sum of:
        0.11262667 = weight(_text_:soziale in 5735) [ClassicSimilarity], result of:
          0.11262667 = score(doc=5735,freq=2.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.40501565 = fieldWeight in 5735, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.046875 = fieldNorm(doc=5735)
      0.25 = coord(1/4)
    
    Abstract
    In den vergangenen Monaten sind in Password Online eine ganze Reihe von Beiträgen erschienen, die sich mit dem Thema Informationskompetenz auseinandergesetzt haben. Sie alle hatten einen unterschiedlichen Fokus, es einte sie jedoch eine eher kritische Perspektive auf ein universelles Kompetenzset, aus dem sich "Informationskompetenz" ergibt. Spannend ist insbesondere im Kontext des aktuellen, lebhaften Diskurses zu Fake News, dass einige Autor*innen explizit soziale und emotionale Faktoren als relevante Kriterien für den Umgang mit Information betonen. (Mit diesem Text und dem sich anschließenden Beitrag von Inka Tappenbeck möchten wir auf die "wissenskulturelle Praxis" als einen weiteren Faktor genauer eingehen, der prägt, was in unterschiedlichen Kontexten als Informationskompetenz zu verstehen ist).
  3. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.02
    0.015060372 = product of:
      0.060241487 = sum of:
        0.060241487 = product of:
          0.18072446 = sum of:
            0.18072446 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.18072446 = score(doc=5669,freq=2.0), product of:
                0.38587612 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.045514934 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  4. Scobel, G.: GPT: Eine Software, die die Welt verändert (2023) 0.01
    0.01399077 = product of:
      0.05596308 = sum of:
        0.05596308 = product of:
          0.11192616 = sum of:
            0.11192616 = weight(_text_:software in 839) [ClassicSimilarity], result of:
              0.11192616 = score(doc=839,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.6198675 = fieldWeight in 839, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.078125 = fieldNorm(doc=839)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    GPT-3 ist eine jener Entwicklungen, die binnen weniger Monate an Einfluss und Reichweite zulegen. Die Software wird sich massiv auf Ökonomie und Gesellschaft auswirken.
  5. Gomez, J.; Allen, K.; Matney, M.; Awopetu, T.; Shafer, S.: Experimenting with a machine generated annotations pipeline (2020) 0.01
    0.011192616 = product of:
      0.044770464 = sum of:
        0.044770464 = product of:
          0.08954093 = sum of:
            0.08954093 = weight(_text_:software in 657) [ClassicSimilarity], result of:
              0.08954093 = score(doc=657,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.49589399 = fieldWeight in 657, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0625 = fieldNorm(doc=657)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    The UCLA Library reorganized its software developers into focused subteams with one, the Labs Team, dedicated to conducting experiments. In this article we describe our first attempt at conducting a software development experiment, in which we attempted to improve our digital library's search results with metadata from cloud-based image tagging services. We explore the findings and discuss the lessons learned from our first attempt at running an experiment.
  6. Klarmann, S.: easydb. Flexibles Framework zum Aufbau von Metadaten- und Medien-Repositorien : Anwendungsfall: Forschungsdaten (2020) 0.01
    0.0098929675 = product of:
      0.03957187 = sum of:
        0.03957187 = product of:
          0.07914374 = sum of:
            0.07914374 = weight(_text_:software in 58) [ClassicSimilarity], result of:
              0.07914374 = score(doc=58,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.43831247 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.078125 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Präsentationsfolien zum sehr schönen Vortrag von Herrn Sebastian Klarmann (Software easydb) in der vergangenen Woche am Donnerstag zum Thema "easydb. Flexibles Framework zum Aufbau von Metadaten- und Medien-Repositorien. Anwendungsfall: Forschungsdaten" (vgl. Mail von A. Strauch an Inetbib vom 15.12.2020.
  7. Dampz, N.: ChatGPT interpretiert jetzt auch Bilder : Neue Version (2023) 0.01
    0.0098929675 = product of:
      0.03957187 = sum of:
        0.03957187 = product of:
          0.07914374 = sum of:
            0.07914374 = weight(_text_:software in 874) [ClassicSimilarity], result of:
              0.07914374 = score(doc=874,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.43831247 = fieldWeight in 874, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.078125 = fieldNorm(doc=874)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Das kalifornische Unternehmen Open AI hat eine neue Version ihres Chatbots ChatGPT vorgestellt. Auffallendste Neuerung: Die Software, die mit Künstlicher Intelligenz funktioniert und bisher auf Text ausgerichtet war, interpretiert nun auch Bilder.
  8. Leighton, T.: ChatGPT und Künstliche Intelligenz : Utopie oder Dystopie? (2023) 0.01
    0.0098929675 = product of:
      0.03957187 = sum of:
        0.03957187 = product of:
          0.07914374 = sum of:
            0.07914374 = weight(_text_:software in 908) [ClassicSimilarity], result of:
              0.07914374 = score(doc=908,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.43831247 = fieldWeight in 908, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.078125 = fieldNorm(doc=908)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
  9. Jaeger, L.: Wissenschaftler versus Wissenschaft (2020) 0.01
    0.0092499675 = product of:
      0.03699987 = sum of:
        0.03699987 = product of:
          0.07399974 = sum of:
            0.07399974 = weight(_text_:22 in 4156) [ClassicSimilarity], result of:
              0.07399974 = score(doc=4156,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.46428138 = fieldWeight in 4156, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4156)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    2. 3.2020 14:08:22
  10. Scherschel, F.A.: Corona-Tracking : SAP und Deutsche Telekom veröffentlichen erste Details zur Tracing- und Warn-App (2020) 0.01
    0.008394462 = product of:
      0.03357785 = sum of:
        0.03357785 = product of:
          0.0671557 = sum of:
            0.0671557 = weight(_text_:software in 5857) [ClassicSimilarity], result of:
              0.0671557 = score(doc=5857,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.3719205 = fieldWeight in 5857, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5857)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Im Auftrag der Bundesregierung entwickeln SAP und die Deutsche Telekom momentan eine Contact-Tracing-App im Rahmen von Apples und Googles Exposure-Notification-Framework. Die sogenannte Corona-Warn-App und alle von ihr genutzten Serverkomponenten sollen im Vorfeld der für kommenden Monat geplanten Veröffentlichung der App unter der Apache-2.0-Lizenz als Open-Source-Software auf GitHub bereitgestellt werden. Nun haben die Projektverantwortlichen erste Dokumente dazu herausgegeben, wie die App später funktionieren soll: https://github.com/corona-warn-app/cwa-documentation.
    Content
    Vgl.: https://www.heise.de/-4721652. Vgl. auch den Beitrag: "Corona-Warnung per App: Fragen und Antworten zur geplanten Tracing-App" unter: https://www.verbraucherzentrale.de/wissen/digitale-welt/apps-und-software/coronawarnung-per-app-fragen-und-antworten-zur-geplanten-tracingapp-47466
  11. Escher, J.: Mündliche Prüfung mit ChatGPT : Oder warum die Primzahl 2023 = 43 × 47 ist (2023) 0.01
    0.008394462 = product of:
      0.03357785 = sum of:
        0.03357785 = product of:
          0.0671557 = sum of:
            0.0671557 = weight(_text_:software in 1002) [ClassicSimilarity], result of:
              0.0671557 = score(doc=1002,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.3719205 = fieldWeight in 1002, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1002)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Der folgende Text ist aus einer Spielerei mit der KI-Software ChatGPT entstanden. Die ersten paar Fragen und Antworten erzeugten bald eine Situation, die viele als Prüfende aus mündlichen Prüfungen kennen: Es läuft nicht rund, es fallen falsche Antworten oder Fragen können nicht beantwortet werden. Als Folge versucht man zu verstehen, warum sich Prüflinge mit einer Frage schwertun. Es wird der Ehrgeiz geweckt, die sokratische Methode besonders geistreich anzuwenden, um einer richtigen Antwort oder einer Erkenntnis näher zu kommen. Genau diese Mechanik hat sich bei mir eingestellt, und ich habe mich entschlossen, das nachfolgende ,Prüfungsgespräch' zu protokollieren und etwas zu kommentieren. Ich habe dabei einen leichten Duktus gewählt, nicht etwa um mich über Antworten oder die Software lustig zu machen, sondern um zur Lektüre eines Prüfungsprotokolls einzuladen.
  12. Harlan, E.; Köppen, U.; Schnuck, O.; Wreschniok, L.: Fragwürdige Personalauswahl mit Algorithmen : KI zur Persönlichkeitsanalyse (2021) 0.01
    0.007914375 = product of:
      0.0316575 = sum of:
        0.0316575 = product of:
          0.063315 = sum of:
            0.063315 = weight(_text_:software in 143) [ClassicSimilarity], result of:
              0.063315 = score(doc=143,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.35064998 = fieldWeight in 143, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0625 = fieldNorm(doc=143)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Anbieter neuer Software versprechen Vorstellungsgespräche, die vorurteilsfreier ablaufen sollen: Eine "Künstliche Intelligenz" erstellt Persönlichkeitsprofile von Bewerbern anhand kurzer Videos. Doch die Technologie hat Schwächen, wie eine Analyse des BR zeigt
  13. Wagner, E.: Über Impfstoffe zur digitalen Identität? (2020) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 5846) [ClassicSimilarity], result of:
              0.061666455 = score(doc=5846,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 5846, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5846)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    4. 5.2020 17:22:40
  14. Engel, B.: Corona-Gesundheitszertifikat als Exitstrategie (2020) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 5906) [ClassicSimilarity], result of:
              0.061666455 = score(doc=5906,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 5906, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5906)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    4. 5.2020 17:22:28
  15. Arndt, O.: Totale Telematik (2020) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 5907) [ClassicSimilarity], result of:
              0.061666455 = score(doc=5907,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 5907, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5907)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 6.2020 19:11:24
  16. Arndt, O.: Erosion der bürgerlichen Freiheiten (2020) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 82) [ClassicSimilarity], result of:
              0.061666455 = score(doc=82,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 82, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=82)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 6.2020 19:16:24
  17. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 236) [ClassicSimilarity], result of:
              0.061666455 = score(doc=236,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    7. 5.2021 22:10:24
  18. Eyert, F.: Mathematische Wissenschaftskommunikation in der digitalen Gesellschaft (2023) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 1001) [ClassicSimilarity], result of:
              0.061666455 = score(doc=1001,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 1001, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1001)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Mitteilungen der Deutschen Mathematiker-Vereinigung. 2023, H.1, S.22-25
  19. Williams, B.: Dimensions & VOSViewer bibliometrics in the reference interview (2020) 0.01
    0.006925077 = product of:
      0.027700309 = sum of:
        0.027700309 = product of:
          0.055400617 = sum of:
            0.055400617 = weight(_text_:software in 5719) [ClassicSimilarity], result of:
              0.055400617 = score(doc=5719,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30681872 = fieldWeight in 5719, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5719)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    The VOSviewer software provides easy access to bibliometric mapping using data from Dimensions, Scopus and Web of Science. The properly formatted and structured citation data, and the ease in which it can be exported open up new avenues for use during citation searches and eference interviews. This paper details specific techniques for using advanced searches in Dimensions, exporting the citation data, and drawing insights from the maps produced in VOS Viewer. These search techniques and data export practices are fast and accurate enough to build into reference interviews for graduate students, faculty, and post-PhD researchers. The search results derived from them are accurate and allow a more comprehensive view of citation networks embedded in ordinary complex boolean searches.
  20. Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021) 0.01
    0.0061666453 = product of:
      0.024666581 = sum of:
        0.024666581 = product of:
          0.049333163 = sum of:
            0.049333163 = weight(_text_:22 in 251) [ClassicSimilarity], result of:
              0.049333163 = score(doc=251,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30952093 = fieldWeight in 251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=251)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 5.2021 12:43:05