Search (125 results, page 2 of 7)

  • × type_ss:"a"
  • × type_ss:"el"
  1. Rötzer, F.: Pentagon will wissenschaftliche Forschung durch KI-Systeme ersetzen (2018) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 3631) [ClassicSimilarity], result of:
              0.12832318 = score(doc=3631,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 3631, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3631)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Darpa sucht nach Vorschlägen, wie KI-Systeme selbst Daten sammeln, Hypothesen entwicklen, Modelle erzeugen und überprüfen können - und das möglichst schnell.
  2. Grassmann, P.: Corona-App : Wie geht es nach dem Lockdown weiter? (202) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 3894) [ClassicSimilarity], result of:
              0.12832318 = score(doc=3894,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 3894, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3894)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wir sollten uns eher zur Abgabe unserer Daten bereiterklären, als wochenlang in einem durch "Datenschutz" begründeten Lockdown zu veröden.
  3. Brembs, B.; Förstner, K.; Kraker, P.; Lauer, G.; Müller-Birn, C.; Schönbrodt, F.; Siems, R.: Auf einmal Laborratte (2021) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 83) [ClassicSimilarity], result of:
              0.12832318 = score(doc=83,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 83, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=83)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die großen Verlage haben ein neues Geschäftsfeld entdeckt: die Überwachung von Wissenschaftlern und den Verkauf ihrer Daten. Sie nehmen dadurch weitreichenden Einfluss auf die Forschung. Die Europäische Union muss dringend eingreifen.
  4. Döpfner, M.: Totale Transparenz endet immer totalitär (2021) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 110) [ClassicSimilarity], result of:
              0.12832318 = score(doc=110,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 110, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=110)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    "Wir wissen, wo Du bist. Wir wissen, wo Du warst. Wir wissen mehr oder weniger, woran Du denkst." - Europa muss die Daten-Allmacht der amerikanischen und chinesischen Tech-Giganten brechen. Ein offener Brief des Vorstandschefs von Axel Springer an die Präsidentin der EU-Kommission.
  5. Geuter, J.: Nein, Ethik kann man nicht programmieren (2018) 0.03
    0.031758364 = product of:
      0.06351673 = sum of:
        0.06351673 = product of:
          0.12703346 = sum of:
            0.12703346 = weight(_text_:daten in 4428) [ClassicSimilarity], result of:
              0.12703346 = score(doc=4428,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52057827 = fieldWeight in 4428, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4428)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Irrtum 1: Die Anwendung von Ethik kann man in Computerprogrammen formulieren - Irrtum 2: Daten erzeugen Wahrheit, und falls nicht, braucht man einfach mehr Daten - Irrtum 3: In 20 Jahren gibt es eine künstliche Intelligenz, die genauso gut wie oder besser ist als menschliche - Irrtum 4: Diskriminierung durch Algorithmen ist schlimmer als Diskriminierung durch Menschen - Irrtum 5: Gesetze und Verträge können in Code ausgedrückt werden, um ihre Anwendung zu standardisieren - Irrtum 6: Digitale Freiheit drückt sich in der vollständigen Autonomie des Individuums aus.
  6. Göbel, S.; Sperber, W.; Wegner, B.: 150 Jahre : ein Rückblick auf das Jahrbuch über die Fortschritte der Mathematik (2020) 0.03
    0.027782785 = product of:
      0.05556557 = sum of:
        0.05556557 = product of:
          0.11113114 = sum of:
            0.11113114 = weight(_text_:daten in 72) [ClassicSimilarity], result of:
              0.11113114 = score(doc=72,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.45541114 = fieldWeight in 72, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=72)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Jahrbuch über die Fortschritte der Mathematik (JFM) 1868-1942 ist mehr als ein historischer Zeitzeuge für die Entwicklung der Mathematik in der zweiten Hälfte des 19. und ersten Hälfte des 20. Jahrhunderts. Als integraler Bestandteil der Datenbank zbMATH bieten die Daten des JFM einen Zugang zur mathematischen Literatur ab der Mitte des 19. Jahrhunderts. Das Jahrbuch hat eine bewegte Geschichte. Es entstand aus einer privaten Initiative, geriet durch den ersten Weltkrieg in eine tiefe Krise, wurde dann von der Preußischen Akademie der Wissenschaften übernommen, die das Jahrbuch noch bis zum Ende des zweiten Weltkriegs unter sich ständig verschlechternden Rahmenbedingungen und zunehmenden politischen Restriktionen weiterbetrieben hat. Der Artikel beschreibt die Enstehungsgeschichte und die Entwicklung des JFM von 1868 bis heute und würdigt das Wirken der Mathematiker, die federführend daran beteiligt waren. Einen Schwerpunkt bildet die konzeptionelle Diskussion und die Entwicklung der Anforderungen an mathematische Literaturdokumentationsdienste, die heute, im digitalen Zeitalter, vor gänzlich neuen Herausforderungen stehen. Zusätzlich zu den Daten des JFM liegt einiges an Originaldokumenten und Sekundärliteratur in der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) vor. Aber nicht alles wurde dokumentiert und vieles ist verschollen, etwa die Daten des JFM für das Jahr 1943. Wir weisen an mehreren Stellen im Artikel darauf hin.
  7. Eble, M.; Kirch, S.: Wissenstransfer und Medienerschließung : Werkzeuge für die Integration von Multimedia-Inhalten in das Wissensmanagement (2013) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 4912) [ClassicSimilarity], result of:
              0.10888583 = score(doc=4912,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 4912, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4912)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Für Speicherung und Transfer von Wissen setzen Unternehmen neben Textdaten verstärkt auch audio-visuelle Daten ein. Beispiele dafür sind Schulungsvideos für Produktionsanlagen oder Podcasts zu Forschungsthemen. Damit stellt sich die Frage, welche Werkzeuge sich für die Integration von Multimedia-Inhalten in Systeme des Wissensmanagements eignen und wie solche Inhalte in Enterprise-Suchmaschinen eingebunden werden können. Der Beitrag skizziert diesen Ausgangspunkt und gibt eine Übersicht über Anbieter und Werkzeuge zur Erschließung von Bilddaten (z. B. aus Digitalisierungs-Projekten) sowie von audio-visuellen Daten. Er konzentriert sich auf Werkzeuge, die als Software as a Service genutzt werden können und listet Kriterien zur technischen Evaluation solcher Lösungen auf. Der Beitrag basiert auf Beratungs- und Entwicklungsprojekten zu automatischer Medienerschließung, Multimedia Indexing und Enterprise Search.
  8. Speer, A.: Wovon lebt der Geist? (2016) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 3115) [ClassicSimilarity], result of:
              0.10265854 = score(doc=3115,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 3115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3115)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Geistiges Erkennen ist ohne die Träger des Geistes - z.B. Schriftrollen, Bücher oder digitale Daten - nicht möglich. Die Bibliotheken, in denen sie gesammelt, aufbewahrt und studiert werden, werden somit zu Institutionen des Geistes. Es gilt, all ihre Schätze, ob analog oder digital, zu heben.
  9. Krempl, S.: "Künstliche Intelligenz ist kaputt" (2019) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 5867) [ClassicSimilarity], result of:
              0.10265854 = score(doc=5867,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 5867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5867)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In KI-Modellen könnten immer mehr Trainingsdaten verarbeitet werden, was die Monopolbildung unterstütze, warnt die New Yorker Praktikerin Sophie Searcy. Firmen und Forschungseinrichtungen, die Algorithmen für Künstliche Intelligenz (KI) entwickeln, werden immer datenhungriger. Dies verdeutlichte Sophie Searcy, Data Scientist beim "KI-Bootcamp" Metis in New York, auf der am Samstag zu Ende gegangenen Konferenz "AI Traps" in Berlin. "Die Leute in Unternehmen reden nur noch darüber, wie sie Daten bekommen." Mit immer umfangreicheren Trainingsdaten-Sets wollten sie immer bessere KI-Lösungsmodelle entwickeln.
  10. Leisinger, C.: Sobald die Konkurrenten eine faire Chance haben, wird Google auf einen Schlag 20 Prozent seines Marktanteils verlieren (2020) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 44) [ClassicSimilarity], result of:
              0.10265854 = score(doc=44,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 44, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=44)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Gabriel Weinberg macht Google und Co. mit seiner Suchmaschine DuckDuckGo immer mehr Konkurrenz. Im Gespräch erklärt er, wieso er auf den diskreten Umgang mit persönlichen Daten so viel Wert legt und warum er vehement für regulatorische Eingriffe ist.
  11. Van der Veer Martens, B.: Do citation systems represent theories of truth? (2001) 0.02
    0.024559196 = product of:
      0.049118392 = sum of:
        0.049118392 = product of:
          0.098236784 = sum of:
            0.098236784 = weight(_text_:22 in 3925) [ClassicSimilarity], result of:
              0.098236784 = score(doc=3925,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.54716086 = fieldWeight in 3925, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3925)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 7.2006 15:22:28
  12. Wolchover, N.: Wie ein Aufsehen erregender Beweis kaum Beachtung fand (2017) 0.02
    0.024559196 = product of:
      0.049118392 = sum of:
        0.049118392 = product of:
          0.098236784 = sum of:
            0.098236784 = weight(_text_:22 in 3582) [ClassicSimilarity], result of:
              0.098236784 = score(doc=3582,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.54716086 = fieldWeight in 3582, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3582)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 4.2017 10:42:05
    22. 4.2017 10:48:38
  13. Dunning, A.: Do we still need search engines? (1999) 0.02
    0.024312364 = product of:
      0.048624728 = sum of:
        0.048624728 = product of:
          0.097249456 = sum of:
            0.097249456 = weight(_text_:22 in 6021) [ClassicSimilarity], result of:
              0.097249456 = score(doc=6021,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5416616 = fieldWeight in 6021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6021)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Ariadne. 1999, no.22
  14. Vorndran, A.: Hervorholen, was in unseren Daten steckt! : Mehrwerte durch Analysen großer Bibliotheksdatenbestände (2018) 0.02
    0.022684548 = product of:
      0.045369096 = sum of:
        0.045369096 = product of:
          0.09073819 = sum of:
            0.09073819 = weight(_text_:daten in 4601) [ClassicSimilarity], result of:
              0.09073819 = score(doc=4601,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.37184164 = fieldWeight in 4601, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4601)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) verfolgt das Ziel, den unter Culturegraph.org verfügbaren großen Datenbestand von mehr als 160 Millionen Titeldaten deutschsprachiger Bibliotheksverbünde sowie der Deutschen Nationalbibliothek und der British National Bibliography über Analysen, Verknüpfungen und Auswertungen in größerem Umfang nutzbar zu machen. Der Beitrag gibt einen Überblick, welche Themenstellungen und Methoden bislang im Zentrum stehen. Dies ist einerseits die Bündelung von Werken, die erlaubt, mehrere Ausgaben, Auflagen oder Übersetzungen eines Werks zusammenzuführen. Inhaltserschließende Informationen wie Klassifikation oder verbale Erschließung, ebenso wie Normdatenverknüpfungen, können so auf alle Mitglieder eines Bündels übertragen werden, so dass ein Gewinn an Standardisierung und Erschließungstiefe zu erreichen ist. Andererseits können über bibliothekarische Daten hinaus auch externe Datenquellen zur Anreicherung herangezogen werden. Dies wird anhand eines Abgleichs von Personen in der Gemeinsamen Normdatei (GND) und der Datenbank Open Researcher and Contributor ID (ORCID) dargestellt. Unter Verwendung der Culturegraph-Titeldaten werden Personen mittels der von ihnen verfassten Publikationen abgeglichen und zusammengeführt. Abschließend werden einige statistische Auswertungen des Datenbestandes vorgestellt.
  15. Klein, A.: Von der Schneeflocke zur Lawine : Möglichkeiten der Nutzung freier Zitationsdaten in Bibliotheken (2017) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 4002) [ClassicSimilarity], result of:
              0.089826226 = score(doc=4002,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 4002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4002)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Zitationen spielen eine wichtige Rolle im wissenschaftlichen Diskurs, in der Recherchepraxis sowie im Bereich der Bibliometrie. In jüngster Zeit gibt es zunehmend Initiativen, die Zitationen als Open Data zur freien Nachnutzung verfügbar machen. Der Beitrag beschreibt den Stand der Entwicklung dieser Initiativen und zeigt, dass in nächster Zeit eine kritische Masse von Daten entstehen könnte, aus denen sich gerade für Bibliotheken neue Perspektiven ergeben. Als konkrete Möglichkeit zur Partizipation für Bibliotheken wird das DFG-Projekt Linked Open Citation Database (LOC-DB) vorgestellt.
  16. Gutknecht, C.: Zahlungen der ETH Zürich an Elsevier, Springer und Wiley nun öffentlich (2015) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 4324) [ClassicSimilarity], result of:
              0.089826226 = score(doc=4324,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Was bezahlt die ETH Bibliothek an Elsevier, Springer und Wiley? Die Antwort auf diese einfache Frage liegt nun nach gut 14 Monaten und einem Entscheid der ersten Rekursinstanz (EDÖB) vor. Werfen wir nun also einen Blick in diese nun erstmals öffentlich zugänglichen Daten (auch als XLSX). Die ETH-Bibliothek schlüsselte die Ausgaben wie von mir gewünscht in Datenbanken, E-Books und Zeitschriften auf.
  17. Peters-Kottig, W.: Anwendung von OPUS für Forschungsdaten : das Beispiel eines außeruniversitären Forschungsinstituts (2018) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 4351) [ClassicSimilarity], result of:
              0.089826226 = score(doc=4351,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 4351, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4351)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    OPUS wurde als Dokumentenserver konzipiert und ursprünglich nicht für den Nachweis von Forschungsdaten angelegt. Mit vergleichsweise geringem Aufwand können dennoch Forschungsdaten als Supplementary Material zu Zeitschriftenbeiträgen publiziert werden. Auch reine Forschungsdatenpublikationen können via OPUS veröffentlicht werden, selbst wenn die gegenwärtig auf Textpublikationen zugeschnittene Metadatenerfassung weniger gut für die Beschreibung reiner Forschungsdaten geeignet ist. Ein Unterschied zu anderen Systemen und Anwendungsszenarien besteht in der Beschränkung, großvolumige Daten nicht innerhalb von OPUS selbst vorzuhalten. Der für das institutionelle Repository des Zuse-Instituts Berlin konzipierte pragmatische Lösungsansatz ist in OPUS ohne zusätzliche Programmierung umsetzbar und skaliert für beliebig große Forschungsdatensätze.
  18. Mache, B.; Klaffki, L.: ¬Das DARIAH-DE Repository : Elementarer Teil einer modularen Infrastruktur für geistes- und kulturwissenschaftliche Forschungsdaten (2018) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 4485) [ClassicSimilarity], result of:
              0.089826226 = score(doc=4485,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 4485, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4485)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    DARIAH-DE unterstützt mit digitalen Ressourcen und Methoden arbeitende Geistes- und Kulturwissenschaftler/innen in Forschung und Lehre. Forschungsdaten und Wissenschaftliche Sammlungen haben dabei eine zentrale Bedeutung. Im Rahmen einer Forschungsdaten-Föderationsarchitektur stehen eine Reihe von Werkzeugen zur Verfügung, mit denen Daten gefunden, vernetzt, publiziert und archiviert werden können. Hierzu zählt auch das DARIAH-DE Repository, das den Forschenden eine sichere, langfristige und nachhaltige Speicherung sowie die Veröffentlichung der Forschungsdaten ermöglicht.
  19. Rötzer, F.: Sozialkreditsysteme im Kapitalismus (2019) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 5826) [ClassicSimilarity], result of:
              0.089826226 = score(doc=5826,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 5826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5826)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Extralegale Bestrafungssysteme: China will ehrliches Verhalten durch Überwachung, Bestrafung und Privilegien konditionieren, im Kapitalismus werden Privilegien bislang durch Geld reguliert. 2014 hat China begonnen, sein Sozialkreditsystem einzuführen, geplant ist die grundsätzliche Umsetzung bis 2020. Ab dann werden auch alle Unternehmen durch Zusammenfassung vorhandener Daten nach Punkten bewertet, auch die ausländischen. So könnten die auch politisch angepassten Unternehmen mit einer geringeren Steuer, weniger Auflagen und Staatsaufträgen belohnt werden. Man braucht allerdings auch nicht nur mit dem Finger auf China zu zeigen. In Deutschland gibt es mit dem privatwirtschaftlichen Unternehmen Schufa schon lange ein solches Scoring-System zur Bonitätsprüfung mit durchaus folgenschweren Sanktionen.
  20. Mödden, E.; Dreger, A.; Hommes, K.P.; Mohammadianbisheh, N.; Mölck, L.; Pinna, L.; Sitte-Zöllner, D.: ¬Der Weg zur Gründung der AG Erschließung ÖB-DNB und die Entwicklung eines maschinellen Verfahrens zur Verschlagwortung der Kinder- und Jugendliteratur mit GND-Vokabular (2020) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 71) [ClassicSimilarity], result of:
              0.089826226 = score(doc=71,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 71, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=71)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Man einigte sich auf das Vorhaben, die THEMA-angereicherten Daten des Buchhandels bibliotheksspezifisch aufzuarbeiten und maschinell in verbale Erschließungskategorien zu transferieren. Es wurde darüber informiert, dass die Marketing- und Verlagsservice für den Buchhandel GmbH - MVB sich intensiv bemüht, die Verwendung von THEMA durch die Verlage im Rahmen einer Offensive zur Verbesserung der Qualität der Daten im Verzeichnis Lieferbarer Bücher zu forcieren. Die Workshop-Teilnehmenden waren sich einig in der Auffassung, an der Normierung des Schlagwortvokabulars, wie sie über die GND stattfindet, festzuhalten. Denkbar sei, freie Schlagwörter aus den MVB-Daten mit der GND abzugleichen und/oder eine Liste von Begriffen zu erstellen, die für ein Mapping der THEMA-Notationen auf die GND geeignet wären. Als geeignetstes Segment empfahl sich die Kinderliteratur, zum einen wegen ihrer großen Menge und hohen Bedeutung in den ÖBs und der mangelnden Erschließung durch jedwede Klassifikation, zum anderen wegen der Menge und Qualität der freien Schlagwörter in den Daten des Buchhandels. Verabredet wurde, dass die DNB eine Skizze für ein Projekt zur Nutzbarmachung von THEMA und der freien MVB-Schlagwörter erarbeiten und zur Verfügung stellen sollte, während die ÖB-Vertretungen eine Liste von Schlagwörtern im Bereich der Kinderliteratur, die von besonderer Relevanz z.B. bei der Auskunftserteilung sind, an die DNB übermitteln wollten.

Years

Languages

  • d 95
  • e 29
  • a 1
  • More… Less…