Search (125 results, page 3 of 7)

  • × type_ss:"a"
  • × type_ss:"el"
  1. Hulek, K.; Teschke, O.: ¬Die Transformation von zbMATH zu einer offenen Plattform für die Mathematik (2020) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 395) [ClassicSimilarity], result of:
              0.089826226 = score(doc=395,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 395, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=395)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Mit Beginn des Jahres 2021 wird die bisher kostenpflichtige Datenbank zbMATH in eine Open Access-Plattform übergeführt werden. Damit steht dieser Dienst weltweit allen Interessierten kostenfrei zur Verfügung. Diese Änderung des Geschäftsmodells wird es in Zukunft ermöglichen, die meisten Daten von zbMATH für Zwecke der Forschung und der Verknüpfung mit anderen nicht-kommerziellen Diensten unter den Bedingungen einer CC-BY-SA Lizenz frei zu nutzen. Im Folgenden beschreiben wir die Herausforderungen und die Vision, die sich für die Überführung von zbMATH in eine offene Plattform ergeben.
  2. Henze, V.; Junger, U.; Mödden, E.: Grundzüge und erste Schritte der künftigen inhaltlichen Erschliessung von Publikationen in der Deutschen Nationalbibliothek (2017) 0.02
    0.022226227 = product of:
      0.044452455 = sum of:
        0.044452455 = product of:
          0.08890491 = sum of:
            0.08890491 = weight(_text_:daten in 3772) [ClassicSimilarity], result of:
              0.08890491 = score(doc=3772,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36432892 = fieldWeight in 3772, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3772)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bisher war die intellektuelle inhaltliche Erschließung nur auf einen Teil des Bibliothekszugangs, insbesondere gedruckte monografische Werke und Zeitschriftentitel, beschränkt. Für Online-Publikationen hat die DNB 2010 die Grundsatzentscheidung getroffen, diese nicht mehr intellektuell zu erschließen, sondern die Metadaten der Ablieferer nachzunutzen und maschinelle Verfahren zu entwickeln, um solche Publikationen zum Beispiel mit inhaltserschließenden Daten anzureichern. Dies wird seitdem praktiziert. Durch das enorme Anwachsen des digitalen Zugangs wird der Anteil intellektuell erschlossener Publikationen in Relation zu maschinell erstellten Daten immer geringer. Damit geht das Problem einher, dass die Heterogenität zunimmt und der thematische Zugriff auf Daten und damit Publikationen erschwert wird. Diesem Umstand will die Deutsche Nationalbibliothek durch den Umstieg auf automatische Inhaltserschließungsverfahren für alle Medienwerke entgegentreten. Im Sinne des oben genannten veränderten Verständnisses von Erschließung als zyklischem Vorgang können die maschinell entstandenen Metadaten zu jedem späteren Zeitpunkt erweitert und damit verbessert werden. Eine Metadatencodierung für den Datensatz oder die einzelnen Informationsanteile gibt Auskunft über deren Status. Identifikatoren für den Datensatz oder für einzelne Informationsanteile, wie zum Beispiel GND- oder WV-Identnummern dienen der Nachnutzung.
  3. Dachwitz, I.: ¬Das sind 650.000 Kategorien, in die uns die Online-Werbeindustrie einsortiert : Microsofts Datenmarktplatz Xandr (2023) 0.02
    0.022226227 = product of:
      0.044452455 = sum of:
        0.044452455 = product of:
          0.08890491 = sum of:
            0.08890491 = weight(_text_:daten in 982) [ClassicSimilarity], result of:
              0.08890491 = score(doc=982,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36432892 = fieldWeight in 982, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=982)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Was auch immer wir im Internet tun, wird aufgezeichnet und ausgewertet, um uns zielgerichtet Werbung anzuzeigen. Das ist eine Realität, an die viele Menschen sich inzwischen gewöhnt haben - im Gegenzug sind schließlich viele Internetangebote kostenlos. Wo genau unsere Daten landen, wenn wir Websites aufrufen oder Apps nutzen, das können die wenigsten nachvollziehen. Auch daran haben wir uns gewöhnt. Die Wege des Targeted Advertising sind unergründlich. Die Werbeindustrie tut viel dafür, damit das so bleibt: Die Netzwerke der Datensammler sind selbst für Branchenkenner:innen kaum zu überschauen. Jetzt präsentieren netzpolitik.org und das US-Medium The Markup einen einmaligen Einblick in das Geschäft mit unseren Daten. Wir haben die Angebotsliste von Xandr ausgewertet, einem der größten Datenmarktplätze der Werbewelt. Sie enthält mehr als 650.000 unterschiedliche Kategorien, in die die Industrie Menschen einsortiert, um sie mit gezielter Werbung erreichen zu können.
    Umfang und Detailtiefe dieser Datensammlung sind erschreckend. Es gibt kaum eine menschliche Eigenschaft, die Werbetreibende nicht für Werbung ausnutzen wollen. Sie wollen Menschen aus Dänemark erreichen, die einen Toyota gekauft haben? Kein Problem. Sie wollen Menschen erreichen, die gerade finanzielle Probleme haben? Oder keine Krankenversicherung? Kein Problem. Minderjährige? Schwangere? Homosexuelle? Depressive? Politiker:innen? Alles kein Problem. "Diese Liste ist das gewaltigste Dokument über den globalen Datenhandel, das ich je gesehen habe", sagt der Wiener Tracking-Forscher Wolfie Christl. Er hat die Datei aufgestöbert und mit netzpolitik.org sowie The Markup geteilt. Das US-Medium berichtet heute unter anderem über die zahlreichen sensiblen Daten und macht sie mit einem interaktiven Tool einfach durchsuchbar. Xandr hat auf mehrere Presseanfragen nicht reagiert. Die Liste ist auf Mai 2021 datiert, sie stand bis zu unserer Anfrage auf einer Dokumentationsseite von Xandr offen im Netz. Heute ist sie nicht mehr erreichbar, aber beim Internet Archive gibt es eine archivierte Version der Seite und der Datei [23 MB]. Laut von uns befragten Jurist:innen zeige die Liste, dass das derzeitige Werbegeschäft strukturell unvereinbar mit Datenschutzanforderungen ist."
  4. Qin, J.; Paling, S.: Converting a controlled vocabulary into an ontology : the case of GEM (2001) 0.02
    0.020839168 = product of:
      0.041678336 = sum of:
        0.041678336 = product of:
          0.08335667 = sum of:
            0.08335667 = weight(_text_:22 in 3895) [ClassicSimilarity], result of:
              0.08335667 = score(doc=3895,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.46428138 = fieldWeight in 3895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3895)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    24. 8.2005 19:20:22
  5. Jaeger, L.: Wissenschaftler versus Wissenschaft (2020) 0.02
    0.020839168 = product of:
      0.041678336 = sum of:
        0.041678336 = product of:
          0.08335667 = sum of:
            0.08335667 = weight(_text_:22 in 4156) [ClassicSimilarity], result of:
              0.08335667 = score(doc=4156,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.46428138 = fieldWeight in 4156, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4156)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    2. 3.2020 14:08:22
  6. Junger, U.: Quo vadis Inhaltserschließung der Deutschen Nationalbibliothek? : Herausforderungen und Perspektiven (2015) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 1718) [ClassicSimilarity], result of:
              0.076993905 = score(doc=1718,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 1718, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1718)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Seit der Ausweitung des Pflichtexemplarrechts auf sog. unkörperliche Medienwerke im Jahr 2006 steht die Deutsche Nationalbibliothek (DNB) vor der Herausforderung, über neue Wege zur Erzeugung bibliografischer Metadaten nachzudenken. Die steigende Menge an Publikationen, die es zu bearbeiten gilt, aber auch deren zunehmende Diversität, machen dies erforderlich. Für die Inhaltserschließung der DNB bedeutet das, dass andere Verfahren neben die intellektuelle Erschließung treten müssen. Die Entwicklung und Einführung automatischer Verfahren für Klassifikation und Beschlagwortung gehören ebenso dazu wie die Nutzung von Fremddaten oder die Gewinnung inhaltserschließender Daten über Konkordanzen. Dies hat Auswirkungen auf Arbeitsabläufe, Erschließungsinstrumente und -standards sowie Datenformate. Die DNB strebt ein Konzept für die Inhaltserschließung an, das zum Ziel hat, so viele Publikationen als möglich angemessen zu erschließen, um thematische Recherchen erfolgreich zu unterstützen.
  7. Rieck, M.: Einige Gedanken zur deutschen Informationswissenschaft (2013) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 2863) [ClassicSimilarity], result of:
              0.076993905 = score(doc=2863,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 2863, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2863)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die deutsche Informationswissenschaft existiert nur dem Namen nach. Eine eher sporadisch stattfindende fachliche Diskussion dreht sich ausschließlich um praktische Probleme, die Theorie wird weitgehend ignoriert. Kaum jemand ist bereit, über den Tellerrand zu blicken. Es wird versucht, die Informationswissenschaft zur Geisteswissenschaft zu erklären. Die Naturwissenschaften werden ausgeschlossen. Bibliotheks-, Dokumentations- und Archivwissenschaft sollen in der Informationswissenschaft aufgehen. Diese Vorgänge leiteten u. a. das Ende der wissenschaftlichen Dokumentation ein. In diesem Artikel wird dargestellt, wie die Informationswissenschaft aufgebaut werden kann und welche Themen sie behandeln sollte. Dabei wird davon ausgegangen, dass es sich um die "Wissenschaft von der Information" handelt. So muss es Grundlage sein, zu klären, worum es sich bei dem Phänomen "Information" handelt. Es werden verschiedene Ansätze betrachtet und ausgewertet, beginnend mit Shannons Kommunikationstheorie bis hin zur Physik. Der Weg zu einer möglichen Definition wird ebenso behandelt, wie die Eigenschaften der Information und ihre Abgrenzung zu Daten und Wissen.
  8. Weisbrod, D.: Pflichtablieferung von Dissertationen mit Forschungsdaten an die DNB : Anlagerungsformen und Datenmodell (2018) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 4352) [ClassicSimilarity], result of:
              0.076993905 = score(doc=4352,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 4352, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4352)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im Rahmen des DFG-Projektes "Elektronische Dissertationen Plus" (eDissPlus) entwickeln die Humboldt-Universität zu Berlin (HU) und die Deutsche Nationalbibliothek (DNB) Lösungen für eine zeitgemäße Archivierung und Publikation von Forschungsdaten, die im Zusammenhang mit Promotionsvorhaben entstehen. Dabei müssen die unterschiedlichen Anlagerungsformen von Forschungsdaten an eine Dissertation berücksichtigt und in einem Datenmodell abgebildet sowie das von der DNB verwendete Metadatenschema XMetaDissPlus überarbeitet werden. Das ist notwendig, um die Relationen zwischen der Dissertation und den abgelieferten Forschungsdaten-Supplementen sowie den Daten, die auf externen Repositorien verbleiben sollen, nachzuweisen und im Katalog der DNB recherchierbar zu machen. Dieser Beitrag stellt das Datenmodell und die Änderungen im Metadatenschema vor.
  9. Zimmer, D.E.: Mr. Searle im Chinesischen Zimmer : über Computer, Gehirne und Geist (1990) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 4385) [ClassicSimilarity], result of:
              0.076993905 = score(doc=4385,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 4385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4385)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    EINE PROVOKATION feiert Geburtstag. Vor nunmehr zehn Jahren löste sie eine kontroverse Debatte aus, die anders als die meisten wissenschaftlichen Debatten nach dem Austausch der Argumente und Daten nicht im Nu erledigt war. Sie zieht sich bis heute hin und macht keinerlei Anstalten, sich zu legen. Vordergründig geht es um Chinesische Zimmer und Chinesische Turnhallen, um Schnellrestaurants, um sprechende Maschinen, um Computer und wieviel Intelligenz sie eines Tages ihr eigen nennen könnten - und in Wahrheit bei alledem um die Letzten Dinge, jene, die Leidenschaften wekken: Was ist der menschliche Geist? Kann es eines Tages eine Maschine geben, die Geist hat? Was die Kontroverse in Gang setzte, war eine Herausforderung an die junge Disziplin der Künstlichen Intelligenz. Das menschliche Geistorgan, so lautete sie, funktioniere nicht wie ein Computer, und folglich könne ein Computer es auch nie und nimmer duplizieren.
  10. Kaminski, S.; Brandt, O.: ¬ Das institutionelle Forschungsdatenrepositorium FDAT der Universität Tübingen (2018) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 4486) [ClassicSimilarity], result of:
              0.076993905 = score(doc=4486,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 4486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4486)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das eScience-Center der Universität Tübingen bietet mit dem Forschungsdatenrepositorium FDAT lokalen Forschungsprojekten und Forschenden diverse Dienstleistungen sowie die nötige technische Ausstattung für die Langzeitarchivierung und Nachnutzung ihrer Forschungsdaten an. Dabei folgt FDAT den Richtlinien eines offenen Archivinformationssystems OAIS und wurde von unabhängiger Stelle zertifiziert. Ziel ist es, wissenschaftliche Daten sicher aufzubewahren und der breiten Öffentlichkeit nach Möglichkeit Open Access5 zur Verfügung zu stellen. Darüber hinaus sollen Wissenschaftlerinnen und Wissenschaftler in allen Phasen des Lebenszyklus ihrer Forschungsdaten durch die Betreiber des Repositoriums beraten und technisch unterstützt werden. Das Repositorium wird legitimiert durch die von der Universität Tübingen verabschiedeten Leitlinien zum Umgang mit Forschungsdaten, und neben dem eScience-Center konkret betreut durch die Universitätsbibliothek Tübingen und das ansässige Zentrum für Datenverarbeitung. Das Repositorium hat am 01.01.2017 seinen produktiven Betrieb aufgenommen und hält derzeit (15.08.2018) 6741 digitale Objekte vor.
  11. Gasser, M.; Wanger, R.; Prada, I.: Wenn Algorithmen Zeitschriften lesen : vom Mehrwert automatisierter Textanreicherung (2018) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 4598) [ClassicSimilarity], result of:
              0.076993905 = score(doc=4598,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 4598, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4598)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In Zusammenarbeit mit dem Institut für Computerlinguistik der Universität Zürich (ICL UZH) lancierte die ETH-Bibliothek Zürich ein Pilotprojekt im Bereich automatisierter Textanreicherung. Grundlage für den Piloten bildeten Volltextdateien der Schweizer Zeitschriftenplattform E-Periodica. Anhand eines ausgewählten Korpus dieser OCR-Daten wurden mit automatisierten Verfahren Tests in den Bereichen OCR-Korrektur, Erkennung von Personen-, Orts- und Ländernamen sowie Verlinkung identifizierter Personen mit der Gemeinsamen Normdatei GND durchgeführt. Insgesamt wurden sehr positive Resultate erzielt. Das verwendete System dient nun als Grundlage für den weiteren Kompetenzausbau der ETH-Bibliothek auf diesem Gebiet. Das gesamte bestehende Angebot der Plattform E-Periodica soll automatisiert angereichert und um neue Funktionalitäten erweitert werden. Dies mit dem Ziel, Forschenden einen Mehrwert bei der Informationsbeschaffung zu bieten. Im vorliegenden Beitrag werden Projektinhalt, Methodik und Resultate erläutert sowie das weitere Vorgehen skizziert.
  12. Ronzheimer, M.: ¬Die Datenspur in der Natur : über die Wirkung der Digitalisierung auf die Umwelt und den Energieverbrauch (2019) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 5228) [ClassicSimilarity], result of:
              0.076993905 = score(doc=5228,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 5228, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5228)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Industrialisierung ist die zweite »große Transformation« in der Menschheitsgeschichte, angetrieben durch die immense Nutzung fossiler Rohstoffe wie Kohle und Erdöl. In den letzten Jahrzehnten hat dieser Prozess der Ausbeutung der natürlichen Ressourcen eine solche Dynamik erlangt, dass Forscher von einem neuen Erdzeitalter, dem »Anthropozän«, sprechen. Wissenschaftler der Max-Planck-Gesellschaft (MPG) haben die Mechanismen dieser Beschleunigung genauer untersucht und als zentralen neuen Treiber den Umgang mit der Ressource »Daten« - die Digitalisierung mithilfe der Computertechnik - ausgemacht. Erst durch die massenhafte Verbreitung der Informationstechnik sei die Überschreitung der »planetaren Grenzen« ökologischer Nachhaltigkeit möglich geworden. Ihr neues Paradigma, den Wandel der Welt zu verstehen, nennen die Forscher »Geo-Anthropologie« und schlagen die Gründung eines eigenen Forschungsinstituts vor, das sich den »Perspektiven für die Erhaltung des Lebensraums Erde« widmen soll.
  13. Balzer, D.; Fischer, B.K.; Kett, J.; Laux, S.; Lill, J.M.; Lindenthal, J.; Manecke, M.; Rosenkötter, M.; Vitzthum, A.: ¬Das Projekt "GND für Kulturdaten"; (GND4C) (2019) 0.02
    0.018147638 = product of:
      0.036295276 = sum of:
        0.036295276 = product of:
          0.07259055 = sum of:
            0.07259055 = weight(_text_:daten in 5721) [ClassicSimilarity], result of:
              0.07259055 = score(doc=5721,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2974733 = fieldWeight in 5721, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5721)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die zunehmende Präsenz von Museen, Archiven, Forschungs- und anderen Kulturgut verwahrenden Einrichtungen mit ihren Sammlungsobjekten im Internet verstärkt das Bedürfnis nach Vernetzung der Daten. Eine Voraussetzung für die semantische Verknüpfung von Datensätzen sind gemeinsam verwendete Normdaten. Die Gemeinsame Normdatei (GND), geführt von der Deutschen Nationalbibliothek, ist ein weithin anerkanntes Vokabular für die Beschreibung und das Information­Retrieval in der Bibliothekswelt. Veröffentlicht als Linked Open Data, unterstützt die GND semantische Interoperabilität und Nachnutzung von Daten. Objekte aus verschiedenen Häusern können zusammen aufgefunden werden und disziplinenübergreifende Forschung wird erleichtert. Doch um die GND sparten­ und fächerübergreifend öffnen zu können, muss sie an die neuen Anforderungen angepasst und aktiv zwischen den Communities geteilt werden. In den vier Teilen des Beitrags geben Mitarbeiterinnen und Mitarbeiter des DFG­geförderten Projekts "GND für Kulturdaten" (GND4C) einen Einblick in den Stand der Untersuchungen, welche konzeptuellen Veränderungen erforderlich sein werden und wo sich die GND bereits heute als flexibel genug für die Wünsche der neuen Anwendungen erweist.
  14. Verbaere, B.: Algorithmen sind der Schlüssel zur Effizienz : zehn Vorhersagen für das nächste Jahrzehnt, Flughäfen der Zukunft (2020) 0.02
    0.01793371 = product of:
      0.03586742 = sum of:
        0.03586742 = product of:
          0.07173484 = sum of:
            0.07173484 = weight(_text_:daten in 5908) [ClassicSimilarity], result of:
              0.07173484 = score(doc=5908,freq=10.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.29396662 = fieldWeight in 5908, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5908)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    1. Sicherheit wird in eine reibungslose Reise integriert. In Zukunft bedeutet Sicherheit, dass man einen Korridor entlanggeht. Man muss dann nicht mehr Mantel, Schuhe und Gürtel ablegen oder kleine Fläschchen in kleine Beutel stecken. Menschenschlangen sind dann ebenfalls passé. Die Passagiere und ihre Gepäckstücke werden automatisch erkannt, wenn sie automatisierte Kontrollpunkte passieren. Feste Kontrollpunkte werden durch Sensoren ersetzt - das physische Überprüfen von Dokumenten gehört der Vergangenheit an. 2. Passagiere verwalten ihre digitale Identität selbst. Mit der Einführung der selbstbestimmten digitalen Identität und dauerhafter Reisemarken haben Passagiere die Kontrolle darüber, welche Aspekte ihrer Identität während der Reise zu welchem Zweck preisgegeben werden. Im Flughafen der Zukunft werden Risiken laufend von spezieller Künstlicher Intelligenz (KI) bewertet, wobei die digitale Identität jedes einzelnen Passagiers geprüft wird. Die sensiblen persönlichen Daten werden nur noch von den betreffenden staatlichen Behörden genutzt, die automatisierte miteinander vernetzte Systeme nutzen, um einzelne Reiseschritte zu genehmigen - bzw. in bestimmten Fällen nicht zu genehmigen. Fluggesellschaften sind nicht länger für die Verarbeitung der Passagierdaten und die Sicherung der Staatsgrenzen verantwortlich.
    3. Reiseschritte werden dezentralisiert. Alles bekommt ein Etikett: Personen, ihre Gepäckstücke und das Frachtgepäck. Und bei allen wird die ganze Zeit über nachvollzogen, welche Verkehrsmittel auch immer sie auf dem Flughafengelände nutzen. Dies bedeutet, dass Reisevisa und Zoll-Checks schon vor dem Flug vorgenommen werden können und man am Flughafen selbst Zeit spart. Auch die Gepäckabgabe und -annahme wird dort angeboten, wo es für den Fluggast am praktischsten ist, zum Beispiel am Bahnhof. 4. Flughäfen sind hochgradig vernetzt. Das neue Zeitalter miteinander vernetzter Flughäfen wird von immer günstigeren Sensoren, weniger spezieller Hardware und neuen Data Lakes gesteuert, die von 5G-Geräten gespeist werden. Die dazu erforderlichen Daten werden über softwaredefinierte Netzwerke erfasst, gesammelt und analysiert, um den Flughafen hocheffizient zu machen und Passagieren ein deutlich besseres Erlebnis zu ermöglichen.
    5. Flughäfen denken eigenständig. Der Schlüssel zur Effizienz sind Algorithmen der künstlichen Intelligenz (KI), wobei eine ausgeklügelte KI zum Erfolgsrezept für Flughäfen wird. Flughäfen nutzen die Digital-Twin-Technologie, um den Echtzeitbetrieb für alle Interessenvertreter zu realisieren und die operative Effizienz sowie das Fluggasterlebnis zu verbessern. Ein Digital Twin ist eine fortgeschrittene Computersimulation, die Daten aus dem gesamten Flughafen- und Fluglinienbetrieb extrahiert, um mit ihrer Hilfe zu veranschaulichen, zu simulieren und vorherzusagen, was als Nächstes geschieht. Diese Prognosedaten werden anschließend dazu verwendet, betriebliche Aktivitäten zu bündeln und nach Möglichkeit zu automatisieren. Automatisierte Meldungen können beispielsweise so aussehen: "Aufgrund von Verspätung landen zwei A380 gleichzeitig: Dafür sorgen, dass genügend Personal an den Einreiseschaltern bereitsteht." Oder: "Negatives Feedback zu den Toiletten im zweiten Stock: Reinigungspersonal senden." Ein schneller Datenaustausch ermöglicht, dass man sich proaktiv auf jede Sachlage einstellen kann und Flughäfen und Fluggesellschaften besser, schneller und genauer planen. 6. Zusammenarbeit wird der Schlüssel zum Erfolg. Für jede einzelne Reise gibt es mindestens zehn unterschiedliche Einheiten, die an der erfolgreichen praktischen Umsetzung beteiligt sind. Die einzige Möglichkeit, alle erforderlichen Daten zu sammeln, um die Transportwege reibungslos zu gestalten, ist eine enge Zusammenarbeit aller auf dem Flughafen tätigen Mitarbeiter - des Flughafenpersonals, des Fluglinienpersonals, derBehördenmitarbeiter, des Bodenpersonals sowie der Einzelhandels- und Restaurantmitarbeiter. Darüber hinaus ist die Zusammenarbeit aller Beteiligten im gesamten Ökosystem der miteinander vernetzten Flughäfen gefragt. Überall in diesem riesigen Netzwerk werden betriebliche Daten unter Berücksichtigung von Datenschutzvorschriften ausgetauscht, wobei Interessenvertreter lediglich einzelne für sie relevante Datenquellen austauschen dürfen. Auf diese Weise werden Flughäfen viel effizienter, indem beispielsweise Passagierströme digital gesteuert werden und dafür gesorgt wird, dass die Flugzeuge möglichst bald wieder abheben. Neueste Technologien wie Blockchain erleichtern den abgesicherten Datenaustausch ungemein.
  15. Guidi, F.; Sacerdoti Coen, C.: ¬A survey on retrieval of mathematical knowledge (2015) 0.02
    0.017365975 = product of:
      0.03473195 = sum of:
        0.03473195 = product of:
          0.0694639 = sum of:
            0.0694639 = weight(_text_:22 in 5865) [ClassicSimilarity], result of:
              0.0694639 = score(doc=5865,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.38690117 = fieldWeight in 5865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5865)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.2017 12:51:57
  16. Wagner, E.: Über Impfstoffe zur digitalen Identität? (2020) 0.02
    0.017365975 = product of:
      0.03473195 = sum of:
        0.03473195 = product of:
          0.0694639 = sum of:
            0.0694639 = weight(_text_:22 in 5846) [ClassicSimilarity], result of:
              0.0694639 = score(doc=5846,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.38690117 = fieldWeight in 5846, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5846)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    4. 5.2020 17:22:40
  17. Engel, B.: Corona-Gesundheitszertifikat als Exitstrategie (2020) 0.02
    0.017365975 = product of:
      0.03473195 = sum of:
        0.03473195 = product of:
          0.0694639 = sum of:
            0.0694639 = weight(_text_:22 in 5906) [ClassicSimilarity], result of:
              0.0694639 = score(doc=5906,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.38690117 = fieldWeight in 5906, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5906)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    4. 5.2020 17:22:28
  18. Arndt, O.: Totale Telematik (2020) 0.02
    0.017365975 = product of:
      0.03473195 = sum of:
        0.03473195 = product of:
          0.0694639 = sum of:
            0.0694639 = weight(_text_:22 in 5907) [ClassicSimilarity], result of:
              0.0694639 = score(doc=5907,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.38690117 = fieldWeight in 5907, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5907)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2020 19:11:24
  19. Arndt, O.: Erosion der bürgerlichen Freiheiten (2020) 0.02
    0.017365975 = product of:
      0.03473195 = sum of:
        0.03473195 = product of:
          0.0694639 = sum of:
            0.0694639 = weight(_text_:22 in 82) [ClassicSimilarity], result of:
              0.0694639 = score(doc=82,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.38690117 = fieldWeight in 82, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=82)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2020 19:16:24
  20. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.02
    0.017365975 = product of:
      0.03473195 = sum of:
        0.03473195 = product of:
          0.0694639 = sum of:
            0.0694639 = weight(_text_:22 in 236) [ClassicSimilarity], result of:
              0.0694639 = score(doc=236,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.38690117 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    7. 5.2021 22:10:24

Years

Languages

  • d 95
  • e 29
  • a 1
  • More… Less…