Search (124 results, page 2 of 7)

  • × language_ss:"d"
  • × type_ss:"el"
  1. Wolchover, N.: Wie ein Aufsehen erregender Beweis kaum Beachtung fand (2017) 0.01
    0.0051143095 = product of:
      0.035800166 = sum of:
        0.035800166 = product of:
          0.07160033 = sum of:
            0.07160033 = weight(_text_:22 in 3582) [ClassicSimilarity], result of:
              0.07160033 = score(doc=3582,freq=4.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.54716086 = fieldWeight in 3582, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3582)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 4.2017 10:42:05
    22. 4.2017 10:48:38
  2. Hafner, R.; Schelling, B.: Automatisierung der Sacherschließung mit Semantic Web Technologie (2015) 0.01
    0.005062908 = product of:
      0.035440356 = sum of:
        0.035440356 = product of:
          0.07088071 = sum of:
            0.07088071 = weight(_text_:22 in 8365) [ClassicSimilarity], result of:
              0.07088071 = score(doc=8365,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.5416616 = fieldWeight in 8365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=8365)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 6.2015 16:08:38
  3. Vögel unserer Heimat (1999) 0.01
    0.005062908 = product of:
      0.035440356 = sum of:
        0.035440356 = product of:
          0.07088071 = sum of:
            0.07088071 = weight(_text_:22 in 4084) [ClassicSimilarity], result of:
              0.07088071 = score(doc=4084,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.5416616 = fieldWeight in 4084, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4084)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    7.11.1999 18:22:54
  4. Schlingensiepen, J.: Generative KI in Lehre, Forschung und Transfer : Perspektiven für die Hochschulen für angewandte Wissenschaften (2024) 0.00
    0.0048879073 = product of:
      0.03421535 = sum of:
        0.03421535 = product of:
          0.0684307 = sum of:
            0.0684307 = weight(_text_:anwendung in 1215) [ClassicSimilarity], result of:
              0.0684307 = score(doc=1215,freq=4.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3782405 = fieldWeight in 1215, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1215)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Digitalisierung und insbesondere die Entwicklung der (generativen) Künstlichen Intelligenz (KI) schreiten in einem rasanten Tempo voran. Laufend werden neue Möglichkeiten erschlossen und Horizonte eröffnet. Gesellschaft, Wissenschaft, Wirtschaft und Politik können mit dieser enormen Geschwindigkeit kaum mithalten. An den Hochschulen stellen die neuen Möglichkeiten generativer KI bisherige Lehr-, Lern- und Prüfungsformate in Frage. Zugleich stehen die Hochschulen vor der Herausforderung, die Studierenden auf eine Arbeitswelt vorzubereiten, in der generative KI-Werkzeuge allgegenwärtig sein werden. Als Partner der lokalen Industrie sind die Hochschulen als Ratgeber und Unterstützer bei der Entwicklung und Anwendung von KI-Systemen gefragt. Den Hochschulen für angewandte Wissenschaften kommt in diesem Gefüge eine besondere Rolle und Verantwortung zu. Gesellschaft und Wirtschaft erwarten von den Hochschulen für angewandte Wissenschaften, dass sie fundiertes und realistisches Wissen über die Möglichkeiten und Grenzen von Künstlicher Intelligenz bereitstellen und Nutzungskompetenz vermitteln. Die Hochschulen für angewandte Wissenschaften werden als Multiplikatoren wahrgenommen und adressiert, Anwendungsmöglichkeiten zu erschließen und Arbeitskräfte auszubilden, die die notwendigen Kompetenzen für eine erfolgreiche Anwendung Künstlicher Intelligenz in die Berufspraxis einbringen.
  5. Systematik für Bibliotheken : SfB (1997) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 893) [ClassicSimilarity], result of:
              0.06774294 = score(doc=893,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 893, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=893)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die SfB ist eine Aufstellungssystematik, die aus 31 Fachgebieten und mehreren Formal- und Sachschlüsseln besteht. Gerade wegen der differenzierten Gliederung von Bibliotheksbeständen sowie dem Bestreben der Bibliotheken, Klassen zu reduzieren, ist die SfB für die sachliche Aufstellung von kleinen bis sehr großen Bibliotheksbeständen geeignet. Die SfB wurde ursprünglich auf der Grundlage der hannoverschen Systematik (SSH) erarbeitet und zwischen 1978 und 1987 vom K.G.Saur-Verlag erstmals publiziert. Neben der ASB findet die SfB Anwendung in 40 öffentlichen und wissenschaftlichen Bibliotheken. Die jetzt vorliegende Überarbeitung berücksichtigt fachlich neue Entwicklungen und richtet sich terminologisch soweit wie möglich nach dem Vokabular der Schlagwortnormdatei. Der Buchausgabe der SfB liegt eine maschinenlesbare Version auf 3,5"-Diskette bei. Eine regelmäßige Aktualisierung ist vorgesehen
  6. Retti, G.: "Schlagwortnormdatei" und "Regeln für den Schlagwortkatalog" (1995) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 1354) [ClassicSimilarity], result of:
              0.06774294 = score(doc=1354,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 1354, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1354)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Es scheint naheliegend, daß der Unsicherheit, welche durch die "Vielfalt der möglichen sprachlichen Ausdrucksweisen für einen Sachverhalt" beim Beschlagworter ausgelöst wird, dadurch begegnet werden soll, "daß immer nur eine der möglichen Formen gewählt wird". Der Ruf nach einer "Standardisie- rung der Schlagwörter" geht damit Hand in Hand. Zwei Ergebnisse dieser Standardisierungsbemühungen werden im folgenden dargestellt; ein Punkt aber sollte dabei nicht übersehen werden: "Ein allgemein akzeptiertes Verfahren der Inhaltsanalyse gibt es bisher nicht und es ist offen, ob das Problem überhaupt gelöst werden kann." Standardisiert kann demnach nur das Schlagwortsystem werden, nicht aber seine konkrete Anwendung bei der inhaltlichen Erschließung von Dokumenten.
  7. Dogtas, G.; Ibitz, M.-P.; Jonitz, F.; Kocher, V.; Poyer, A.,; Stapf, L.: Kritik an rassifizierenden und diskriminierenden Titeln und Metadaten : Praxisorientierte Lösungsansätze (2022) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 1828) [ClassicSimilarity], result of:
              0.06774294 = score(doc=1828,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 1828, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1828)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    In den letzten Jahren ist eine Debatte immer stärker in der Öffentlichkeit ausgetragen worden: Wie mit rassistischen Inhalten umgehen? Auch in Bibliotheken, Archiven und Museen muss die Frage gestellt werden, welche Methoden Anwendung finden sollen, um diskriminierende Inhalte nicht weiter zu reproduzieren. Der Beitrag untersucht Methoden im Umgang mit rassifizierendem und diskriminierendem Vokabular sowie den technischen Herausforderungen. Bei dem Versuch praxisorientierte Lösungsansätze zu verhandeln, werden die Bedürfnisse von kuratorischer Verantwortung, Einbeziehung, Nutzung und Bereitstellung diskutiert und in einem Orientierungsleitfaden zusammengeführt.
  8. Wiesenmüller, H.: Monografische Reihen : Abschaffung der hierarchischen Beschreibung? (2016) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 3002) [ClassicSimilarity], result of:
              0.06774294 = score(doc=3002,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 3002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3002)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Unter RDA ist es nicht mehr zwingend vorgeschrieben, gezählte monografische Reihen hierarchisch zu beschreiben. Der HeBIS-Verbund hat die hierarchische Beschreibung monografischer Reihen vor kurzem vollständig abgeschafft: "Teile aus monografischen Reihen werden analytisch unter Verzicht auf eine Verknüpfung zur Aufnahme der Reihe erschlossen", heißt es in den Verbundfestlegungen (Version 3, Stand 10.12.2015, S. 2). Soweit ich weiß, haben drei weitere Verbünde (BVB, KOBV und GBV) die Anwendung "flexibilisiert", d.h. es ihren Bibliotheken freigestellt, ob sie die hierarchische Beschreibung für monografische Reihen weiter verwenden oder nicht. Ich verfolge diese Entwicklung mit großer Sorge und, offen gesprochen, auch mit einigem Unverständnis. Denn nach meiner Einschätzung ist die hierarchische Beschreibung der analytischen nicht nur im Ergebnis merklich überlegen, sondern sie ist auch weitaus effizienter und rationeller.
  9. Hinrichs, I.; Milmeister, G.; Schäuble, P.; Steenweg, H.: Computerunterstützte Sacherschließung mit dem Digitalen Assistenten (DA-2) (2016) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 3563) [ClassicSimilarity], result of:
              0.06774294 = score(doc=3563,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 3563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3563)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Wir beschreiben den Digitalen Assistenten DA-2, den wir zur Unterstützung der Sacherschliessung im IBS-Verbund implementiert haben. Diese webbasierte Anwendung ist eine vollständige Neuimplementierung, welche die Erkenntnisse des Vorgängersystems bei der Zentralbibliothek Zürich berücksichtigt. Wir stellen Überlegungen zur Zukunft der Sacherschliessung an und geben eine Übersicht über Projekte mit ähnlichen Zielsetzungen, die Sacherschließung mit Computerunterstützung effizienter und besser zu gestalten.
  10. Wiesenmüller, H.: Erste Erfahrungen mit RDA an wissenschaftlichen Universalbibliotheken in Deutschland : Ergebnisse aus Fokusgruppengesprächen mit Katalogisierenden (2017) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 3565) [ClassicSimilarity], result of:
              0.06774294 = score(doc=3565,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 3565, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3565)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Einige Monate nach dem Umstieg auf das neue Regelwerk "Resource Description and Access" (RDA) wurden an 18 großen deutschen wissenschaftlichen Universalbibliotheken Fokusgruppengespräche mit Katalogisierererinnen und Katalogisierern durchgeführt. Die Katalogisierenden wurden u.a. befragt, wie sicher sie sich bei der Anwendung von RDA fühlen, was sie am neuen Regelwerk gut oder schlecht finden, wie sie den Aufwand im Vergleich zum früheren Regelwerk RAK einschätzen, welche Informations- und Hilfsmittel sie verwenden und wie sie zu den regelmäßigen Änderungen im Standard stehen. Der vorliegende Aufsatz dokumentiert die Ergebnisse der Gespräche.
  11. Peters-Kottig, W.: Anwendung von OPUS für Forschungsdaten : das Beispiel eines außeruniversitären Forschungsinstituts (2018) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 4351) [ClassicSimilarity], result of:
              0.06774294 = score(doc=4351,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 4351, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4351)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  12. Bourdon, F.: Funktionale Anforderungen an bibliographische Datensätze und ein internationales Nummernsystem für Normdaten : wie weit kann Normierung durch Technik unterstützt werden? (2001) 0.00
    0.0043396354 = product of:
      0.030377446 = sum of:
        0.030377446 = product of:
          0.06075489 = sum of:
            0.06075489 = weight(_text_:22 in 6888) [ClassicSimilarity], result of:
              0.06075489 = score(doc=6888,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.46428138 = fieldWeight in 6888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6888)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    26.12.2011 12:30:22
  13. Röthler, D.: "Lehrautomaten" oder die MOOC-Vision der späten 60er Jahre (2014) 0.00
    0.0043396354 = product of:
      0.030377446 = sum of:
        0.030377446 = product of:
          0.06075489 = sum of:
            0.06075489 = weight(_text_:22 in 1552) [ClassicSimilarity], result of:
              0.06075489 = score(doc=1552,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.46428138 = fieldWeight in 1552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1552)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 6.2018 11:04:35
  14. Jaeger, L.: Wissenschaftler versus Wissenschaft (2020) 0.00
    0.0043396354 = product of:
      0.030377446 = sum of:
        0.030377446 = product of:
          0.06075489 = sum of:
            0.06075489 = weight(_text_:22 in 4156) [ClassicSimilarity], result of:
              0.06075489 = score(doc=4156,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.46428138 = fieldWeight in 4156, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4156)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    2. 3.2020 14:08:22
  15. ¬Der Brockhaus in Text und Bild : Das Lexikon in der PC-Bibliothek (2003) 0.00
    0.0041475273 = product of:
      0.029032689 = sum of:
        0.029032689 = product of:
          0.058065377 = sum of:
            0.058065377 = weight(_text_:anwendung in 1664) [ClassicSimilarity], result of:
              0.058065377 = score(doc=1664,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3209477 = fieldWeight in 1664, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1664)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Text-und-Bild-Version aus der Brockhausreihe punktet durch Schonung der PC-Ressourcen und weist auch durch die Basis-Software "PC-Bibliothek" einige Vorteile auf. Diese kann zusammen mit anderen Nachschlagewerken des Duden-/Brockhaus-Verlags verwendet werden, und die Umstellung auf neue Benutzeroberflächen wird umgangen. Die "PC-Bibliothek' verfügt neben der Standard-Ansicht auch über einen Expertenmodus mit exakten Suchmöglichkeiten. Der Verzicht auf grafischen Spielereien erweist sich als wohltuend und lenkt von der Information selbst kaum ab: Außerdem läuft das Werk auch auf Maschinen älteren Datums. Mit der Direktsuche greift das Lexikon Begriffe direkt aus einer anderen Anwendung heraus und stellt die ersten Zeilen des Artikels dar, ohne gleich das gesamte Programm zu öffnen. Die aktuelle Version ist durch einige Artikel auf 119.000 erweitert worden und enthält nun auch die digitale Version des Computer- und IT Brockhaus. Ein Dienst am Kunden ist durch den Verzicht auf das zwangsweise Einlegen der CD-ROM gelungen, wie es noch in der Ausgabe 2002 der Fall war. Den Schutz der Rechte in allen Ehren, aber diese Ambitionen hatten die Benutzerfreundlichkeit auf ein inakzeptables Maßherabgesetzt.
  16. Zapilko, B.: InFoLiS (2017) 0.00
    0.0041475273 = product of:
      0.029032689 = sum of:
        0.029032689 = product of:
          0.058065377 = sum of:
            0.058065377 = weight(_text_:anwendung in 1031) [ClassicSimilarity], result of:
              0.058065377 = score(doc=1031,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3209477 = fieldWeight in 1031, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1031)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die von der DFG geförderte InFoLiS-Projektreihe wurde dieses Jahr erfolgreich abgeschlossen. Die Projekte wurden von GESIS - Leibniz-Institut für Sozialwissenschaften, der Universitätsbibliothek Mannheim und der Hochschule der Medien Stuttgart durchgeführt. Ziel der Projekte InFoLiS I und InFoLiS II war die Entwicklung von Verfahren zur Verknüpfung von Forschungsdaten und Literatur. Diese Verknüpfung kann einen erheblichen Mehrwert für Recherchesystem in Informationsinfrastrukturen wie Bibliotheken und Forschungsdatenzentren für die Recherche der Nutzerinnen und Nutzer darstellen. Die Projektergebnisse im Einzelnen sind: - Entwicklung von Verfahren für die automatische Verknüpfung von Publikationen und Forschungsdaten - Integration dieser Verknüpfungen in die Recherchesysteme der Projektpartner - Automatische Verschlagwortung von Forschungsdaten - Überführung der entwickelten Verfahren in eine Linked Open Data-basierte nachnutzbare Infrastruktur mit Webservices und APIs - Anwendung der Verfahren auf einer disziplinübergreifenden und mehrsprachigen Datenbasis - Nachnutzbarkeit der Links durch die Verwendung einer Forschungsdatenontologie Weitere Informationen finden sich auf der Projekthomepage [http://infolis.github.io/]. Sämtliche Projektergebnisse inklusive Quellcode stehen Open Source auf unserer GitHub-Seite [http://www.github.com/infolis/] für eine Nachnutzung zur Verfügung. Bei Interesse an einer Nachnutzung oder Weiterentwicklung Kontakt-E-Mail (benjamin.zapilko@gesis.org<mailto:benjamin.zapilko@gesis.org>).
  17. Schöneberg, U.; Gödert, W.: Erschließung mathematischer Publikationen mittels linguistischer Verfahren (2012) 0.00
    0.0041475273 = product of:
      0.029032689 = sum of:
        0.029032689 = product of:
          0.058065377 = sum of:
            0.058065377 = weight(_text_:anwendung in 1055) [ClassicSimilarity], result of:
              0.058065377 = score(doc=1055,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3209477 = fieldWeight in 1055, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1055)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Zahl der mathematik-relevanten Publikationn steigt von Jahr zu Jahr an. Referatedienste wie da Zentralblatt MATH und Mathematical Reviews erfassen die bibliographischen Daten, erschließen die Arbeiten inhaltlich und machen sie - heute über Datenbanken, früher in gedruckter Form - für den Nutzer suchbar. Keywords sind ein wesentlicher Bestandteil der inhaltlichen Erschließung der Publikationen. Keywords sind meist keine einzelnen Wörter, sondern Mehrwortphrasen. Das legt die Anwendung linguistischer Methoden und Verfahren nahe. Die an der FH Köln entwickelte Software 'Lingo' wurde für die speziellen Anforderungen mathematischer Texte angepasst und sowohl zum Aufbau eines kontrollierten Vokabulars als auch zur Extraction von Keywords aus mathematischen Publikationen genutzt. Es ist geplant, über eine Verknüpfung von kontrolliertem Vokabular und der Mathematical Subject Classification Methoden für die automatische Klassifikation für den Referatedienst Zentralblatt MATH zu entwickeln und zu erproben.
  18. Neudecker, C.; Rehm, G,: Digitale Kuratierungstechnologien für Bibliotheken (2016) 0.00
    0.0041475273 = product of:
      0.029032689 = sum of:
        0.029032689 = product of:
          0.058065377 = sum of:
            0.058065377 = weight(_text_:anwendung in 3208) [ClassicSimilarity], result of:
              0.058065377 = score(doc=3208,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3209477 = fieldWeight in 3208, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3208)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    In diesem Artikel werden digitale Kuratierungstechnologien vorgestellt, wie sie aktuell im Rahmen eines vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Verbundprojekts unter der Leitung des DFKI für die Anwendung in verschiedenen Branchen und Domänen entwickelt werden. Der besondere Augenmerk liegt dabei auf deren Anwendungsszenarien in Bibliotheken - nach einer Einführung in die Herausforderungen, die sich durch die Massendigitalisierung in Bibliotheken stellen, werden exemplarisch Einsatzmöglichkeiten von Kuratierungstechnologien im Kontext von Bibliotheken vorgestellt. Anhand von Beispielen aus der bibliothekarischen Arbeit im 21. Jahrhundert, sowie der Nachnutzung digitaler Bibliotheksdaten in Wissenschaft und Kreativwirtschaft, werden die vielfältigen Möglichkeiten und Potenziale der Nutzung von Kuratierungstechnologien zur Datenaufbereitung, -anreicherung und Bereitstellung von attraktiven Diensten in Bibliotheken sowie für die Entwicklung neuartiger Forschungs- und Geschäftsfelder in deren Umfeld aufgezeigt.
  19. Suominen, O.; Hyvönen, N.: From MARC silos to Linked Data silos? (2017) 0.00
    0.0041475273 = product of:
      0.029032689 = sum of:
        0.029032689 = product of:
          0.058065377 = sum of:
            0.058065377 = weight(_text_:anwendung in 3732) [ClassicSimilarity], result of:
              0.058065377 = score(doc=3732,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3209477 = fieldWeight in 3732, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3732)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Seit einiger Zeit stellen Bibliotheken ihre bibliografischen Metadadaten verstärkt offen in Form von Linked Data zur Verfügung. Dabei kommen jedoch ganz unterschiedliche Modelle für die Strukturierung der bibliografischen Daten zur Anwendung. Manche Bibliotheken verwenden ein auf FRBR basierendes Modell mit mehreren Schichten von Entitäten, während andere flache, am Datensatz orientierte Modelle nutzen. Der Wildwuchs bei den Datenmodellen erschwert die Nachnutzung der bibliografischen Daten. Im Ergebnis haben die Bibliotheken die früheren MARC-Silos nur mit zueinander inkompatiblen Linked-Data-Silos vertauscht. Deshalb ist es häufig schwierig, Datensets miteinander zu kombinieren und nachzunutzen. Kleinere Unterschiede in der Datenmodellierung lassen sich zwar durch Schema Mappings in den Griff bekommen, doch erscheint es fraglich, ob die Interoperabilität insgesamt zugenommen hat. Der Beitrag stellt die Ergebnisse einer Studie zu verschiedenen veröffentlichten Sets von bibliografischen Daten vor. Dabei werden auch die unterschiedlichen Modelle betrachtet, um bibliografische Daten als RDF darzustellen, sowie Werkzeuge zur Erzeugung von entsprechenden Daten aus dem MARC-Format. Abschließend wird der von der Finnischen Nationalbibliothek verfolgte Ansatz behandelt.
  20. Helbig, K.; Biernacka, K.; Buchholz, P.; Dolzycka, D.; Hartmann, N.; Hartmann, T.; Hiemenz, B.M.; Jacob, B.; Kuberek, M.; Weiß, N.; Dreyer, M.: Lösungen und Leitfäden für das institutionelle Forschungsdatenmanagement (2019) 0.00
    0.0041475273 = product of:
      0.029032689 = sum of:
        0.029032689 = product of:
          0.058065377 = sum of:
            0.058065377 = weight(_text_:anwendung in 5595) [ClassicSimilarity], result of:
              0.058065377 = score(doc=5595,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3209477 = fieldWeight in 5595, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5595)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Hochschulen und deren Zentraleinrichtungen beschäftigen sich zunehmend mit dem Thema Forschungsdatenmanagement (FDM), um ihre Forschenden adäquat zu unterstützen. Nicht zuletzt aufgrund neuer Verlags- und Förderanforderungen wünschen sich Forschende Beratung und Orientierung, wie sie mit ihren Forschungsdaten umgehen sollen. Damit Hochschulen schnell und nachhaltig Lösungen zum institutionellen FDM etablieren können, haben fünf Berliner und Brandenburger Universitäten im gemeinsamen Verbundvorhaben FDMentor mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) entsprechende Leitfäden und Werkzeuge erarbeitet. Die innerhalb von zwei Jahren (2017-2019) entstandenen Ergebnisse in den Bereichen Strategieentwicklung, Forschungsdaten-Policy, rechtliche Aspekte und Kompetenzausbau finden über das Verbundprojekt hinaus ihre Anwendung.

Years

Types

  • a 61
  • i 11
  • m 6
  • r 3
  • x 3
  • b 1
  • p 1
  • s 1
  • More… Less…