Search (14 results, page 1 of 1)

  • × author_ss:"Neuroth, H."
  1. Neuroth, H.; Aschenbrenner, A.; Lohmeier, F.: e-Humanities - eine virtuelle Forschungsumgebung für die Geistes -, Kultur- und Sozialwissenschaften (2007) 0.04
    0.041484382 = product of:
      0.12445314 = sum of:
        0.05103216 = weight(_text_:und in 4570) [ClassicSimilarity], result of:
          0.05103216 = score(doc=4570,freq=22.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.48729765 = fieldWeight in 4570, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4570)
        0.07342099 = weight(_text_:anwendung in 4570) [ClassicSimilarity], result of:
          0.07342099 = score(doc=4570,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 4570, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=4570)
      0.33333334 = coord(2/6)
    
    Abstract
    Forschung und Lehre in den Humanities (Geistes-, Kultur und Sozialwissenschaften) macht zunehmend Gebrauch von digitalen Werkzeugen. Die technologische Unterstützung wird kontinuierlich ausgebaut und steht gerade heute vor einem weiteren großen Entwicklungsschritt. Ein enormes Potenzial liegt - gerade für die Humanities - in der Anwendung moderner Internet-Technologien, dem Einsatz von "Social Software" und der konsequenten Vernetzung von Informationen und Werkzeugen. Umfangreicher Zugriff auf wissenschaftliche Daten, generische Werkzeuge zur Analyse und zur Unterstützung der Arbeitsprozesse, verbesserte Zusammenarbeit zwischen Forschergruppen und über Disziplinen hinweg - diese Stichwörter zählen zu den Triebfedern auf dem Weg in die vernetzten "e-Humanities". Der Aufbau einer virtuellen Forschungsumgebung für die Humanities lässt sich in drei Schichten unterteilen: die Forschung, eine Forschungsinfrastruktur und die Basisinfrastruktur. Die Ausdifferenzierung dieser Bereiche und die Beschreibung möglicher Aufgaben einer Forschungsinfrastruktur für die "e-Humanities" sind Kernthemen dieses Artikels.
    Source
    Bibliothek: Forschung und Praxis. 31(2007) H.3, S.272-279
  2. Neuroth, H.; Lepschy, P.: ¬Das EU-Projekt Renardus (2001) 0.04
    0.038816586 = product of:
      0.07763317 = sum of:
        0.034405876 = weight(_text_:und in 5589) [ClassicSimilarity], result of:
          0.034405876 = score(doc=5589,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.328536 = fieldWeight in 5589, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.02402186 = weight(_text_:des in 5589) [ClassicSimilarity], result of:
          0.02402186 = score(doc=5589,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 5589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.01920544 = product of:
          0.03841088 = sum of:
            0.03841088 = weight(_text_:22 in 5589) [ClassicSimilarity], result of:
              0.03841088 = score(doc=5589,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.23214069 = fieldWeight in 5589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5589)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Der vollständige Projektname von Renardus lautet "Academic Subject Gateway Service Europe". Renardus wird von der Europäischen Union im 5. Rahmenprogramm mit dem Schwerpunktthema "Information Society Technologies" im zweiten Thematischen Programm "Benutzerfreundliche Informationsgesellschaft" ('Promoting a User-friendly Information Society') gefördert. Die Projektlaufzeit ist von Januar 2000 bis Juni 2002. Insgesamt zwölf Partner (Principal und Assistant Contractors) aus Finnland, Dänemark, Schweden, Großbritannien, den Niederlanden, Frankreich und Deutschland beteiligen sich an diesem Projekt. Die Europäische Union unterstützt das Projekt mit 1,7 Mio. EURO, die Gesamtkosten belaufen sich inklusive der Eigenbeteiligungen der Partner auf 2,3 Mio. EURO. Das Ziel des Projektes Renardus ist es, über eine Schnittstelle Zugriff auf verteilte Sammlungen von "High Quality" Internet Ressourcen in Europa zu ermöglichen. Diese Schnittstelle wird über den Renardus Broker realisiert, der das "Cross-Searchen" und "Cross-Browsen" über verteilte "Quality-Controlled Subject Gateways" ermöglicht. Ein weiteres Ziel von Renardus ist es, Möglichkeiten von "metadata sharing" zu evaluieren und in kleinen Experimenten zwischen z. B. Subject Gateways und Nationalbibliothek zu testen bzw. zu realisieren
    Date
    22. 6.2002 19:32:15
  3. Dobratz, S.; Neuroth, H.; Schoger, A.; Strathmann, S.: nestor - Entwicklungsstand des Kompetenznetzwerkes zur Langzeitarchivierung digitaler Ressourcen in Deutschland (2005) 0.03
    0.029042853 = product of:
      0.08712856 = sum of:
        0.04749451 = weight(_text_:und in 3714) [ClassicSimilarity], result of:
          0.04749451 = score(doc=3714,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4535172 = fieldWeight in 3714, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3714)
        0.03963405 = weight(_text_:des in 3714) [ClassicSimilarity], result of:
          0.03963405 = score(doc=3714,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.302893 = fieldWeight in 3714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3714)
      0.33333334 = coord(2/6)
    
    Abstract
    nestor, das Kompetenznetzwerk Langzeitarchivierung hat sich in seinem 2. Projektjahr bereits zu einer Informationsquelle und zum Kommunikationsmittelpunkt für das Thema digitale Langzeitarchivierung in Deutschland entwickelt. Mit der Bereitstellung des deutsch- und englischsprachigen WWW-Portals, der Informations- und der Kommunikationsplattform sowie der Initiierung von Expertisen zu ausgewählten Bereichen der digitalen Langzeitarchivierung und der Einrichtung thematischer Arbeitsgruppen nimmt nestor seine Aufgabe als »Vermittler« zwischen denen, die bereits eine gewisse Professionalität in Bezug auf einzelne Aspekte der digitalen Langzeitarchivierung erreicht haben und denen, die sich am Anfang ihrer Kenntnisse und Erfahrungen befinden, wahr.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 52(2005) H.3/4, S.151-162
  4. Neuroth, H.: Suche in verteilten "Quality-controlled Subject Gateways" : Entwicklung eines Metadatenprofils (2002) 0.02
    0.022902666 = product of:
      0.068707995 = sum of:
        0.02867156 = weight(_text_:und in 2522) [ClassicSimilarity], result of:
          0.02867156 = score(doc=2522,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.27378 = fieldWeight in 2522, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2522)
        0.040036436 = weight(_text_:des in 2522) [ClassicSimilarity], result of:
          0.040036436 = score(doc=2522,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.30596817 = fieldWeight in 2522, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2522)
      0.33333334 = coord(2/6)
    
    Abstract
    Die seit ca. 1996 rasche Entwicklung des Internet bzw. des World Wide Web (WWW) hat die Praxis der Veröffentlichung, Verbreitung und Nutzung wissenschaftlicher Informationen grundlegend verändert. Um diese Informationen suchbar und retrievalfähig zu gestalten, ist in den letzten Jahren international viel diskutiert worden. Ein vielversprechender Ansatz, diesen neuen Herausforderungen zu begegnen, liegt in der Entwicklung von Metadatenprofilen. Da durch das Internet verschiedene Datenbestände, die von unterschiedlichen Bereichen wie Museen, Bibliotheken, Archiven etc. vorgehalten werden, unter einer Oberfläche durchsucht werden können, können Metadaten auch in diesem Bereich dazu beitragen, ein einheitliches Konzept zur Beschreibung und zum Retrieval von Online-Ressourcen zu entwickeln. Um die verteilt liegenden Dokumente unter einer Oberfläche für eine qualitativ hochwertige Recherche ("Cross-Search`) anbieten zu können, ist die Verständigung auf ein Core-Set an Metadaten und daran anschließend verschiedene Mappingprozesse ("Cross-walk`) von den lokalen Metadatenformaten zu dem Format des Core-Set an Metadaten notwendig. Ziel des Artikels' ist es, die einzelnen Schritte, die für die Entwicklung eines Metadatenprofils für die gemeinsame Suche über verteilte Metadatensammlungen notwendig sind, aufzuzeigen.
    Source
    Bibliothek: Forschung und Praxis. 26(2002) H.3, S.275-296
  5. Meyer-Doerpinghaus, U.; Neuroth, H.: ¬Die Stärkung von Informationskompetenz im Kontext des Forschungsdatenmanagements : eine Herausforderung für Hochschulen und Politik (2015) 0.02
    0.021581864 = product of:
      0.06474559 = sum of:
        0.030773548 = weight(_text_:und in 2537) [ClassicSimilarity], result of:
          0.030773548 = score(doc=2537,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 2537, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2537)
        0.03397204 = weight(_text_:des in 2537) [ClassicSimilarity], result of:
          0.03397204 = score(doc=2537,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.25962257 = fieldWeight in 2537, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2537)
      0.33333334 = coord(2/6)
    
    Abstract
    Um das Forschungsdatenmanagement an den Hochschulen erfolgreich zu implementieren, ist eine entsprechende Stärkung der Informationskompetenz unverzichtbar. Nicht nur die Lernenden, Lehrenden und Forschenden sind gefragt, auch die Serviceeinrichtungen der Hochschulen sollten sich auf die neue Herausforderung einstellen. Die Hochschulen sind aufgerufen, neue Studiengänge anzubieten, die Berufsprofile wie den Data Steward, den Data Librarian oder den Data Scientist schaffen. Unerlässlich ist außerdem auch das Engagement der Hochschulleitungen. Es existieren an deutschen Hochschulen bereits einige gute Beispiele, sowohl was den Aufbau eines Forschungsdatenmanagements als auch der entsprechenden Informationskompetenz angeht. Allerdings bedarf es zugleich eines koordinierenden Handelns, damit bestehende bottom up-Initiativen zu einem national und international abgestimmten Forschungsdatenmanagement weiterentwickelt werden können. Hier ist vor allem die Politik gefragt. Sie sollte sich nicht nur an der nationalen Koordinierung des Forschungsdatenmanagements aktiv beteiligen, sondern auch die nötigen Sondermittel bereitstellen.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 62(2015) H.2, S.80-84
  6. Becker, H.J.; Neuroth, H.: Crosssearchen und crossbrowsen von "Quality-controlled Subject Gateways" im EU-Projekt Renardus (2002) 0.02
    0.019475913 = product of:
      0.058427736 = sum of:
        0.034405876 = weight(_text_:und in 630) [ClassicSimilarity], result of:
          0.034405876 = score(doc=630,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.328536 = fieldWeight in 630, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
        0.02402186 = weight(_text_:des in 630) [ClassicSimilarity], result of:
          0.02402186 = score(doc=630,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 630, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
      0.33333334 = coord(2/6)
    
    Abstract
    Das von der Europäischen Union seit Januar 2000 geförderte Projekt Renardus hat das Ziel, einen Service zur Nutzung der in Europa vorhandenen "Quality-controlled Subject Gateways" aufzubauen, d.h. über einen Zugang bzw. eine Schnittstelle crosssearchen und crossbrowsen anzubieten. Für das crossbrowsen wird dabei zum Navigieren die Dewey Decimal Classification (DDC) verwendet. Der Beitrag beschreibt die einzelnen Entwicklungsschritte und stellt detailliert die nötigen Mappingprozesse vor. Dabei handelt es sich einmal um Mappingprozesse von den lokalen Metadatenformaten der einzelnen Subject Gateways zu dem gemeinsamen Kernset an Metadaten in Renardus für die Suche, wobei dieses Kernset auf dem Dublin Core Metadata Set basiert. Zum anderen geht es um die Erstellung von Konkordanzen zwischen den lokalen Klassen der Klassifikationssysteme der Partner und den DDC-Klassen für das Browsen. Der Beitrag beschreibt auch neue zugrunde liegende Definitionen bzw.theoretische Konzepte, die in der Metadatengemeinschaft zurzeit diskutiert werden (z.B. Application Profile, Namespace, Registry). Zum Schluss werden die Funktionalitäten des Renardus-Services (suchen, browsen) näher vorgestellt.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 49(2002) H.3, S.133-146
  7. Cremer, M.; Neuroth, H.: ¬Eine Zukunftswerkstatt des Katalogisierens? : Das CORC-Projekt: Erfahrungen an der SUB Göttingen (2000) 0.02
    0.01751495 = product of:
      0.052544847 = sum of:
        0.0205157 = weight(_text_:und in 4519) [ClassicSimilarity], result of:
          0.0205157 = score(doc=4519,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.19590102 = fieldWeight in 4519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4519)
        0.03202915 = weight(_text_:des in 4519) [ClassicSimilarity], result of:
          0.03202915 = score(doc=4519,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 4519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4519)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit dem Dublin Core Set liegt ein weltweit anerkanntes Format für den Nachweis von Internetressourcen vor. Nach dem Vorbild der Buchkatalogisierung im Verbund werden im Rahmen eines Projektes Nachweise kooperativ erfasst und in einer Datenbank zentral nachgewiesen. Initiator ist der US-amerikanische Verbund OCLC
  8. Becker, H.-J.; Hengel, C.; Neuroth, H.; Weiß, B.; Wessel, C.: ¬Die Virtuelle Fachbibliothek als Schnittstelle für eine fachübergreifende Suche in den einzelnen Virtuellen Fachbibliotheken : Definition eines Metadaten-Kernsets (VLib Application Profile) (2002) 0.02
    0.017142115 = product of:
      0.051426344 = sum of:
        0.031408124 = weight(_text_:und in 2856) [ClassicSimilarity], result of:
          0.031408124 = score(doc=2856,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29991096 = fieldWeight in 2856, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
        0.020018218 = weight(_text_:des in 2856) [ClassicSimilarity], result of:
          0.020018218 = score(doc=2856,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 2856, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
      0.33333334 = coord(2/6)
    
    Abstract
    Der folgende Beitrag beschäftigt sich nicht mit einer konkreten Virtuellen Fachbibliothek, sondern mit dem übergreifenden Themenkomplex "Metadaten" und der Fragestellung, wie Metadaten für eine fachübergreifende Suche über alle Virtuellen Fachbibliotheken eingesetzt werden können. Im Rahmen des Aufbaus der Virtuellen Fachbibliotheken hat die Projektkoordinierung Unterarbeitsgruppen zur Lösung spezifischer Fragestellungen ins Leben gerufen. Der Arbeitsbereich "Metadaten" ist von dem von der DFG geförderten Projekt META-LIB (Metadaten-Initiative deutscher Bibliotheken) mit den Teilprojekten an Der Deutschen Bibliothek und der SUB Göttingen übernommen worden. META-LIB erhielt die Aufgabe, "Empfehlungen zur Definition eines Metadaten-Core-Sets für die verteilte Suche über die Virtuellen Fachbibliotheken" zu entwickeln. Im folgenden werden die Empfehlungen vorgestellt. Sie basieren auf den Ergebnissen und der Auswertung von Antworteng eines Internet-Fragebogens, in dem die Datenelemente erfragt wurden, die in den einzelnen Virtuellen Fachbibliotheken zur Erschließung verwendet bzw. benötigt werden. Für die Formulierung der Empfehlungen und zur Abstimmung sind zwei MetadatenWorkshops (am 16. Mai 2001 in der SUB Göttingen und am 9./10. August 2001 in der Deutschen Bibliothek Frankfurt am Main) durchgeführt worden, deren Ergebnisse und Diskussionen als Grundlage dienen.
  9. Neuroth, H.: Forschungsdaten (2023) 0.01
    0.0062816245 = product of:
      0.037689745 = sum of:
        0.037689745 = weight(_text_:und in 795) [ClassicSimilarity], result of:
          0.037689745 = score(doc=795,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.35989314 = fieldWeight in 795, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=795)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Begriff Forschungsdaten wird mittlerweile völlig selbstverständlich in verschiedenen Kontexten genutzt, trotzdem ist es schwierig, eine einheitliche und abgestimmte Definition zu finden. In den Leitlinien zum Umgang mit Forschungsdaten der Deutschen Forschungsgemeinschaft (DFG 2015) findet sich eine umfassende Beschreibung, welche Forschungsobjekte Gegenstand der wissenschaftlichen Tätigkeit sein können und als Forschungsdaten gelten: Forschungsdaten sind eine wesentliche Grundlage für das wissenschaftliche Arbeiten. Die Vielfalt solcher Daten entspricht der Vielfalt unterschiedlicher wissenschaftlicher Disziplinen, Erkenntnisinteressen und Forschungsverfahren. Zu Forschungsdaten zählen u. a. Messdaten, Laborwerte, audiovisuelle Informationen, Texte, Surveydaten, Objekte aus Sammlungen oder Proben, die in der wissenschaftlichen Arbeit entstehen, entwickelt oder ausgewertet werden. Methodische Testverfahren, wie Fragebögen, Software und Simulationen können ebenfalls zentrale Ergebnisse wissenschaftlicher Forschung darstellen und sollten daher ebenfalls unter den Begriff Forschungsdaten gefasst werden. (S. 1)
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  10. Schulze, M.; Neuroth, H.; Stockmann, R.: RusDML: Aufbau eines verteilten digitalen Archivs in der Mathematik (2006) 0.01
    0.0052346876 = product of:
      0.031408124 = sum of:
        0.031408124 = weight(_text_:und in 5027) [ClassicSimilarity], result of:
          0.031408124 = score(doc=5027,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29991096 = fieldWeight in 5027, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5027)
      0.16666667 = coord(1/6)
    
    Abstract
    Der ungehinderte Zugang zu elektronischen, wissenschaftlich relevanten Publikationen von jedem Ort und zu jeder Zeit aus spielt in der digitalen Informationsgesellschaft eine immer bedeutendere Rolle. Angebote wie von "JSTOR" oder "DigiZeitschriften" verdeutlichen, dass der Anteil an digitalen wissenschaftlichen Artikeln, im Gegensatz zu den ausschließlich gedruckt vorliegenden Zeitschriften, auf dem Vormarsch ist und von der wissenschaftlichen Community unabhängig davon, ob der Zugang kostenfrei oder kostenpflichtig ist, als Arbeitsinstrument mehr und mehr eingesetzt wird. Auch die Idee, digitalen Content durch Retro-Digitalisierung zu erzeugen, ist in diesem Zusammenhang nicht neu. Zahlreicher (retro-)digitaler Content, entstanden vor allem in durch die Deutsche Forschungsgemeinschaft (DFG) geförderten Projekten, ist im Internet frei verfügbar. Das Projekt "Zentrales Verzeichnis Digitalisierter Drucke (ZVDD)"' baut derzeit ein zentrales Nachweisportal zu bereits digitalisierten Bibliotheksmaterialien auf, um den heterogen verteilten, digitalen Content über eine einheitliche Oberfläche durchsuchbar zu machen. Die Herangehensweise, Literatur in einem Fachgebiet weltweit zu digitalisieren und der Fach-Community bereitzustellen, ist in diesem Zusammenhang ebenfalls nicht neu. So wurde vor allem in den USA bereits vor einigen Jahren diskutiert, ob und wie es möglich ist, den kompletten Bestand an wissenschaftlich relevanten Publikationen in der Mathematik zu digitalisieren. Auch in Europa gibt es Initiativen und Entwicklungen (z.B. "DML-EU"`), mathematische Zeitschriften zu retrodigitalisieren.
  11. Cremer, M.; Neuroth, H.: ¬Das CORC-Projekt von OCLC an der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (2000) 0.00
    0.0042741043 = product of:
      0.025644625 = sum of:
        0.025644625 = weight(_text_:und in 4787) [ClassicSimilarity], result of:
          0.025644625 = score(doc=4787,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.24487628 = fieldWeight in 4787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4787)
      0.16666667 = coord(1/6)
    
  12. Fischer, T.; Neuroth, H.: SSG-FI - special subject gateways to high quality Internet resources for scientific users (2000) 0.00
    0.0032009068 = product of:
      0.01920544 = sum of:
        0.01920544 = product of:
          0.03841088 = sum of:
            0.03841088 = weight(_text_:22 in 4873) [ClassicSimilarity], result of:
              0.03841088 = score(doc=4873,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.23214069 = fieldWeight in 4873, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4873)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    22. 6.2002 19:40:42
  13. Neuroth, H.; Pianos, T.: VASCODA: a German scientific portal for cross-searching distributed digital resource collections (2003) 0.00
    0.0032009068 = product of:
      0.01920544 = sum of:
        0.01920544 = product of:
          0.03841088 = sum of:
            0.03841088 = weight(_text_:22 in 2420) [ClassicSimilarity], result of:
              0.03841088 = score(doc=2420,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.23214069 = fieldWeight in 2420, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2420)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Source
    Research and advanced technology for digital libraries : 7th European Conference, proceedings / ECDL 2003, Trondheim, Norway, August 17-22, 2003
  14. Dobratz, S.; Neuroth, H.: nestor: Network of Expertise in long-term STOrage of digital Resources : a digital preservation initiative for Germany (2004) 0.00
    0.0012822312 = product of:
      0.007693387 = sum of:
        0.007693387 = weight(_text_:und in 1195) [ClassicSimilarity], result of:
          0.007693387 = score(doc=1195,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.07346288 = fieldWeight in 1195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1195)
      0.16666667 = coord(1/6)
    
    Abstract
    Sponsored by the German Ministry of Education and Research with funding of 800.000 EURO, the German Network of Expertise in long-term storage of digital resources (nestor) began in June 2003 as a cooperative effort of 6 partners representing different players within the field of long-term preservation. The partners include: * The German National Library (Die Deutsche Bibliothek) as the lead institution for the project * The State and University Library of Lower Saxony Göttingen (Staats- und Universitätsbibliothek Göttingen) * The Computer and Media Service and the University Library of Humboldt-University Berlin (Humboldt-Universität zu Berlin) * The Bavarian State Library in Munich (Bayerische Staatsbibliothek) * The Institute for Museum Information in Berlin (Institut für Museumskunde) * General Directorate of the Bavarian State Archives (GDAB) As in other countries, long-term preservation of digital resources has become an important issue in Germany in recent years. Nevertheless, coming to agreement with institutions throughout the country to cooperate on tasks for a long-term preservation effort has taken a great deal of effort. Although there had been considerable attention paid to the preservation of physical media like CD-ROMS, technologies available for the long-term preservation of digital publications like e-books, digital dissertations, websites, etc., are still lacking. Considering the importance of the task within the federal structure of Germany, with the responsibility of each federal state for its science and culture activities, it is obvious that the approach to a successful solution of these issues in Germany must be a cooperative approach. Since 2000, there have been discussions about strategies and techniques for long-term archiving of digital information, particularly within the distributed structure of Germany's library and archival institutions. A key part of all the previous activities was focusing on using existing standards and analyzing the context in which those standards would be applied. One such activity, the Digital Library Forum Planning Project, was done on behalf of the German Ministry of Education and Research in 2002, where the vision of a digital library in 2010 that can meet the changing and increasing needs of users was developed and described in detail, including the infrastructure required and how the digital library would work technically, what it would contain and how it would be organized. The outcome was a strategic plan for certain selected specialist areas, where, amongst other topics, a future call for action for long-term preservation was defined, described and explained against the background of practical experience.