Search (92 results, page 1 of 5)

  • × type_ss:"r"
  1. Sacherschließung : Zentrale Dienstleistungen und Nutzung von Fremdleistungen. Kolloquium des Dbi am 13.-14.2.1984 in Königstein (o.J.) 0.09
    0.08682389 = product of:
      0.14470647 = sum of:
        0.017917356 = product of:
          0.053752065 = sum of:
            0.053752065 = weight(_text_:f in 2399) [ClassicSimilarity], result of:
              0.053752065 = score(doc=2399,freq=4.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.37366742 = fieldWeight in 2399, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2399)
          0.33333334 = coord(1/3)
        0.02779583 = weight(_text_:den in 2399) [ClassicSimilarity], result of:
          0.02779583 = score(doc=2399,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.26870608 = fieldWeight in 2399, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=2399)
        0.09899329 = weight(_text_:schlagwortkatalog in 2399) [ClassicSimilarity], result of:
          0.09899329 = score(doc=2399,freq=4.0), product of:
            0.19521591 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.036090754 = queryNorm
            0.5070964 = fieldWeight in 2399, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=2399)
      0.6 = coord(3/5)
    
    Footnote
    Auf diesem Kolloquium wurde die Entscheidung getroffen, RSWK in der Deutschen Bibliothek für Produktion zentraler Dienstleistungen im Bereich der Sacherschließung (u.a. für die Deutsche Bibliographie) zu nutzen; vgl. den Bericht von C. Müller im Bibliotheksdienst 18(1984) u. H.D. Gebauer: DBI-Kolloquium zur Sacherschließung in: Mitteilungsblatt. Verband der Bibliotheken des Landes NW N.F. 34(1984) S.158-159. - Dieser Band wird von G. Heinrich in ihrem Beitrag in 'Neue Regelwerke zum Schlagwortkatalog' unter Nr.45 als 'im Druck' zitiert mit folgenden Beiträgen: Frankenberger, R.: Kooperative verbale Sacherschließung nach RSWK im Bayerischen Verbund; Galsterer, B. Stellenwert zentraler Sacherschließung für Öffentliche Bibliotheken; Geisselmann, F.: Aus der Arbeit der UB Augsburg an der Standardschlagwortliste; Junginger, F.: Gibt es eine tragfähige Basis für eine kooperative Sacherschließung?; Kelm, B.: Aus der Arbeit der Deutschen Bibliothek an der Standardschlagwortliste; Maaßen, B,: Die Verknüpfung der Einzelschlagwörter zu Ketten, insbesondere nach dem PRECIS-Kurzregelwerk; Pflug, G.: Die Dienstleistungen der Deutschen Bibliothek im Bereich Sacherschließung; Poll, R.: Kettenbildung nach RSWK; Rothbart, O.-R.: Die Dienstleistungen im Bereich Sacherschließung für Öffentliche Bibliotheken aus der Sicht der ekz. - Nach dem Stand der Erkenntnisse (1992) ist nicht damit zu rechnen, daß dieser Bericht jemals erscheinen wird.
    Theme
    Regeln für den Schlagwortkatalog (RSWK)
  2. Darstellung der CrissCross-Mappingrelationen im Rahmen des Semantic Web (2010) 0.03
    0.02933483 = product of:
      0.04889138 = sum of:
        0.012800777 = product of:
          0.03840233 = sum of:
            0.03840233 = weight(_text_:f in 4285) [ClassicSimilarity], result of:
              0.03840233 = score(doc=4285,freq=6.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.26696092 = fieldWeight in 4285, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.33333334 = coord(1/3)
        0.030334054 = weight(_text_:den in 4285) [ClassicSimilarity], result of:
          0.030334054 = score(doc=4285,freq=14.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.29324344 = fieldWeight in 4285, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.005756549 = product of:
          0.017269647 = sum of:
            0.017269647 = weight(_text_:29 in 4285) [ClassicSimilarity], result of:
              0.017269647 = score(doc=4285,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.13602862 = fieldWeight in 4285, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Abstract
    Im Rahmen des CrissCross-Projekts wurde ein multilinguales, thesaurusbasiertes Recherchevokabular zu heterogen erschlossenen Dokumenten geschaffen. Dieses Recherchevokabular besteht unter anderem aus den Sachschlagwörtern der Schlagwortnormdatei (SWD) und den Notationen der Dewey-Dezimalklassifikation (DDC). Die Schlagwortnormdatei bietet einen normierten, terminologisch kontrollierten Wortschatz an. Sie enthält Schlagwörter aus allen Fachgebieten und Schlagwortkategorien, die durch die beteiligten Bibliotheken zur verbalen Inhaltserschließung genutzt und dabei täglich aktualisiert werden. Unter anderem wird die Schlagwortnormdatei auch zur verbalen Erschließung der Deutschen Nationalbibliografie verwendet. Während der verbalen Erschließung wird jedem Inhalt mindestens eine Schlagwortfolge zugewiesen. Schlagwortfolgen werden dazu benutzt, um die komplexen Themen eines Dokuments zu beschreiben. Zusätzlich wird für den Neuerscheinungsdienst der Deutschen Nationalbibliografie seit dem Jahrgang 2004 jeder Titel noch mindestens einer Sachgruppe zugewiesen. Die Strukturierung der Sachgruppen orientiert sich dabei weitestgehend an der zweiten Ebene der Dewey-Dezimalklassifikation. Die Dewey-Dezimalklassifikation ist eine international weit verbreitete Universalklassifikation. Von ihr existieren zahlreiche Übersetzungen, u. a. ins Deutsche. Seit Januar 2006 wird die DDC gemeinsam mit der SWD zur Inhaltserschließung in der Deutschen Nationalbibliografie verwendet. Bei der Inhaltserschließung mit Hilfe der DDC wird jedem Inhalt eine einzelne DDC-Notation zugewiesen. Komplexe Themen werden dabei durch die Synthese von zwei oder mehr Notationen zu einer neuen Notation dargestellt. Somit ist die DDC-Notation sowohl vergleichbar mit SWD-Schlagwörtern als auch mit ganzen Schlagwortfolgen.
    Um aus diesen beiden unabhangigen Systemen zur Inhaltserschlieung ein einheitliches, multilinguales Recherchevokabular zu bilden wurden im Rahmen des CrissCross Projekts unidirektionale Verbindungen von den einzelnen Sachschlagwortern der SWD zu den (teilweise) synthetisierten Notationen der DDC gescha en. Mittels dieser Verbindungen soll ein praziser und umfassender Zugang zu DDC-erschlossenen Dokumenten uber SWD-Schlagworter gewahrleistet werden. Da DDC-Notationen aber eher ihre Entsprechung in einer Kombination aus Schlagwortfolge und Sachgruppe haben, kann dieses Mapping in der Regel nur von SWD in Richtung DDC ausgewertet werden ohne dass ein groerer Informationsverlust auftritt. Deshalb haben die erstellten Mappings immer eine spezielle Verknupfungsrichtung, bei der die SWD als Ausgangsvokabular und die DDC als Zielvokabular dient. Das Dokument startet in Abschnitt 2 mit einem Uberblick uber die vier verschiedenen CrissCross-Mappingrelationen. Diese Mappingrelationen sollen im Rahmen einer Erweiterung fur die SKOS-Spezi kation4 semantisch reprasentiert werden. SKOS soll dabei sowohl benutzt werden, um die Konzepthierarchien der SWD und der DDC darzustellen als auch um die Mappings zwischen den beiden zu reprasentieren. Anhand von zwei konkreten Beispielen wird in Abschnitt 3 genauer erklart, welche Probleme insbesondere bei der Abbildung der CrissCross-Mappingrelationen mit Hilfe der SKOSSpezi kation auftreten. Insbesondere die Unidirektionalitat der ursprunglichen CrissCross-Mappings ist problematisch, da die in SKOS de nierten Mappingrelationen von einer Bidirektionalitat ausgehen. Das heit die Mappings mussen sowohl nutzbar sein fur die Suche in SWD-erschlossenen Bestanden als auch fur die Suche in DDC-erschlossenen Bestanden. Anhand der Beispiele in Abschnitt 3 wird deshalb auch eine initiale Losungsidee entwickelt, wie die Unidirektionalitat der CrissCross-Mappings aufgehoben werden kann.
    Basierend auf der Analyse und der initialen Losungsidee aus Abschnitt 3 werden anschlieend in Abschnitt 4 konkrete Losungsvorschlage unterbreitet, wie die Losungsidee im Rahmen einer SKOS-Erweiterung umgesetzt werden kann. Es werden mehrere Losungsvorschlage vorgestellt und miteinander verglichen. Ein wichtiger Teil der Losungsvorschlage ist die Repräsentation von koordinierten Konzepten. Der andere wichtige Teil ist die Herleitung der CrissCross-Mappingrelationen von den existierenden, bidirektionalen SKOS-Mappingrelationen. Diese beiden Erweiterungen der SKOSSpezifikation konnen zusammen dazu genutzt werden, die Mappings im Rahmen des Semantic Webs einem groeren Zielpublikum zur Verfugung zu stellen und nutzbar zu machen.
    Pages
    29 S
  3. Loth, K.; Grunewald, F.: Ideen zu einer gemeinsamen Sacherschliessung (1996) 0.02
    0.024040379 = product of:
      0.060100947 = sum of:
        0.03378529 = product of:
          0.101355866 = sum of:
            0.101355866 = weight(_text_:f in 3647) [ClassicSimilarity], result of:
              0.101355866 = score(doc=3647,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.7045941 = fieldWeight in 3647, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.125 = fieldNorm(doc=3647)
          0.33333334 = coord(1/3)
        0.026315656 = product of:
          0.07894696 = sum of:
            0.07894696 = weight(_text_:29 in 3647) [ClassicSimilarity], result of:
              0.07894696 = score(doc=3647,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.6218451 = fieldWeight in 3647, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=3647)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    29. 3.1996 15:20:01
  4. Hegner, M.: Methode zur Evaluation von Software (2003) 0.02
    0.019671043 = product of:
      0.04917761 = sum of:
        0.03930924 = weight(_text_:den in 2499) [ClassicSimilarity], result of:
          0.03930924 = score(doc=2499,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.38000777 = fieldWeight in 2499, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
        0.00986837 = product of:
          0.029605111 = sum of:
            0.029605111 = weight(_text_:29 in 2499) [ClassicSimilarity], result of:
              0.029605111 = score(doc=2499,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23319192 = fieldWeight in 2499, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2499)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Der Arbeitsbericht befasst sich mit den zwei unterschiedlichen Usability Methoden, dem Usability Test und den Usability Inspektionsmethoden. Bei den Usability Inspektionsmethoden wird die Benutzungsschnittstelle durch Ergonomieexperten evaluiert. Diese Methoden umfassen die Heuristische Evaluation, standard inspection und cognitive walkthrough, etc. Der Vorteil dieser Inspektionsmethoden liegt darin, dass sie weniger zeitintensiv und kostengünstiger als ein Usability Test sind. Der Usability Test wird im Gegensatz zu den Usability Inspektionsmethoden mit repräsentativen Versuchspersonen durchgeführt. Er ist ein effizientes Mittel um Benutzungsschnittstellen zu evaluieren oder auf deren Benutzungsfreundlichkeit zu überprüfen. Des weiteren erläutert der Arbeitsbericht die verschiedenen Usability Testmethoden sowie die Basiselemente zur Durchführung eines Usability Tests. Abschließend wird noch auf die Varianzanalyse (Analysis of Variance, ANOVA) als ein statistisches Verfahren zur Überprüfung von Mittelwertsunterschieden näher eingegangen.
    Series
    IZ-Arbeitsbericht; Nr.29
  5. Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur (2011) 0.02
    0.019307798 = product of:
      0.04826949 = sum of:
        0.040119827 = weight(_text_:den in 4291) [ClassicSimilarity], result of:
          0.040119827 = score(doc=4291,freq=12.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.38784382 = fieldWeight in 4291, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
        0.008149666 = product of:
          0.024448996 = sum of:
            0.024448996 = weight(_text_:22 in 4291) [ClassicSimilarity], result of:
              0.024448996 = score(doc=4291,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19345059 = fieldWeight in 4291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4291)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Seit den 1970/80er Jahren unterstützen sechs Verbundzentralen die Dienstleistungen der Bibliotheken in Deutschland. Mit lokalen, regionalen und überregionalen Services leisten sie einen wichtigen Beitrag für ein funktionierendes nationales Bibliothekssystem. Neue Technologien und globale Vernetzung verändern jedoch die Informationslandschaft mit hoher Dynamik. Um den Herausforderungen in Zukunft gewachsen zu sein, empfehlen die Deutsche Forschungsgemeinschaft (DFG) und der Wissenschaftsrat (WR) eine strategische Neuausrichtung und eine Neuordnung der Verbundsysteme.
    Content
    "Empfehlungen zur Optimierung der Informationsinfrastruktur Verbundübergreifende Entwicklung bedarfsorientierter Services Angestrebt werden sollten stringente, verbundübergreifende arbeitsteilige Strukturen bei Betrieb und Entwicklung der gegenwärtigen wie der zukünftigen Dienste, um unnötige Mehrfacharbeit zu vermeiden und die Durchsetzung einheitlicher Standards zu erleichtern. Das ist technisch machbar und organisatorisch auch im föderalen Umfeld denkbar wie andere Beispiele (z.B. DFN) zeigen. Einführung neuer Steuerungsmechanismen Das derzeitige Finanzvolumen der Länder für Informationsservices (Finanzzuweisung an Verbundzentralen) muss erhalten bleiben und weiterhin die den bisherigen Regelungen entsprechenden Steigerungen erfahren. Gleichzeitig müssen behutsam, aber konsequent neue Steuerungsmechanismen eingeführt werden, die die Verbünde im höheren Maße als bisher in die Lage versetzen, neue Entwicklungen bedarfsorientiert aufzugreifen und verlässliche Dienste aufzubauen. Zur Steuerung sollten Aufsichtsgremien im Sinne von "Beiräten" vergleichbar den Beiräten der Informationsdienstleister in der WGL eingesetzt werden. Wege zu einer Neuausrichtung der Verbünde Neben den empfohlenen politisch-administrativen Maßnahmen erscheint ein attraktiv dimensioniertes Förderprogramm der DFG zur "Neuausrichtung überregionaler Informationsservices" und "Weiterentwicklung der Bibliotheksverbünde als Teil der überregionalen Informationsinfrastruktur" [Arbeitstitel] geeignet, den notwendigen Strukturwandel hin zu einem arbeitsteiligen, verbundübergreifenden Diensteangebot anzustoßen und zu koordinieren."
    Date
    7. 2.2011 19:52:22
  6. Wolters, C.: GOS Thesaurus-Handbuch : zum Projekt: Sammlungsmanagement für kulturgeschichtliche Museen in den neuen Bundesländern (1997) 0.02
    0.01887285 = product of:
      0.047182124 = sum of:
        0.010557904 = product of:
          0.03167371 = sum of:
            0.03167371 = weight(_text_:f in 4009) [ClassicSimilarity], result of:
              0.03167371 = score(doc=4009,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.22018565 = fieldWeight in 4009, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4009)
          0.33333334 = coord(1/3)
        0.03662422 = weight(_text_:den in 4009) [ClassicSimilarity], result of:
          0.03662422 = score(doc=4009,freq=10.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.35405132 = fieldWeight in 4009, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4009)
      0.4 = coord(2/5)
    
    Abstract
    Das GOS Thesaurus-Handbuch wurde für die Teilnehmer an dem von der ROBERTBOSCH-STIFTUNG geförderten Projekt "Sammlungsmanagement für kulturgeschichtliche Museen in den neuen Bundesländern" (Spitzname: "Knorr-Projekt") geschrieben. Es basiert auf den bereits Mitte der 80er Jahre vom Institut für Museumskunde in Zusammenarbeit mit dem heutigen Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) durchgeführten und 1988 publizierten Arbeiten im Projekt "Kleine Museen".' Schon damals war zu erkennen, daß die international gültige Thesaurusnorm auch in den Museen auf dem Siegeszug war. Heute ist sie die Grundlage aller wichtigen Projekte zur internationalen Zusammenarbeit bei der Museumsdokumentation. GOS-Benutzer, die sich noch nie mit solchen Dingen befaßt haben, können dieses Handbuch als eine allgemeine Einführung in die Thesaurusarbeit benutzen, denn es behandelt alle Grundfunktionen eines Thesaurus nach DIN 1463. Es besteht aus einem "Lesebuch", in dem es mehr um die Zusammenhänge und etwas Hintergrundwissen geht sowie einem "Datenkatalog" mit der Beschreibung der Datenfelder des Thesaurus, gedruckt aus einer kleinen GOS-Datenbank, aus der auch die "H i l f e t e x t e " im GOS-Menü geholt werden. Wir haben uns - mit einiger Mühe allerdings - jeden Hinweis auf "gerade in Entwicklung befindliche" und "in wenigen Monaten freizugebende" Leistungen von GOS verkniffen und uns auschließlich auf Dinge beschränkt, die in den am Projekt direkt beteiligten Museen vor März 1997 routinemäßig angewendet wurden.
  7. Arnold, F.-J. (Red.): Telekommunikationspolitik : Rahmenbedingungen für die Telekommunikation (1995) 0.02
    0.017239524 = product of:
      0.043098807 = sum of:
        0.016892646 = product of:
          0.050677933 = sum of:
            0.050677933 = weight(_text_:f in 4208) [ClassicSimilarity], result of:
              0.050677933 = score(doc=4208,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.35229704 = fieldWeight in 4208, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4208)
          0.33333334 = coord(1/3)
        0.02620616 = weight(_text_:den in 4208) [ClassicSimilarity], result of:
          0.02620616 = score(doc=4208,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 4208, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=4208)
      0.4 = coord(2/5)
    
    Content
    Die Landesinitiative Telekommunikation TELETECH NRW / Der Zusammenhang zwischen Postreform I und Postreform II in Deutschland / Der ordnungspolitische Rahmen der Postreform I / Die Entwicklung der Telekommunikation in Deutschland nach der Postreform I / Auswirkungen und Ziele der Telekommunikationspolitik der Europäischen Union / Die Postreform II in Deutschland / Bewertung der Postreform II und Ausblick / Forderungen an den Gesetzgeber und die Regulierung für einen funktionierenden Wettbewerb in Deutschland
  8. Wehling, E.: Framing-Manual : Unser gemeinsamer freier Rundfunk ARD (2019) 0.02
    0.016362946 = product of:
      0.040907364 = sum of:
        0.0327577 = weight(_text_:den in 4997) [ClassicSimilarity], result of:
          0.0327577 = score(doc=4997,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31667316 = fieldWeight in 4997, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.008149666 = product of:
          0.024448996 = sum of:
            0.024448996 = weight(_text_:22 in 4997) [ClassicSimilarity], result of:
              0.024448996 = score(doc=4997,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19345059 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Content
    Vgl. auch den Kommentar in Open Password , Nr.157 vom 22.02.2019: "Vor wenigen Tagen wurde das "Framing-Manual" der Linguistin Elisabeth Wehling bekannt, das sie für 120.000 Euro für die ARD erarbeitet hat und fortlaufend in Workshops für Mitarbeiter eingesetzt wird. Da aus Frau Wehlings Sicht "objektives, faktenbegründetes und rationales Denken" nicht möglich ist, kann es im öffentlichen Streit der Meinungen nur mehr darum gehen, die eigenen Sprachregelungen durchzusetzen und die Rezipienten über Emotionalisierungen und implizite moralische Bewertungen über den Tisch zu ziehen. So sollten Bürger, die den Zwangsbeitrag für Rundfunk und Fernsehen nicht zahlen wollen, als "demokratieferne, wortbrüchige und illoyale Beitragshinterzieher" gebrandmarkt werden und sind "unserem gemeinsamen freien Rundfunk ARD" die "medienkapitalistischen Heuschrecken" entgegenzustellen. Derweil berichtet Meedia von einem zweiten Fall Relotius, einem freien Journalisten, der für die Süddeutsche Zeitung, die Zeit und den Spiegel geschrieben hat und soeben mit einer frei erfundenen Geschichte von der SZ überführt wurde. Das "Framing-Manual" erscheint mir als ein noch größerer Skandal als der Fall Claas Relotius mit seinen vielen erfundenen Geschichten im Spiegel und praktisch der gesamten weiteren "Qualitätspresse", weil die Spitzen der ARD und mit ihnen die nachgeordneten Strukturen das Manual von Frau Wehling willkommen geheißen haben und weiterhin zur Indoktrination ihrer Mitarbeiter verwenden. Fake News und die damit verbundene Kriegserklärung an Wahrheit und Wissenschaft kommen nicht von Donald Trump, sie werden selbst generiert und breiten sich ungehindert mit Wissen und Willen der Verantwortlichen in unserem "Qualitätsfernsehen" aus." (W. Bredemeier)
    Date
    22. 2.2019 9:26:20
  9. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.02
    0.01569825 = product of:
      0.039245624 = sum of:
        0.02620616 = weight(_text_:den in 1484) [ClassicSimilarity], result of:
          0.02620616 = score(doc=1484,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 1484, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.013039465 = product of:
          0.039118394 = sum of:
            0.039118394 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.039118394 = score(doc=1484,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22
  10. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.014966056 = product of:
      0.03741514 = sum of:
        0.021115808 = product of:
          0.06334742 = sum of:
            0.06334742 = weight(_text_:f in 5576) [ClassicSimilarity], result of:
              0.06334742 = score(doc=5576,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.4403713 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.33333334 = coord(1/3)
        0.016299332 = product of:
          0.048897993 = sum of:
            0.048897993 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.048897993 = score(doc=5576,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    13.12.2017 14:17:22
  11. Förderung von Informationsinfrastrukturen für die Wissenschaft : Ein Positionspapier der Deutschen Forschungsgemeinschaft (2018) 0.01
    0.014607467 = product of:
      0.036518667 = sum of:
        0.028369 = weight(_text_:den in 4178) [ClassicSimilarity], result of:
          0.028369 = score(doc=4178,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 4178, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4178)
        0.008149666 = product of:
          0.024448996 = sum of:
            0.024448996 = weight(_text_:22 in 4178) [ClassicSimilarity], result of:
              0.024448996 = score(doc=4178,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19345059 = fieldWeight in 4178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4178)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Das vorliegende Positionspapier befasst sich mit dem Förderhandeln der Deutschen Forschungsgemeinschaft (DFG) im Bereich der wissenschaftlichen Informationsinfrastrukturen. Es hat zwei Funktionen: Erstens reflektiert es - sowohl auf einer übergeordneten Ebene als auch für drei ausgewählte Themen - die strukturellen Rahmenbedingungen des DFG-Förderhandelns im Bereich der wissenschaftlichen Informationsinfrastrukturen und setzt sich mit den Anpassungsbedarfen auseinander, die sich aus der gegenwärtigen Ausgangslage ergeben. Darüber hinaus benennt es konkrete Maßnahmen als Reaktion auf die analysierten Herausforderungen und Handlungsbedarfe und bildet damit zweitens eine Leitschnur für das Förderhandeln im Bereich Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS).
    Als Selbstverwaltungsorganisation und Interessenvertretung der Wissenschaft sieht die DFG es als ihre Aufgabe an, den digitalen Wandel in den Wissenschaften aktiv mitzugestalten. Die Förderung im Bereich der Informationsinfrastrukturen erfolgt mit dem Anspruch, sich an einem von der Wissenschaft formulierten Bedarf zu orientieren, der anhaltend hohen Veränderungsdynamik gerecht zu werden, für unkonventionelle Projektideen sowie Projekte in einem explorativen Stadium offen zu sein und impulsgebend sowie struktur- und standardbildend zu wirken. Mit diesem Positionspapier reflektiert die DFG - nach 2006 und 2012 - zum dritten Mal die Folgen des digitalen Wandels für ihr Förderhandeln im Bereich der wissenschaftlichen Informationsinfrastrukturen. Erarbeitet wurde das Papier vom Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme, dem für die Förderung wissenschaftlicher Informationsinfrastrukturen fachlich zuständigen Gremium. Der AWBI ist im Rahmen seiner Zuständigkeit als Gremium des Hauptausschusses verantwortlich für die Ausgestaltung des Förderportfolios sowie einzelner Förderinitiativen im Bereich der wissenschaftlichen Informationsinfrastrukturen.
    Date
    22. 3.2018 17:30:43
  12. Grazia Colonia; Dimmler, E.; Dresel, R.; Messner, C.; Krobath, A.; Petz, S.; Sypien, M.; Boxen, P. van; Harders, M.; Heuer, D.; Jordans, I.; Juchem, K.; Linnertz, M.; Mittelhuber, I.; Schwammel, S.; Schlögl, C.; Stock, W.G.: Informationswissenschaftliche Zeitschriften in szientometrischer Analyse (2002) 0.01
    0.013777395 = product of:
      0.034443486 = sum of:
        0.02293039 = weight(_text_:den in 1075) [ClassicSimilarity], result of:
          0.02293039 = score(doc=1075,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2216712 = fieldWeight in 1075, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.011513098 = product of:
          0.034539293 = sum of:
            0.034539293 = weight(_text_:29 in 1075) [ClassicSimilarity], result of:
              0.034539293 = score(doc=1075,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.27205724 = fieldWeight in 1075, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1075)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    In einer szientometrischen bzw. informetrischen Studie werden internationale wie deutschsprachige Zeitschriften der Informations-/Bibliothekswissenschaft und -praxis mittels Zitationsanalyse und Expertenbefragung analysiert. Die zitatenanalytischen Kennwerte umfassen den Impact Factor, die Halbwertszeit, die Zitierfreudigkeit, die relative Häufigkeit von Zeitschriftenselbstreferenzen sowie Soziogramme der einflussreichen Periodika. Der Fragebogen erhebt die Lesehäufigkeit, die Einsetzbarkeit der gelesenen Journale im Tätigkeitsbereich, die Publikationstätigkeit und die Publikationspräferenz sowohl für alle Respondenten als auch für abgrenzbare Gruppen (Praktiker vs. Wissenschaftler, Bibliothekare vs. Dokumentare vs. Informationswissenschaftler, öffentlicher Dienst vs. Informationswirtschaft vs. andere Wirtschaftsunternehmen).
    Date
    23. 8.2002 11:51:29
  13. Riva, P.; Boeuf, P. le; Zumer, M.: IFLA Library Reference Model : a conceptual model for bibliographic information (2017) 0.01
    0.013777395 = product of:
      0.034443486 = sum of:
        0.02293039 = weight(_text_:den in 5179) [ClassicSimilarity], result of:
          0.02293039 = score(doc=5179,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2216712 = fieldWeight in 5179, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5179)
        0.011513098 = product of:
          0.034539293 = sum of:
            0.034539293 = weight(_text_:29 in 5179) [ClassicSimilarity], result of:
              0.034539293 = score(doc=5179,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.27205724 = fieldWeight in 5179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5179)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    19. 3.2019 12:26:29
    Imprint
    Den Haag : IFLA
  14. Stock, W.G.: Publikation und Zitat : Die problematische Basis empirischer Wissenschaftsforschung (2001) 0.01
    0.012554734 = product of:
      0.031386834 = sum of:
        0.02316319 = weight(_text_:den in 5787) [ClassicSimilarity], result of:
          0.02316319 = score(doc=5787,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.22392172 = fieldWeight in 5787, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
        0.008223643 = product of:
          0.024670927 = sum of:
            0.024670927 = weight(_text_:29 in 5787) [ClassicSimilarity], result of:
              0.024670927 = score(doc=5787,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19432661 = fieldWeight in 5787, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5787)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Die empirische Wissenschaftsforschung arbeitet bei den Indikatoren wissenschaftlicher Leistung und wissenschaftlicher Wirkung mit Publikations- und Zitationsraten. Die vorliegende Arbeit befaßt sich mit dabei auftretenden methodischen Problemen. Was ist überhaupt eine Publikation? Was heißt Zitation? Zentral ist auch die Zählbasis, d.h. die Einheitenbildung: Was ist 1 Publikation? und: Was ist 1 Zitation? Bei Printpublikationen gibt es eine Reihe von beachtenswerten Faktoren (u.a. Mehrautorenwerke, Gewichtungsfaktoren wie den Impact Factor, Dokumenttypen). Bei elektronischen Publikationen im Internet mit ihrem dynamischen Charakter ist die Einheitenbildung noch weitaus problematischer. Zitationen, verstanden als zitierte Publikationen, werfen alle methodischen Probleme der Publikationseinheiten auf, hinzu kommen weitere, spezifische Probleme. Lösungsmöglichkeiten im syntaktischen Bereich (Relativierung auf Textseiten oder Zeichen) ändern am grundlegenden Problem nur wenig, Lösungsversuche im semantischen Bereich (etwa im Rahmen der semantischen Informationstheorie) sind im Rahmen der Publikations- und Zitationsanalysen nicht durchführbar und verweisen sowohl auf themenanalytische Methoden als auch auf die Wissenschaftstheorie. Mit diesem Working Paper wollen wir vor allem auf offene Probleme hinweisen; "endgültige" Lösungen wird der Leser nicht finden, wohl aber Lösungsvorschläge, die meist durchaus noch diskussionswürdig sind. In der Informationswissenschaft wie in der Wissenschaftsforschung sind wir bisher viel zu sicher davon ausgegangen, daß wir wissen, was Publikationen und Zitationen sind
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.29
  15. Razum, M.; Schwichtenberg, F.: Metadatenkonzept für dynamische Daten : BW-eLabs Report (2012) 0.01
    0.01245661 = product of:
      0.031141523 = sum of:
        0.008446323 = product of:
          0.025338966 = sum of:
            0.025338966 = weight(_text_:f in 994) [ClassicSimilarity], result of:
              0.025338966 = score(doc=994,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.17614852 = fieldWeight in 994, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=994)
          0.33333334 = coord(1/3)
        0.0226952 = weight(_text_:den in 994) [ClassicSimilarity], result of:
          0.0226952 = score(doc=994,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.21939759 = fieldWeight in 994, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=994)
      0.4 = coord(2/5)
    
    Abstract
    1.1. Dynamische Daten - Unter "dynamischen Daten" verstehen wir im Projekt BW-eLabs die im Rahmen von (virtuellen bzw. remote durchgeführten) Experimenten anfallenden Forschungsdaten, meist in Form von Messwerten. Im Falle des FMF (Freiburger Materialforschungsinstitut) sind dies überwiegend Spektren, im Falle des ITO (Institut für technische Optik an der Universität Stuttgart) Hologramme. Ein wichtiger Aspekt von Forschungsdaten, und damit auch für die dynamischen Daten, ist die Verknüpfung der Messwerte mit Kalibrierungs- und Konfigurationsdaten. Erst in der Gesamtbeschau lassen sich dynamische Daten so sinnvoll interpretieren. Weiterhin - und das ist eben der dynamische Gesichtspunkt bei dieser Art von Daten - verändert sich im Verlauf des wissenschaftlichen Arbeitsprozesses die Sicht auf die Daten. Die Rohdaten, die das System direkt im Labor am Gerät erfasst, lassen sich in folgenden Analyseschritten visualisieren und/oder aggregieren. Diese Schritte erzeugen neue Versionen der Daten bzw. abgeleitete Datenobjekte, die wiederum mit den Ausgangsdaten verknüpft werden. Ein Ziel von BW-eLabs ist es, diese dynamischen Daten nicht nur den Forschern innerhalb eines Projekts (also z.B. dem lokal arbeitenden Wissenschaftler und seiner entfernt arbeitenden Kollegin) verfügbar zu machen, sondern ausgewählte Datenobjekte mit einem Persistent Identifier zu versehen, um diese anschließend publizieren und damit zitierbar machen zu können.
    1.2. Metadaten - Metadaten sind ein entscheidender Faktor für die Archivierung, Publikation und Nachnutzung von Forschungsdaten. Nur hinreichend beschriebene Daten können durch Wissenschaftler verstanden und korrekt eingeordnet werden. Erst derartig beschriebene Daten lassen sich sinnvoll veröffentlichen und zitieren. Zusätzlich erlauben geeignete Metadaten das Browsen und Suchen in den Forschungsdaten. Deshalb ist die Definition und Verwendung geeigneter Metadaten-Modelle, die die Daten auf dem richtigen Level beschreiben, von außerordentlicher Bedeutung. Allerdings sind Metadaten, gerade im Bereich von Forschungsdaten, außerordentlich fach- und anwendungsspezifisch. Es gibt bisher nur wenige übergreifende Standards auf diesem Gebiet. Auch die in BW-eLabs vertretenen Disziplinen Materialwissenschaften und Technische Optik bauen auf sehr unterschiedlichen fachlichen Metadatenprofilen auf. Beide verwenden aber ein sehr vergleichbares Vorgehen bei der Beschreibung der kontextuellen Information, also dem Umfeld, in dem Versuchsdaten im Labor entstehen. Dieser Report beschreibt ein für das Projekt BW-eLabs geeignetes Metadaten-Modell für diese kontextuellen Informationen.
  16. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.01
    0.012190183 = product of:
      0.030475456 = sum of:
        0.011944904 = product of:
          0.03583471 = sum of:
            0.03583471 = weight(_text_:f in 4250) [ClassicSimilarity], result of:
              0.03583471 = score(doc=4250,freq=4.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.24911162 = fieldWeight in 4250, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4250)
          0.33333334 = coord(1/3)
        0.018530553 = weight(_text_:den in 4250) [ClassicSimilarity], result of:
          0.018530553 = score(doc=4250,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.17913738 = fieldWeight in 4250, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.4 = coord(2/5)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
    Imprint
    München : Universität der Bundeswehr / Fakultät f¨ur Informatik / Institut für Softwaretechnologie
  17. John, M.: Semantische Technologien in der betrieblichen Anwendung : Ergebnisse einer Anwenderstudie (2006) 0.01
    0.011719751 = product of:
      0.058598753 = sum of:
        0.058598753 = weight(_text_:den in 3898) [ClassicSimilarity], result of:
          0.058598753 = score(doc=3898,freq=10.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.5664821 = fieldWeight in 3898, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=3898)
      0.2 = coord(1/5)
    
    Abstract
    Die vorliegende Studie untersucht den Einsatz und den Wirkungsgrad von semantischen Technologien in den betrieblichen Informationssystemen. Einleitend wird kurz in die Semantic Web Thematik und die Hauptanwendungsgebiete semantischer Technologien sowie die damit verbundenen Informationsprozesse eingeführt, um dann anschließend anhand von empirischen Daten den Aufwand, den Nutzen und die Effekte von semantischen Anwendungen beschreibbar zu machen. Dabei versucht die Studie auch die Lessons learned der Unternehmen zu vermitteln, die bereits semantische Technologien einsetzen.
  18. AG KIM Gruppe Titeldaten DINI: Empfehlungen zur RDF-Repräsentation bibliografischer Daten (2014) 0.01
    0.011709645 = product of:
      0.029274113 = sum of:
        0.0226952 = weight(_text_:den in 4668) [ClassicSimilarity], result of:
          0.0226952 = score(doc=4668,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.21939759 = fieldWeight in 4668, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=4668)
        0.006578914 = product of:
          0.01973674 = sum of:
            0.01973674 = weight(_text_:29 in 4668) [ClassicSimilarity], result of:
              0.01973674 = score(doc=4668,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15546128 = fieldWeight in 4668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4668)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    In den letzten Jahren wurde eine Vielzahl an Datensets aus Kultur- und Wissenschaftseinrichtungen als Linked Open Data veröffentlicht. Auch das deutsche Bibliothekswesen hat sich aktiv an den Entwicklungen im Bereich Linked Data beteiligt. Die zuvor lediglich in den Bibliothekskatalogen vorliegenden Daten können weiteren Sparten geöffnet und so auf vielfältige Weise in externe Anwendungen eingebunden werden. Gemeinsames Ziel bei der Veröffentlichung der Bibliotheksdaten als Linked Data ist außerdem, Interoperabilität und Nachnutzbarkeit zu ermöglichen und sich auf diese Weise stärker mit anderen Domänen außerhalb der Bibliothekswelt zu vernetzen. Es bestehen sowohl Linked-Data-Services einzelner Bibliotheken als auch der deutschen Bibliotheksverbünde. Trotz ihres gemeinsamen Ziels sprechen die bestehenden Services nicht die gleiche Sprache, da sie auf unterschiedlichen Modellierungen basieren. Um die Interoperabilität dieser Datenquellen zu gewährleisten, sollten die Dienste künftig einer einheitlichen Modellierung folgen. Vor diesem Hintergrund wurde im Januar 2012 eine Arbeitsgruppe gegründet, in der alle deutschen Bibliotheksverbünde, die Deutsche Nationalbibliothek sowie einige weitere interessierte und engagierte Kolleginnen und Kollegen mit entsprechender Expertise vertreten sind. Die Gruppe Titeldaten agiert seit April 2012 als Untergruppe des Kompetenzzentrums Interoperable Metadaten (DINI-AG KIM). Die Moderation und Koordination liegt bei der Deutschen Nationalbibliothek. Im Dezember 2012 schloss sich auch der OBVSG der Arbeitsgruppe an. Die Schweizerische Nationalbibliothek folgte im Mai 2013. Vorliegende Empfehlungen sollen zu einer Harmonisierung der RDFRepräsentationen von Titeldaten im deutschsprachigen Raum beitragen und so möglichst einen Quasi-Standard etablieren. Auch international wird an der Herausforderung gearbeitet, die bestehenden bibliothekarischen Strukturen in die heute zur Verfügung stehenden Konzepte des Semantic Web zu überführen und ihren Mehrwert auszuschöpfen. Die neuesten internationalen Entwicklungen im Bereich der Bereitstellung bibliografischer Daten im Semantic Web wie die Bibliographic Framework Transition Initiative der Library of Congress (BIBFRAME) haben ebenfalls das Ziel, ein Modell zur RDF-Repräsentation bibliothekarischer Daten bereitzustellen. Die Gruppe Titeldaten beobachtet diese Entwicklungen und beabsichtigt, die Erfahrungen und Anforderungen der deutschsprachigen Bibliothekswelt mit einzubringen. Dabei werden einerseits international erarbeitete Empfehlungen aufgegriffen und andererseits Impulse aus der nationalen Kooperation dort eingebracht. Die hier verwendeten Properties könnten z. B. als Grundlage für ein Mapping zu BIBFRAME dienen.
    Date
    2.12.2015 12:29:48
  19. Hochschule im digitalen Zeitalter : Informationskompetenz neu begreifen - Prozesse anders steuern (2012) 0.01
    0.011685974 = product of:
      0.029214934 = sum of:
        0.0226952 = weight(_text_:den in 506) [ClassicSimilarity], result of:
          0.0226952 = score(doc=506,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.21939759 = fieldWeight in 506, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.0065197325 = product of:
          0.019559197 = sum of:
            0.019559197 = weight(_text_:22 in 506) [ClassicSimilarity], result of:
              0.019559197 = score(doc=506,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15476047 = fieldWeight in 506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Zur Stärkung der Informationskompetenz der Studierenden ist es erforderlich, dass entsprechende Lehrangebote ausgebaut, stärker als bisher curricular verankert und möglichst flächendeckend angeboten werden. Die unterschiedlichen, von verschiedenen Akteuren zur Verfügung gestellten Lehrangebote zur Vermittlung von Informationskompetenz sollten mehr als bisher aufeinander abgestimmt und miteinander verschränkt werden. Um die Informationskompetenz aller Lehrenden zu sichern, sollten diese mehr als bisher entsprechende Fortbildungs- und Trainingsangebote wahrnehmen. Die Hochschulleitungen sollten dafür Sorge tragen, dass entsprechende attraktive Angebote zur Verfügung gestellt werden. Auch die Informationskompetenz der Forschenden muss ausgebaut werden, indem entsprechende Qualifizierungsangebote wahrgenommen und Qualifikationsmaßnahmen stärker als bisher z. B. in den Curricula der Graduierten- und Postgraduiertenausbildung verankert werden. Forschende können ihre Informationskompetenz zugleich im Rahmen von Kompetenznetzwerken stärken. Dies gilt es entsprechend seitens der Hochschulleitungen zu unterstützen. Die Hochschulleitungen sollten Strukturen und Prozesse im Rahmen eines hochschulinternen "Governance"-Prozesses verändern können. Innerhalb der Hochschulleitung muss daher eine Person für die Themen "Informationsinfrastruktur" und "Stärkung der Informationskompetenz" verantwortlich und Ansprechpartner sein. Was die Dienstleistungen angeht, wird insbesondere empfohlen, dass die Mitarbeiterinnen und Mitarbeiter der Hochschulbibliotheken und Rechenzentren ihre Kompetenzen erweitern, um die Forscherinnen und Forscher beim Datenmanagement besser unterstützen zu können.
    Die HRK sieht sich künftig für die bundesweite strategische Koordination des Handlungsfeldes "Informationskompetenz" verantwortlich. Um das Zusammenwirken an der Schnittstelle zwischen den Fakultäten bzw. Fachbereichen einerseits und den Bibliotheken und Rechenzentren andererseits zu verbessern, richtet die HRK eine Arbeitsgruppe ein, die Prozesse an der o. g. Schnittstelle jeweils mit Blick auf ausgewählte Fächer in regelmäßigen Zeitabständen begleitet und Vorschläge zur Verbesserung der Zusammenarbeit formuliert. Die Politik in Bund und Ländern sollte ihren Anteil am Aufbau solcher Strukturen leisten und die notwendigen Maßnahmen finanziell unterstützen.
    Date
    8.12.2012 17:22:26
  20. Voorbij, H.: Titelwoorden - trefwoorden : een vergelijkend onderzoek (1997) 0.01
    0.0091721555 = product of:
      0.04586078 = sum of:
        0.04586078 = weight(_text_:den in 3175) [ClassicSimilarity], result of:
          0.04586078 = score(doc=3175,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.4433424 = fieldWeight in 3175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.109375 = fieldNorm(doc=3175)
      0.2 = coord(1/5)
    
    Imprint
    Den Haag : Koninklijke Bibliotheek

Authors

Languages

  • d 60
  • e 29
  • nl 1
  • More… Less…

Types