Search (70 results, page 1 of 4)

  • × type_ss:"r"
  1. Dahlberg, I.: ¬Die Pilotstudie DB-Thesaurus (1980) 0.04
    0.04436193 = product of:
      0.20702234 = sum of:
        0.080556355 = weight(_text_:systematische in 3155) [ClassicSimilarity], result of:
          0.080556355 = score(doc=3155,freq=2.0), product of:
            0.19877483 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03251466 = queryNorm
            0.40526438 = fieldWeight in 3155, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.046875 = fieldNorm(doc=3155)
        0.02043573 = weight(_text_:zur in 3155) [ClassicSimilarity], result of:
          0.02043573 = score(doc=3155,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.20411909 = fieldWeight in 3155, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=3155)
        0.10603026 = weight(_text_:allgemeinen in 3155) [ClassicSimilarity], result of:
          0.10603026 = score(doc=3155,freq=4.0), product of:
            0.1917648 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.03251466 = queryNorm
            0.55291826 = fieldWeight in 3155, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.046875 = fieldNorm(doc=3155)
      0.21428572 = coord(3/14)
    
    Abstract
    Bei der Pilotstudie DB-Thesaurus ging es um die Untersuchung der Art und Form der von der Deutschen Bibliothek für ihre Inhaltserschließung verwendeten Schlagwörter und ihre Eignung als Elemente eines allgemeinen Thesaurus für Bibliotheken. Der Abschlußbericht (Arbeits- und Ergebnisbericht) beantwortet die in der Ausschreibung ausgesprochenen Fragen bezgl. der Möglichkeiten und Grundprinzipien eines solchen Thesaurus der DB-Schlagwörter, insbesondere auch seiner Struktur (Umfassung der Fachgebeiete, Anzahl der Hauptgruppen, Erschließungstiefe), seiner Relationsarten (begriffliche und terminologische), der Möglichkeiten der Wortschatzbegrenzung, der Behandlung von Eigennamen und der Möglichkeiten der Terminologiekontrolle. Die Untersuchung ergab, daß sich die SW der DB als Thesauruselemente eignen, daß diese aber um viele Begriffe ergänzt werden müssen, die teilweise aus dem Schatz der DB-Verweisungen gewonnen werden könnten, wenn man einen systematisch angelegten, allgemeinen Thesaurus auf dieser Basis erstellen will. Unter den Anlagen befindet sich als Beispiel dafür, daß DB-Schlag- und Verweisungswörter zur Thesauruserstellung herangezogen werden können, ein sog. Sportthesaurus, der nur durch einige fehlende Oberbegriffe ergänzt wurde. Der gesamte systematische Teil ist im alphabetischen Teil enthalten. Auf die Unterscheidung der Abstraktionsrelation von der Bestandsrelation wurde auch im alphabetischen Teil besonderer Wert gelegt
  2. Stock, W.G.: Publikation und Zitat : Die problematische Basis empirischer Wissenschaftsforschung (2001) 0.03
    0.027286904 = product of:
      0.12733889 = sum of:
        0.073539406 = weight(_text_:wissenschaftstheorie in 5787) [ClassicSimilarity], result of:
          0.073539406 = score(doc=5787,freq=2.0), product of:
            0.20804735 = queryWeight, product of:
              6.39857 = idf(docFreq=199, maxDocs=44218)
              0.03251466 = queryNorm
            0.35347438 = fieldWeight in 5787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.39857 = idf(docFreq=199, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
        0.017029775 = weight(_text_:zur in 5787) [ClassicSimilarity], result of:
          0.017029775 = score(doc=5787,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.17009923 = fieldWeight in 5787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
        0.036769703 = product of:
          0.073539406 = sum of:
            0.073539406 = weight(_text_:wissenschaftstheorie in 5787) [ClassicSimilarity], result of:
              0.073539406 = score(doc=5787,freq=2.0), product of:
                0.20804735 = queryWeight, product of:
                  6.39857 = idf(docFreq=199, maxDocs=44218)
                  0.03251466 = queryNorm
                0.35347438 = fieldWeight in 5787, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.39857 = idf(docFreq=199, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5787)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Abstract
    Die empirische Wissenschaftsforschung arbeitet bei den Indikatoren wissenschaftlicher Leistung und wissenschaftlicher Wirkung mit Publikations- und Zitationsraten. Die vorliegende Arbeit befaßt sich mit dabei auftretenden methodischen Problemen. Was ist überhaupt eine Publikation? Was heißt Zitation? Zentral ist auch die Zählbasis, d.h. die Einheitenbildung: Was ist 1 Publikation? und: Was ist 1 Zitation? Bei Printpublikationen gibt es eine Reihe von beachtenswerten Faktoren (u.a. Mehrautorenwerke, Gewichtungsfaktoren wie den Impact Factor, Dokumenttypen). Bei elektronischen Publikationen im Internet mit ihrem dynamischen Charakter ist die Einheitenbildung noch weitaus problematischer. Zitationen, verstanden als zitierte Publikationen, werfen alle methodischen Probleme der Publikationseinheiten auf, hinzu kommen weitere, spezifische Probleme. Lösungsmöglichkeiten im syntaktischen Bereich (Relativierung auf Textseiten oder Zeichen) ändern am grundlegenden Problem nur wenig, Lösungsversuche im semantischen Bereich (etwa im Rahmen der semantischen Informationstheorie) sind im Rahmen der Publikations- und Zitationsanalysen nicht durchführbar und verweisen sowohl auf themenanalytische Methoden als auch auf die Wissenschaftstheorie. Mit diesem Working Paper wollen wir vor allem auf offene Probleme hinweisen; "endgültige" Lösungen wird der Leser nicht finden, wohl aber Lösungsvorschläge, die meist durchaus noch diskussionswürdig sind. In der Informationswissenschaft wie in der Wissenschaftsforschung sind wir bisher viel zu sicher davon ausgegangen, daß wir wissen, was Publikationen und Zitationen sind
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.29
  3. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.01
    0.012609207 = product of:
      0.08826444 = sum of:
        0.059363954 = weight(_text_:allgemeine in 1837) [ClassicSimilarity], result of:
          0.059363954 = score(doc=1837,freq=2.0), product of:
            0.17063688 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03251466 = queryNorm
            0.3478964 = fieldWeight in 1837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.028900487 = weight(_text_:zur in 1837) [ClassicSimilarity], result of:
          0.028900487 = score(doc=1837,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.28866798 = fieldWeight in 1837, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
      0.14285715 = coord(2/14)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd. 54
  4. Gödert, W.; Hartmann, S.; Hubrich, J.; Lepsky, K.; Schulenborg, K.; Trunk, D.: Semantische Anreicherung der Schlagwortnormdatei : Ergebnisbericht (2004) 0.01
    0.011907793 = product of:
      0.08335455 = sum of:
        0.033371408 = weight(_text_:zur in 1815) [ClassicSimilarity], result of:
          0.033371408 = score(doc=1815,freq=12.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.33332506 = fieldWeight in 1815, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=1815)
        0.049983144 = weight(_text_:allgemeinen in 1815) [ClassicSimilarity], result of:
          0.049983144 = score(doc=1815,freq=2.0), product of:
            0.1917648 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.03251466 = queryNorm
            0.26064816 = fieldWeight in 1815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.03125 = fieldNorm(doc=1815)
      0.14285715 = coord(2/14)
    
    Abstract
    Die Schlagwortnormdatei (SWD) ist mit einem Umfang von ca. 150.000 Sachschlagwörtern das umfangreichste terminologisch kontrollierte deutschsprachige Vokabular, das zur verbalen Inhaltserschließung von Dokumenten genutzt werden und somit prinzipiell auch als Kandidat für den Aufbau semantischer Navigationsstrukturen im Online-Retrieval angesehen werden kann. Die Strukturierung der Schlagwörter in der SWD folgt den Vorgaben zur Ausweisung begrifflicher Strukturen in einem Thesaurus. Durch Veränderungen des der Erstellung der SWD zu Grunde liegenden Regelwerkes RSWK hat sich im Verlauf der Zeit ein Nebeneinander von unterschiedlich dichten Beziehungsnetzen ergeben, ohne dass hierzu bislang Details erhoben und dokumentiert wären. In dieser Studie werden Aussagen über den Aufwand gemacht, der erforderlich wäre, die semantische Relationenstruktur der Schlagwortnormdatei (SWD) zu homogenisieren. Hierzu wird eine quantitative und qualitative Analyse am Beispiel mehrerer Themengebiete vorgenommen. Die Berücksichtigung mehrerer Gebiete soll es gestatten, möglichst repräsentative Aussagen für das gesamte Vokabular abzuleiten. Die Autorinnen und Autoren der Studien sind sich angesichts der zur Verfügung stehenden begrenzten Ressourcen bewusst, dass dieser Anspruch nur mit Einschränkungen eingelöst werden kann. Die für die Analyse der Relationenstruktur benutzten Kriterien orientieren sich an Grundsätzen zur Gestaltung strukturierten Vokabulars sowie insbesondere der Eignung der SWD, zum Aufbau bestandsunabhängiger semantischer Navigationssysteme im Online-Retrieval, für Zwecke des wörterbuchgestützten automatischen Indexierens.
    Mit diesem Kriterium lässt es sich nicht vermeiden, dass Relationen als fehlend charakterisiert werden, auch wenn sie vom Regelwerk nicht gefordert werden. Die Analysen berücksichtigen allerdings die Verzahnung der SWD zum Regelwerk RSWK insoweit, als in der Regel nur bereits vorhandene Schlagwörter betrachtet wurden und nicht auch Lücken analysiert wurden, die allein deswegen vorhandenen sind, weil Schlagwörter wegen nicht vorhandener Bücher (noch) nicht gebildet wurden. Die Funktion der SWD zur terminologischen Ansetzung von Schlagwörtern ist nicht Gegenstand der Studie. Der Bericht dokumentiert zusätzlich Inkonsistenzen, die während der Analysen ermittelt wurden. Ziel dieses Projekts ist es, die tatsächlich erreichte Situation der Relationenstruktur der SWD zu ermitteln sowie Vorschläge auszuarbeiten, an welchen Stellen eine Nachbearbeitung der Relationen erfolgen sollte und wie dies realisiert werden könnte. Bei dieser Analyse wird nicht differenziert zwischen Relationierungen, die vom Regelwerk RSWK gedeckt sind und Relationierungen, die allgemeinen Regeln zur Darstellung begrifflicher Strukturen entsprechen.
  5. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.01
    0.011043055 = product of:
      0.07730138 = sum of:
        0.05370424 = weight(_text_:systematische in 4250) [ClassicSimilarity], result of:
          0.05370424 = score(doc=4250,freq=2.0), product of:
            0.19877483 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03251466 = queryNorm
            0.27017626 = fieldWeight in 4250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
        0.023597147 = weight(_text_:zur in 4250) [ClassicSimilarity], result of:
          0.023597147 = score(doc=4250,freq=6.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.2356964 = fieldWeight in 4250, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.14285715 = coord(2/14)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  6. Wolters, C.: GOS Thesaurus-Handbuch : zum Projekt: Sammlungsmanagement für kulturgeschichtliche Museen in den neuen Bundesländern (1997) 0.01
    0.009499962 = product of:
      0.06649973 = sum of:
        0.04946996 = weight(_text_:allgemeine in 4009) [ClassicSimilarity], result of:
          0.04946996 = score(doc=4009,freq=2.0), product of:
            0.17063688 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03251466 = queryNorm
            0.28991365 = fieldWeight in 4009, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4009)
        0.017029775 = weight(_text_:zur in 4009) [ClassicSimilarity], result of:
          0.017029775 = score(doc=4009,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.17009923 = fieldWeight in 4009, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4009)
      0.14285715 = coord(2/14)
    
    Abstract
    Das GOS Thesaurus-Handbuch wurde für die Teilnehmer an dem von der ROBERTBOSCH-STIFTUNG geförderten Projekt "Sammlungsmanagement für kulturgeschichtliche Museen in den neuen Bundesländern" (Spitzname: "Knorr-Projekt") geschrieben. Es basiert auf den bereits Mitte der 80er Jahre vom Institut für Museumskunde in Zusammenarbeit mit dem heutigen Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) durchgeführten und 1988 publizierten Arbeiten im Projekt "Kleine Museen".' Schon damals war zu erkennen, daß die international gültige Thesaurusnorm auch in den Museen auf dem Siegeszug war. Heute ist sie die Grundlage aller wichtigen Projekte zur internationalen Zusammenarbeit bei der Museumsdokumentation. GOS-Benutzer, die sich noch nie mit solchen Dingen befaßt haben, können dieses Handbuch als eine allgemeine Einführung in die Thesaurusarbeit benutzen, denn es behandelt alle Grundfunktionen eines Thesaurus nach DIN 1463. Es besteht aus einem "Lesebuch", in dem es mehr um die Zusammenhänge und etwas Hintergrundwissen geht sowie einem "Datenkatalog" mit der Beschreibung der Datenfelder des Thesaurus, gedruckt aus einer kleinen GOS-Datenbank, aus der auch die "H i l f e t e x t e " im GOS-Menü geholt werden. Wir haben uns - mit einiger Mühe allerdings - jeden Hinweis auf "gerade in Entwicklung befindliche" und "in wenigen Monaten freizugebende" Leistungen von GOS verkniffen und uns auschließlich auf Dinge beschränkt, die in den am Projekt direkt beteiligten Museen vor März 1997 routinemäßig angewendet wurden.
  7. Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur (2011) 0.01
    0.006438968 = product of:
      0.04507277 = sum of:
        0.03405955 = weight(_text_:zur in 4291) [ClassicSimilarity], result of:
          0.03405955 = score(doc=4291,freq=8.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.34019846 = fieldWeight in 4291, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
        0.01101322 = product of:
          0.02202644 = sum of:
            0.02202644 = weight(_text_:22 in 4291) [ClassicSimilarity], result of:
              0.02202644 = score(doc=4291,freq=2.0), product of:
                0.11386081 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03251466 = queryNorm
                0.19345059 = fieldWeight in 4291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4291)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Content
    "Empfehlungen zur Optimierung der Informationsinfrastruktur Verbundübergreifende Entwicklung bedarfsorientierter Services Angestrebt werden sollten stringente, verbundübergreifende arbeitsteilige Strukturen bei Betrieb und Entwicklung der gegenwärtigen wie der zukünftigen Dienste, um unnötige Mehrfacharbeit zu vermeiden und die Durchsetzung einheitlicher Standards zu erleichtern. Das ist technisch machbar und organisatorisch auch im föderalen Umfeld denkbar wie andere Beispiele (z.B. DFN) zeigen. Einführung neuer Steuerungsmechanismen Das derzeitige Finanzvolumen der Länder für Informationsservices (Finanzzuweisung an Verbundzentralen) muss erhalten bleiben und weiterhin die den bisherigen Regelungen entsprechenden Steigerungen erfahren. Gleichzeitig müssen behutsam, aber konsequent neue Steuerungsmechanismen eingeführt werden, die die Verbünde im höheren Maße als bisher in die Lage versetzen, neue Entwicklungen bedarfsorientiert aufzugreifen und verlässliche Dienste aufzubauen. Zur Steuerung sollten Aufsichtsgremien im Sinne von "Beiräten" vergleichbar den Beiräten der Informationsdienstleister in der WGL eingesetzt werden. Wege zu einer Neuausrichtung der Verbünde Neben den empfohlenen politisch-administrativen Maßnahmen erscheint ein attraktiv dimensioniertes Förderprogramm der DFG zur "Neuausrichtung überregionaler Informationsservices" und "Weiterentwicklung der Bibliotheksverbünde als Teil der überregionalen Informationsinfrastruktur" [Arbeitstitel] geeignet, den notwendigen Strukturwandel hin zu einem arbeitsteiligen, verbundübergreifenden Diensteangebot anzustoßen und zu koordinieren."
    Date
    7. 2.2011 19:52:22
  8. Hochschule im digitalen Zeitalter : Informationskompetenz neu begreifen - Prozesse anders steuern (2012) 0.01
    0.005610624 = product of:
      0.039274365 = sum of:
        0.030463787 = weight(_text_:zur in 506) [ClassicSimilarity], result of:
          0.030463787 = score(doc=506,freq=10.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.30428275 = fieldWeight in 506, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.008810576 = product of:
          0.017621152 = sum of:
            0.017621152 = weight(_text_:22 in 506) [ClassicSimilarity], result of:
              0.017621152 = score(doc=506,freq=2.0), product of:
                0.11386081 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03251466 = queryNorm
                0.15476047 = fieldWeight in 506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Zur Stärkung der Informationskompetenz der Studierenden ist es erforderlich, dass entsprechende Lehrangebote ausgebaut, stärker als bisher curricular verankert und möglichst flächendeckend angeboten werden. Die unterschiedlichen, von verschiedenen Akteuren zur Verfügung gestellten Lehrangebote zur Vermittlung von Informationskompetenz sollten mehr als bisher aufeinander abgestimmt und miteinander verschränkt werden. Um die Informationskompetenz aller Lehrenden zu sichern, sollten diese mehr als bisher entsprechende Fortbildungs- und Trainingsangebote wahrnehmen. Die Hochschulleitungen sollten dafür Sorge tragen, dass entsprechende attraktive Angebote zur Verfügung gestellt werden. Auch die Informationskompetenz der Forschenden muss ausgebaut werden, indem entsprechende Qualifizierungsangebote wahrgenommen und Qualifikationsmaßnahmen stärker als bisher z. B. in den Curricula der Graduierten- und Postgraduiertenausbildung verankert werden. Forschende können ihre Informationskompetenz zugleich im Rahmen von Kompetenznetzwerken stärken. Dies gilt es entsprechend seitens der Hochschulleitungen zu unterstützen. Die Hochschulleitungen sollten Strukturen und Prozesse im Rahmen eines hochschulinternen "Governance"-Prozesses verändern können. Innerhalb der Hochschulleitung muss daher eine Person für die Themen "Informationsinfrastruktur" und "Stärkung der Informationskompetenz" verantwortlich und Ansprechpartner sein. Was die Dienstleistungen angeht, wird insbesondere empfohlen, dass die Mitarbeiterinnen und Mitarbeiter der Hochschulbibliotheken und Rechenzentren ihre Kompetenzen erweitern, um die Forscherinnen und Forscher beim Datenmanagement besser unterstützen zu können.
    Die HRK sieht sich künftig für die bundesweite strategische Koordination des Handlungsfeldes "Informationskompetenz" verantwortlich. Um das Zusammenwirken an der Schnittstelle zwischen den Fakultäten bzw. Fachbereichen einerseits und den Bibliotheken und Rechenzentren andererseits zu verbessern, richtet die HRK eine Arbeitsgruppe ein, die Prozesse an der o. g. Schnittstelle jeweils mit Blick auf ausgewählte Fächer in regelmäßigen Zeitabständen begleitet und Vorschläge zur Verbesserung der Zusammenarbeit formuliert. Die Politik in Bund und Ländern sollte ihren Anteil am Aufbau solcher Strukturen leisten und die notwendigen Maßnahmen finanziell unterstützen.
    Date
    8.12.2012 17:22:26
  9. Wehling, E.: Framing-Manual : Unser gemeinsamer freier Rundfunk ARD (2019) 0.00
    0.0040061423 = product of:
      0.028042994 = sum of:
        0.017029775 = weight(_text_:zur in 4997) [ClassicSimilarity], result of:
          0.017029775 = score(doc=4997,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.17009923 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.01101322 = product of:
          0.02202644 = sum of:
            0.02202644 = weight(_text_:22 in 4997) [ClassicSimilarity], result of:
              0.02202644 = score(doc=4997,freq=2.0), product of:
                0.11386081 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03251466 = queryNorm
                0.19345059 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Content
    Vgl. auch den Kommentar in Open Password , Nr.157 vom 22.02.2019: "Vor wenigen Tagen wurde das "Framing-Manual" der Linguistin Elisabeth Wehling bekannt, das sie für 120.000 Euro für die ARD erarbeitet hat und fortlaufend in Workshops für Mitarbeiter eingesetzt wird. Da aus Frau Wehlings Sicht "objektives, faktenbegründetes und rationales Denken" nicht möglich ist, kann es im öffentlichen Streit der Meinungen nur mehr darum gehen, die eigenen Sprachregelungen durchzusetzen und die Rezipienten über Emotionalisierungen und implizite moralische Bewertungen über den Tisch zu ziehen. So sollten Bürger, die den Zwangsbeitrag für Rundfunk und Fernsehen nicht zahlen wollen, als "demokratieferne, wortbrüchige und illoyale Beitragshinterzieher" gebrandmarkt werden und sind "unserem gemeinsamen freien Rundfunk ARD" die "medienkapitalistischen Heuschrecken" entgegenzustellen. Derweil berichtet Meedia von einem zweiten Fall Relotius, einem freien Journalisten, der für die Süddeutsche Zeitung, die Zeit und den Spiegel geschrieben hat und soeben mit einer frei erfundenen Geschichte von der SZ überführt wurde. Das "Framing-Manual" erscheint mir als ein noch größerer Skandal als der Fall Claas Relotius mit seinen vielen erfundenen Geschichten im Spiegel und praktisch der gesamten weiteren "Qualitätspresse", weil die Spitzen der ARD und mit ihnen die nachgeordneten Strukturen das Manual von Frau Wehling willkommen geheißen haben und weiterhin zur Indoktrination ihrer Mitarbeiter verwenden. Fake News und die damit verbundene Kriegserklärung an Wahrheit und Wissenschaft kommen nicht von Donald Trump, sie werden selbst generiert und breiten sich ungehindert mit Wissen und Willen der Verantwortlichen in unserem "Qualitätsfernsehen" aus." (W. Bredemeier)
    Date
    22. 2.2019 9:26:20
  10. Biela, S.: Methodische Rahmenregelung zur Erarbeitung und Anwendung sachbezogener Indexiermuster (1985) 0.00
    0.00389252 = product of:
      0.05449528 = sum of:
        0.05449528 = weight(_text_:zur in 977) [ClassicSimilarity], result of:
          0.05449528 = score(doc=977,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.54431754 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.125 = fieldNorm(doc=977)
      0.071428575 = coord(1/14)
    
  11. Seeger, T.; Burkart, M.; Wersig, G.: IuD-Stellen in der Bundesrepublik Deutschland : Repräsentativität einer Umfrage zur Nutzung von Klassifikationssystemen (1981) 0.00
    0.00389252 = product of:
      0.05449528 = sum of:
        0.05449528 = weight(_text_:zur in 1210) [ClassicSimilarity], result of:
          0.05449528 = score(doc=1210,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.54431754 = fieldWeight in 1210, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.125 = fieldNorm(doc=1210)
      0.071428575 = coord(1/14)
    
  12. Hegner, M.: Gestaltung barrierefreier Webseiten (2005) 0.00
    0.003440534 = product of:
      0.048167475 = sum of:
        0.048167475 = weight(_text_:zur in 1421) [ClassicSimilarity], result of:
          0.048167475 = score(doc=1421,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.48111326 = fieldWeight in 1421, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.078125 = fieldNorm(doc=1421)
      0.071428575 = coord(1/14)
    
    Abstract
    Anhand von Beispielen wird die Gestaltung barrierefreier Webseiten verdeutlicht. Außerdem werden Hilfsmittel vorgestellt, mit denen sich Menschen mit Behinderung durch das Internet bewegen können. Unterschiedliche Ansätze zur Bestimmung der Barrierefreiheit von Webseiten werden aufgezeigt.
    Footnote
    Der vollständige Text steht unter www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/pdf/ab_35.pdf als PDF-Datei zur Verfügung
  13. Schweins, K.: Methoden zur Erschließung von Filmsequenzen (1997) 0.00
    0.003440534 = product of:
      0.048167475 = sum of:
        0.048167475 = weight(_text_:zur in 1628) [ClassicSimilarity], result of:
          0.048167475 = score(doc=1628,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.48111326 = fieldWeight in 1628, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
      0.071428575 = coord(1/14)
    
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.5
  14. Gastmeyer, M.: Formale und inhaltliche Regeln zur Erstellung des Thesaurus Wirtschaft (1992) 0.00
    0.0034059552 = product of:
      0.04768337 = sum of:
        0.04768337 = weight(_text_:zur in 1841) [ClassicSimilarity], result of:
          0.04768337 = score(doc=1841,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.47627786 = fieldWeight in 1841, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.109375 = fieldNorm(doc=1841)
      0.071428575 = coord(1/14)
    
  15. Massenkommunikation IV : eine Langzeitstudie zur Mediennutzung und Medienbewertung 1964-1990 (1992) 0.00
    0.0034059552 = product of:
      0.04768337 = sum of:
        0.04768337 = weight(_text_:zur in 2909) [ClassicSimilarity], result of:
          0.04768337 = score(doc=2909,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.47627786 = fieldWeight in 2909, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.109375 = fieldNorm(doc=2909)
      0.071428575 = coord(1/14)
    
  16. Stock, W.G.: Universaldienste (1997) 0.00
    0.0034059552 = product of:
      0.04768337 = sum of:
        0.04768337 = weight(_text_:zur in 4442) [ClassicSimilarity], result of:
          0.04768337 = score(doc=4442,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.47627786 = fieldWeight in 4442, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.109375 = fieldNorm(doc=4442)
      0.071428575 = coord(1/14)
    
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.4
  17. Massenkommunikation V : eine Langzeitstudie zur Mediennutzung und Medienbewertung 1964-1995 (1996) 0.00
    0.0034059552 = product of:
      0.04768337 = sum of:
        0.04768337 = weight(_text_:zur in 6019) [ClassicSimilarity], result of:
          0.04768337 = score(doc=6019,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.47627786 = fieldWeight in 6019, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.109375 = fieldNorm(doc=6019)
      0.071428575 = coord(1/14)
    
  18. Sachse, E.; Liebig, M.; Gödert, W.: Automatische Indexierung unter Einbeziehung semantischer Relationen : Ergebnisse des Retrievaltests zum MILOS II-Projekt (1998) 0.00
    0.0029496434 = product of:
      0.041295007 = sum of:
        0.041295007 = weight(_text_:zur in 3577) [ClassicSimilarity], result of:
          0.041295007 = score(doc=3577,freq=6.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.4124687 = fieldWeight in 3577, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3577)
      0.071428575 = coord(1/14)
    
    Abstract
    Im Rahmen von MILOS II wurde das erste MILOS-Projekt zur automatischen Indexierung von Titeldaten um eine semantischer Komponente erweitert, indem Thesaurusrelationen der Schlagwortnormdatei eingebunden wurden. Der abschließend zur Evaluierung durchgeführte Retrievaltest und seine Ergebnisse stehen im Mittelpunkt dieses Texts. Zusätzlich wird ein Überblick über bereits durchgeführte Retrievaltests (vorwiegend des anglo-amerikanischen Raums) gegeben und es wird erläutert, welche grundlegenden Fragestellungen bei der praktischen Durchführung eines Retrievaltests zu beachten sind
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.14
  19. Oberhauser, O.; Seidler, W.: Reklassifizierung grösserer fachspezifischer Bibliotheksbestände : Durchführbarkeitsstudie für die Fachbibliothek für Germanistik an der Universität Wien (2000) 0.00
    0.00291939 = product of:
      0.04087146 = sum of:
        0.04087146 = weight(_text_:zur in 4631) [ClassicSimilarity], result of:
          0.04087146 = score(doc=4631,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.40823817 = fieldWeight in 4631, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.09375 = fieldNorm(doc=4631)
      0.071428575 = coord(1/14)
    
    Imprint
    Wien : Verein zur Förderung der Informationswissenschaft
  20. Hegner, M.: Methode zur Evaluation von Software (2003) 0.00
    0.00291939 = product of:
      0.04087146 = sum of:
        0.04087146 = weight(_text_:zur in 2499) [ClassicSimilarity], result of:
          0.04087146 = score(doc=2499,freq=8.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.40823817 = fieldWeight in 2499, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
      0.071428575 = coord(1/14)
    
    Abstract
    Der Arbeitsbericht befasst sich mit den zwei unterschiedlichen Usability Methoden, dem Usability Test und den Usability Inspektionsmethoden. Bei den Usability Inspektionsmethoden wird die Benutzungsschnittstelle durch Ergonomieexperten evaluiert. Diese Methoden umfassen die Heuristische Evaluation, standard inspection und cognitive walkthrough, etc. Der Vorteil dieser Inspektionsmethoden liegt darin, dass sie weniger zeitintensiv und kostengünstiger als ein Usability Test sind. Der Usability Test wird im Gegensatz zu den Usability Inspektionsmethoden mit repräsentativen Versuchspersonen durchgeführt. Er ist ein effizientes Mittel um Benutzungsschnittstellen zu evaluieren oder auf deren Benutzungsfreundlichkeit zu überprüfen. Des weiteren erläutert der Arbeitsbericht die verschiedenen Usability Testmethoden sowie die Basiselemente zur Durchführung eines Usability Tests. Abschließend wird noch auf die Varianzanalyse (Analysis of Variance, ANOVA) als ein statistisches Verfahren zur Überprüfung von Mittelwertsunterschieden näher eingegangen.
    Footnote
    Der vollständige Text steht unter http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/ als PDF-Datei zur Verfügung

Languages

  • d 56
  • e 13

Types