Search (188 results, page 1 of 10)

  • × type_ss:"r"
  1. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.03
    0.029604133 = product of:
      0.14308664 = sum of:
        0.019571815 = weight(_text_:und in 1837) [ClassicSimilarity], result of:
          0.019571815 = score(doc=1837,freq=16.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.41556883 = fieldWeight in 1837, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.013995517 = product of:
          0.027991034 = sum of:
            0.027991034 = weight(_text_:bibliothekswesen in 1837) [ClassicSimilarity], result of:
              0.027991034 = score(doc=1837,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.2955047 = fieldWeight in 1837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1837)
          0.5 = coord(1/2)
        0.040425036 = weight(_text_:informationswissenschaft in 1837) [ClassicSimilarity], result of:
          0.040425036 = score(doc=1837,freq=4.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.42231607 = fieldWeight in 1837, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.024156282 = weight(_text_:des in 1837) [ClassicSimilarity], result of:
          0.024156282 = score(doc=1837,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.41049933 = fieldWeight in 1837, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.024156282 = weight(_text_:des in 1837) [ClassicSimilarity], result of:
          0.024156282 = score(doc=1837,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.41049933 = fieldWeight in 1837, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.020781705 = weight(_text_:nach in 1837) [ClassicSimilarity], result of:
          0.020781705 = score(doc=1837,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.25462174 = fieldWeight in 1837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
      0.20689656 = coord(6/29)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Footnote
    Überarb. Version der Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : Fachhochschule, Fakultät für Informations- und Kommunikationswissenschaften, Institut für Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd. 54
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Arnold, F.-J. (Red.): Telekommunikationspolitik : Rahmenbedingungen für die Telekommunikation (1995) 0.03
    0.026606679 = product of:
      0.12859894 = sum of:
        0.022599585 = weight(_text_:und in 4208) [ClassicSimilarity], result of:
          0.022599585 = score(doc=4208,freq=12.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.47985753 = fieldWeight in 4208, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4208)
        0.014404024 = weight(_text_:des in 4208) [ClassicSimilarity], result of:
          0.014404024 = score(doc=4208,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.24477452 = fieldWeight in 4208, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4208)
        0.014404024 = weight(_text_:des in 4208) [ClassicSimilarity], result of:
          0.014404024 = score(doc=4208,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.24477452 = fieldWeight in 4208, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4208)
        0.02770894 = weight(_text_:nach in 4208) [ClassicSimilarity], result of:
          0.02770894 = score(doc=4208,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.33949566 = fieldWeight in 4208, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0625 = fieldNorm(doc=4208)
        0.005666905 = product of:
          0.01133381 = sum of:
            0.01133381 = weight(_text_:1 in 4208) [ClassicSimilarity], result of:
              0.01133381 = score(doc=4208,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.2171262 = fieldWeight in 4208, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4208)
          0.5 = coord(1/2)
        0.043815468 = product of:
          0.087630935 = sum of:
            0.087630935 = weight(_text_:deutschland in 4208) [ClassicSimilarity], result of:
              0.087630935 = score(doc=4208,freq=8.0), product of:
                0.10263357 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02124939 = queryNorm
                0.8538233 = fieldWeight in 4208, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4208)
          0.5 = coord(1/2)
      0.20689656 = coord(6/29)
    
    Content
    Die Landesinitiative Telekommunikation TELETECH NRW / Der Zusammenhang zwischen Postreform I und Postreform II in Deutschland / Der ordnungspolitische Rahmen der Postreform I / Die Entwicklung der Telekommunikation in Deutschland nach der Postreform I / Auswirkungen und Ziele der Telekommunikationspolitik der Europäischen Union / Die Postreform II in Deutschland / Bewertung der Postreform II und Ausblick / Forderungen an den Gesetzgeber und die Regulierung für einen funktionierenden Wettbewerb in Deutschland
    Editor
    Ministerium für Wirtschaft, Mittelstand und Technologie des Landes Nordrhein-Westfalen
    Imprint
    Düsseldorf : Ministerium für Wirtschaft, Mittelstand und Technologie
    Series
    Schriften der Veröffentlichungen im Rahmen der Landesinitiative TELETECH NRW; Bd.1
  3. Erschließung in der Deutschen Nationalbibliothek ab 1. Oktober 2015 (2015) 0.02
    0.021701673 = product of:
      0.10489142 = sum of:
        0.018452484 = weight(_text_:und in 2440) [ClassicSimilarity], result of:
          0.018452484 = score(doc=2440,freq=8.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.39180204 = fieldWeight in 2440, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2440)
        0.014404024 = weight(_text_:des in 2440) [ClassicSimilarity], result of:
          0.014404024 = score(doc=2440,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.24477452 = fieldWeight in 2440, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2440)
        0.014404024 = weight(_text_:des in 2440) [ClassicSimilarity], result of:
          0.014404024 = score(doc=2440,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.24477452 = fieldWeight in 2440, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2440)
        0.02770894 = weight(_text_:nach in 2440) [ClassicSimilarity], result of:
          0.02770894 = score(doc=2440,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.33949566 = fieldWeight in 2440, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0625 = fieldNorm(doc=2440)
        0.008014214 = product of:
          0.016028428 = sum of:
            0.016028428 = weight(_text_:1 in 2440) [ClassicSimilarity], result of:
              0.016028428 = score(doc=2440,freq=4.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.30706283 = fieldWeight in 2440, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2440)
          0.5 = coord(1/2)
        0.021907734 = product of:
          0.043815468 = sum of:
            0.043815468 = weight(_text_:deutschland in 2440) [ClassicSimilarity], result of:
              0.043815468 = score(doc=2440,freq=2.0), product of:
                0.10263357 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02124939 = queryNorm
                0.42691165 = fieldWeight in 2440, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2440)
          0.5 = coord(1/2)
      0.20689656 = coord(6/29)
    
    Abstract
    Am 1. Oktober 2015 wird die Deutsche Nationalbibliothek (DNB) mit der Erschließung nach dem Regelwerk Resource Description and Access (RDA) beginnen. Die Verbünde und Bibliotheken in Deutschland, Österreich und der deutschsprachigen Schweiz folgen innerhalb der darauffolgenden drei Monate. Im Vorfeld des Umstiegs auf RDA waren nicht nur umfangreiche Schulungsunterlagen zu erstellen und Schulungen zu planen, sondern die DNB musste auch ihre Erschließungspraxis überprüfen und hat in Folge dieser Überprüfung sowohl die Formal- als auch die Inhaltserschließung neu ausgerichtet.
  4. Schweins, K.: Methoden zur Erschließung von Filmsequenzen (1997) 0.02
    0.021659706 = product of:
      0.1256263 = sum of:
        0.0199754 = weight(_text_:und in 1628) [ClassicSimilarity], result of:
          0.0199754 = score(doc=1628,freq=6.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.42413816 = fieldWeight in 1628, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
        0.047641363 = weight(_text_:informationswissenschaft in 1628) [ClassicSimilarity], result of:
          0.047641363 = score(doc=1628,freq=2.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.49770427 = fieldWeight in 1628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
        0.025462959 = weight(_text_:des in 1628) [ClassicSimilarity], result of:
          0.025462959 = score(doc=1628,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.43270433 = fieldWeight in 1628, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
        0.025462959 = weight(_text_:des in 1628) [ClassicSimilarity], result of:
          0.025462959 = score(doc=1628,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.43270433 = fieldWeight in 1628, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
        0.007083631 = product of:
          0.014167262 = sum of:
            0.014167262 = weight(_text_:1 in 1628) [ClassicSimilarity], result of:
              0.014167262 = score(doc=1628,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.27140775 = fieldWeight in 1628, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1628)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Behandelt werden: das Fernseharchiv des WDR, die Stockshot Database des National Film Board of Canada und das Projekt AMPHORE (IWF + GMD)
    Footnote
    Rez. in: nfd 50(1999) H.1, S.56 (W. Putz)
    Imprint
    Köln : Fachhochschule, Fb Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.5
  5. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.02
    0.017605484 = product of:
      0.08509317 = sum of:
        0.0145879695 = weight(_text_:und in 1076) [ClassicSimilarity], result of:
          0.0145879695 = score(doc=1076,freq=20.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.3097467 = fieldWeight in 1076, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.009330344 = product of:
          0.018660689 = sum of:
            0.018660689 = weight(_text_:bibliothekswesen in 1076) [ClassicSimilarity], result of:
              0.018660689 = score(doc=1076,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.19700313 = fieldWeight in 1076, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1076)
          0.5 = coord(1/2)
        0.026950024 = weight(_text_:informationswissenschaft in 1076) [ClassicSimilarity], result of:
          0.026950024 = score(doc=1076,freq=4.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.28154406 = fieldWeight in 1076, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.010185183 = weight(_text_:des in 1076) [ClassicSimilarity], result of:
          0.010185183 = score(doc=1076,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.17308173 = fieldWeight in 1076, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.010185183 = weight(_text_:des in 1076) [ClassicSimilarity], result of:
          0.010185183 = score(doc=1076,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.17308173 = fieldWeight in 1076, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.01385447 = weight(_text_:nach in 1076) [ClassicSimilarity], result of:
          0.01385447 = score(doc=1076,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.16974783 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.20689656 = coord(6/29)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
    Footnote
    Zugleich Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : FH Köln, Fachbereich Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.34
  6. Kuhlen, R.; Hess, M.S.: Passagen-Retrieval : auch eine Möglichkeit der automatischen Verknüpfung in Hypertexten (1993) 0.02
    0.016156718 = product of:
      0.09370896 = sum of:
        0.006919681 = weight(_text_:und in 1947) [ClassicSimilarity], result of:
          0.006919681 = score(doc=1947,freq=2.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.14692576 = fieldWeight in 1947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
        0.028584816 = weight(_text_:informationswissenschaft in 1947) [ClassicSimilarity], result of:
          0.028584816 = score(doc=1947,freq=2.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.29862255 = fieldWeight in 1947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
        0.018711379 = weight(_text_:des in 1947) [ClassicSimilarity], result of:
          0.018711379 = score(doc=1947,freq=6.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.31797147 = fieldWeight in 1947, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
        0.018711379 = weight(_text_:des in 1947) [ClassicSimilarity], result of:
          0.018711379 = score(doc=1947,freq=6.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.31797147 = fieldWeight in 1947, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
        0.020781705 = weight(_text_:nach in 1947) [ClassicSimilarity], result of:
          0.020781705 = score(doc=1947,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.25462174 = fieldWeight in 1947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
      0.1724138 = coord(5/29)
    
    Abstract
    Das Passagen-Retrieval erlaubt explorierendes Navigieren in Volltextdatenbanken, aber auch in textorientierten Hypertextbasen. Es wird experimentell an fünf, im Information Retrieval geläufigen Assoziationskoeffizienten überprüft, inwieweit mit ihnen Textpassagen, gewonnen aus der Konversion von Absätzen aus einer Buchvorlage (Hypertextbuch von R. Kuhlen, 1991b), automatisch verknüpft werden können. Voraussetzung für die Anwendung der Maße ist eine Volltextinvertierung mit linguistisch abgesicherter Stammformenreduktion. Die Ergebnisse, gewonnen aus der Bewertung der Verknüpfungsangebote entsprechend den Berechnungen nach den fünf Koeffizienten und aus dem Vergleich mit einer intellektuellen Verknüpfungsvorgabe, zeigen eine deutliche Präferenz zugunsten des Asymmetrie-Maßes, das vielleicht noch durch eine Kombination mit dem Cosinus-Maß verbessert werden könnte. Die automatisch erstellten Verknüpfungsangebote sind sowohl im Autoren-Modus zur Unterstützung des Aufbaus von Hypertextbasen sinnvoll als auch im Lese-Modus als Möglichkeit des assoziativen Navigierens in großen Hypertextbasen verwendbar.
    Imprint
    Konstanz : Universität, FG Informationswissenschaft
  7. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.02
    0.015345344 = product of:
      0.089003 = sum of:
        0.020759044 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.020759044 = score(doc=4322,freq=18.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.021606037 = weight(_text_:des in 4322) [ClassicSimilarity], result of:
          0.021606037 = score(doc=4322,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.36716178 = fieldWeight in 4322, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.021606037 = weight(_text_:des in 4322) [ClassicSimilarity], result of:
          0.021606037 = score(doc=4322,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.36716178 = fieldWeight in 4322, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.020781705 = weight(_text_:nach in 4322) [ClassicSimilarity], result of:
          0.020781705 = score(doc=4322,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.25462174 = fieldWeight in 4322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.004250179 = product of:
          0.008500358 = sum of:
            0.008500358 = weight(_text_:1 in 4322) [ClassicSimilarity], result of:
              0.008500358 = score(doc=4322,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.16284466 = fieldWeight in 4322, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4322)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  8. Gödert, W.; Oßwald, A.; Rösch, H.; Sleegers, P.: Evit@: Evaluation elektronischer Informationsmittel (2000) 0.01
    0.014293354 = product of:
      0.10362682 = sum of:
        0.0199754 = weight(_text_:und in 1881) [ClassicSimilarity], result of:
          0.0199754 = score(doc=1881,freq=6.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.42413816 = fieldWeight in 1881, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
        0.047641363 = weight(_text_:informationswissenschaft in 1881) [ClassicSimilarity], result of:
          0.047641363 = score(doc=1881,freq=2.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.49770427 = fieldWeight in 1881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
        0.018005032 = weight(_text_:des in 1881) [ClassicSimilarity], result of:
          0.018005032 = score(doc=1881,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.30596817 = fieldWeight in 1881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
        0.018005032 = weight(_text_:des in 1881) [ClassicSimilarity], result of:
          0.018005032 = score(doc=1881,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.30596817 = fieldWeight in 1881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
      0.13793103 = coord(4/29)
    
    Abstract
    Evit@ stellt ein Bewertungsinstrument bereit, mit dessen Hilfe qualitative Aussagen über elektronische Informationsmittel möglich werden. Eine Stärke des Verfahrens liegt auf der vergleichenden Produktanalyse und auf einem weitgehend entindividualisierten Ansatz
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.23
  9. Grazia Colonia; Dimmler, E.; Dresel, R.; Messner, C.; Krobath, A.; Petz, S.; Sypien, M.; Boxen, P. van; Harders, M.; Heuer, D.; Jordans, I.; Juchem, K.; Linnertz, M.; Mittelhuber, I.; Schwammel, S.; Schlögl, C.; Stock, W.G.: Informationswissenschaftliche Zeitschriften in szientometrischer Analyse (2002) 0.01
    0.013848838 = product of:
      0.10040408 = sum of:
        0.016145922 = weight(_text_:und in 1075) [ClassicSimilarity], result of:
          0.016145922 = score(doc=1075,freq=8.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.34282678 = fieldWeight in 1075, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.016328104 = product of:
          0.032656208 = sum of:
            0.032656208 = weight(_text_:bibliothekswesen in 1075) [ClassicSimilarity], result of:
              0.032656208 = score(doc=1075,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.34475547 = fieldWeight in 1075, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1075)
          0.5 = coord(1/2)
        0.05776209 = weight(_text_:informationswissenschaft in 1075) [ClassicSimilarity], result of:
          0.05776209 = score(doc=1075,freq=6.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.60343444 = fieldWeight in 1075, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.010167964 = product of:
          0.020335928 = sum of:
            0.020335928 = weight(_text_:29 in 1075) [ClassicSimilarity], result of:
              0.020335928 = score(doc=1075,freq=2.0), product of:
                0.07474871 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02124939 = queryNorm
                0.27205724 = fieldWeight in 1075, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1075)
          0.5 = coord(1/2)
      0.13793103 = coord(4/29)
    
    Abstract
    In einer szientometrischen bzw. informetrischen Studie werden internationale wie deutschsprachige Zeitschriften der Informations-/Bibliothekswissenschaft und -praxis mittels Zitationsanalyse und Expertenbefragung analysiert. Die zitatenanalytischen Kennwerte umfassen den Impact Factor, die Halbwertszeit, die Zitierfreudigkeit, die relative Häufigkeit von Zeitschriftenselbstreferenzen sowie Soziogramme der einflussreichen Periodika. Der Fragebogen erhebt die Lesehäufigkeit, die Einsetzbarkeit der gelesenen Journale im Tätigkeitsbereich, die Publikationstätigkeit und die Publikationspräferenz sowohl für alle Respondenten als auch für abgrenzbare Gruppen (Praktiker vs. Wissenschaftler, Bibliothekare vs. Dokumentare vs. Informationswissenschaftler, öffentlicher Dienst vs. Informationswirtschaft vs. andere Wirtschaftsunternehmen).
    Date
    23. 8.2002 11:51:29
    Field
    Bibliothekswesen
    Informationswissenschaft
    Imprint
    Köln : FH Köln, Fachbereich Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.33
  10. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.01
    0.013789235 = product of:
      0.07997756 = sum of:
        0.015633224 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.015633224 = score(doc=318,freq=30.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.016328104 = product of:
          0.032656208 = sum of:
            0.032656208 = weight(_text_:bibliothekswesen in 318) [ClassicSimilarity], result of:
              0.032656208 = score(doc=318,freq=8.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.34475547 = fieldWeight in 318, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=318)
          0.5 = coord(1/2)
        0.015436098 = weight(_text_:des in 318) [ClassicSimilarity], result of:
          0.015436098 = score(doc=318,freq=12.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.26231304 = fieldWeight in 318, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.015436098 = weight(_text_:des in 318) [ClassicSimilarity], result of:
          0.015436098 = score(doc=318,freq=12.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.26231304 = fieldWeight in 318, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.017144032 = weight(_text_:nach in 318) [ClassicSimilarity], result of:
          0.017144032 = score(doc=318,freq=4.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.21005222 = fieldWeight in 318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.1724138 = coord(5/29)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  11. Förderung von Informationsinfrastrukturen für die Wissenschaft : Ein Positionspapier der Deutschen Forschungsgemeinschaft (2018) 0.01
    0.013418078 = product of:
      0.07782485 = sum of:
        0.017299203 = weight(_text_:und in 4178) [ClassicSimilarity], result of:
          0.017299203 = score(doc=4178,freq=18.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.3673144 = fieldWeight in 4178, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4178)
        0.018005032 = weight(_text_:des in 4178) [ClassicSimilarity], result of:
          0.018005032 = score(doc=4178,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.30596817 = fieldWeight in 4178, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4178)
        0.018005032 = weight(_text_:des in 4178) [ClassicSimilarity], result of:
          0.018005032 = score(doc=4178,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.30596817 = fieldWeight in 4178, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4178)
        0.017318087 = weight(_text_:nach in 4178) [ClassicSimilarity], result of:
          0.017318087 = score(doc=4178,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.21218479 = fieldWeight in 4178, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4178)
        0.0071974974 = product of:
          0.014394995 = sum of:
            0.014394995 = weight(_text_:22 in 4178) [ClassicSimilarity], result of:
              0.014394995 = score(doc=4178,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.19345059 = fieldWeight in 4178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4178)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Das vorliegende Positionspapier befasst sich mit dem Förderhandeln der Deutschen Forschungsgemeinschaft (DFG) im Bereich der wissenschaftlichen Informationsinfrastrukturen. Es hat zwei Funktionen: Erstens reflektiert es - sowohl auf einer übergeordneten Ebene als auch für drei ausgewählte Themen - die strukturellen Rahmenbedingungen des DFG-Förderhandelns im Bereich der wissenschaftlichen Informationsinfrastrukturen und setzt sich mit den Anpassungsbedarfen auseinander, die sich aus der gegenwärtigen Ausgangslage ergeben. Darüber hinaus benennt es konkrete Maßnahmen als Reaktion auf die analysierten Herausforderungen und Handlungsbedarfe und bildet damit zweitens eine Leitschnur für das Förderhandeln im Bereich Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS).
    Als Selbstverwaltungsorganisation und Interessenvertretung der Wissenschaft sieht die DFG es als ihre Aufgabe an, den digitalen Wandel in den Wissenschaften aktiv mitzugestalten. Die Förderung im Bereich der Informationsinfrastrukturen erfolgt mit dem Anspruch, sich an einem von der Wissenschaft formulierten Bedarf zu orientieren, der anhaltend hohen Veränderungsdynamik gerecht zu werden, für unkonventionelle Projektideen sowie Projekte in einem explorativen Stadium offen zu sein und impulsgebend sowie struktur- und standardbildend zu wirken. Mit diesem Positionspapier reflektiert die DFG - nach 2006 und 2012 - zum dritten Mal die Folgen des digitalen Wandels für ihr Förderhandeln im Bereich der wissenschaftlichen Informationsinfrastrukturen. Erarbeitet wurde das Papier vom Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme, dem für die Förderung wissenschaftlicher Informationsinfrastrukturen fachlich zuständigen Gremium. Der AWBI ist im Rahmen seiner Zuständigkeit als Gremium des Hauptausschusses verantwortlich für die Ausgestaltung des Förderportfolios sowie einzelner Förderinitiativen im Bereich der wissenschaftlichen Informationsinfrastrukturen.
    Date
    22. 3.2018 17:30:43
  12. Bredemeier, W.; Stock, M.; Stock, W.G.: ¬Die Branche elektronischer Geschäftsinformationen in Deutschland 2000/2001 (2001) 0.01
    0.013323087 = product of:
      0.077273905 = sum of:
        0.018234963 = weight(_text_:und in 621) [ClassicSimilarity], result of:
          0.018234963 = score(doc=621,freq=20.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.3871834 = fieldWeight in 621, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=621)
        0.009002516 = weight(_text_:des in 621) [ClassicSimilarity], result of:
          0.009002516 = score(doc=621,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.15298408 = fieldWeight in 621, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=621)
        0.009002516 = weight(_text_:des in 621) [ClassicSimilarity], result of:
          0.009002516 = score(doc=621,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.15298408 = fieldWeight in 621, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=621)
        0.017318087 = weight(_text_:nach in 621) [ClassicSimilarity], result of:
          0.017318087 = score(doc=621,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.21218479 = fieldWeight in 621, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0390625 = fieldNorm(doc=621)
        0.02371582 = product of:
          0.04743164 = sum of:
            0.04743164 = weight(_text_:deutschland in 621) [ClassicSimilarity], result of:
              0.04743164 = score(doc=621,freq=6.0), product of:
                0.10263357 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02124939 = queryNorm
                0.46214548 = fieldWeight in 621, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=621)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Content
    Der deutsche Markt für Elektronische Informationsdienste im Jahre 2000 - Ergebnisse einer Umsatzerhebung - Von Willi Bredemeier: - Abgesicherte Methodologie unter Berücksichtigung der Spezifika des EIS-Marktes und der aktuellen Entwicklung - teilweise Vergleichbarkeit der Daten ab 1989 - Weitgehende quantitative Markttransparenz, da der Leser die Aggregationen der Markt- und Teilmarktdaten aus einzelwirtschaftlichen Daten voll nachvollziehen kann - 93 zum Teil ausführliche Tabellen vorwiegend zu einzelnen Informationsanbietern unter besonderer Berücksichtigung der Geschäftsjahre 2000 und 1999, unterteilt in die Bereiche Gesamtmarkt für Elektronische Informationsdienste, Datev, Realtime-Finanzinformationen, Nachrichtenagenturen, Kreditinformationen, Firmen- und Produktinformationen, weitere Wirtschaftsinformationen, Rechtsinformationen, Wissenschaftlich-technisch-medizinische Informationen - Intellectual Property, Konsumentendienste, Nachbarmärkte - Analyse aktueller Markttrends. Qualität professioneller Firmeninformationen im World Wide Web - Von Mechtild Stock und Wolfgang G. Stock: - Weiterführung der Qualitätsdiskussion und Entwicklung eines Systems von Qualitätskriterien für Informationsangebote, bezogen auf Firmeninformationen im Internet - "Qualitätspanel" für die Bereiche Bonitätsinformationen, Firmenkurzdossiers, Produktinformationen und Adressinformationen mit den Anbietern Bürgel, Creditreform, Dun & Bradstreet Deutschland, ABC online, ALLECO, Hoppenstedt Firmendatenbank, Who is Who in Multimedia, Kompass Deutschland, Sachon Industriedaten, Wer liefert was?, AZ Bertelsmann, Schober.com - Hochdifferenzierte Tests, die den Kunden Hilfen bei der Auswahl zwischen Angeboten und den Anbietern Hinweise auf Maßnahmen zu qualitativen Verbesserungen geben - Detaillierte Informationen über eingesetzte Systeme der Branchen- und Produktklassifikationen - Rankings der Firmeninformationsanbieter insgesamt sowie nach Datenbasen, Retrievalsystemen und Websites, Detailinformationen zu allen Qualitätsdimensionen
  13. Kaizik, A.; Gödert, W.; Oßwald, A.: Evaluation von Subject Gateways des Internet (EJECT) : Projektbericht (2001) 0.01
    0.013131742 = product of:
      0.095205136 = sum of:
        0.018307757 = weight(_text_:und in 1476) [ClassicSimilarity], result of:
          0.018307757 = score(doc=1476,freq=14.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.38872904 = fieldWeight in 1476, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
        0.028584816 = weight(_text_:informationswissenschaft in 1476) [ClassicSimilarity], result of:
          0.028584816 = score(doc=1476,freq=2.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.29862255 = fieldWeight in 1476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
        0.024156282 = weight(_text_:des in 1476) [ClassicSimilarity], result of:
          0.024156282 = score(doc=1476,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.41049933 = fieldWeight in 1476, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
        0.024156282 = weight(_text_:des in 1476) [ClassicSimilarity], result of:
          0.024156282 = score(doc=1476,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.41049933 = fieldWeight in 1476, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
      0.13793103 = coord(4/29)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu errei-chen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele:· Durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; Einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen;· Diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden in dieser Studie ausführlich vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist.
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.30
  14. Enzyklopädie im Wandel : Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot (2002) 0.01
    0.012237253 = product of:
      0.07097606 = sum of:
        0.015526511 = weight(_text_:und in 1882) [ClassicSimilarity], result of:
          0.015526511 = score(doc=1882,freq=58.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.32967478 = fieldWeight in 1882, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
        0.023820681 = weight(_text_:informationswissenschaft in 1882) [ClassicSimilarity], result of:
          0.023820681 = score(doc=1882,freq=8.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.24885213 = fieldWeight in 1882, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
        0.0149289835 = weight(_text_:des in 1882) [ClassicSimilarity], result of:
          0.0149289835 = score(doc=1882,freq=22.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.2536954 = fieldWeight in 1882, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
        0.0149289835 = weight(_text_:des in 1882) [ClassicSimilarity], result of:
          0.0149289835 = score(doc=1882,freq=22.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.2536954 = fieldWeight in 1882, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
        0.0017709078 = product of:
          0.0035418156 = sum of:
            0.0035418156 = weight(_text_:1 in 1882) [ClassicSimilarity], result of:
              0.0035418156 = score(doc=1882,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.06785194 = fieldWeight in 1882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1882)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    "Enzyklopädie im Wandel: Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot?" lautete das Thema der Auftaktveranstaltung, die am 12. Dezember 2001 im Rahmen des Diskussionsforums "Kölner Dialog Informationswissenschaft" an der Fachhochschule Köln stattfand. Enzyklopädien sind stets dem Zeitgeist verpflichtet und im Wandel begriffen. Sie passen sich in ihrer Konzeption den zu erwartenden Bedürfnissen der Benutzer und den produktionstechnischen Möglichkeiten an. Gegenwärtig ist ein Nebeneinander von gedruckten und digitalen Enzyklopädien zu beobachten. Während gedruckte Enzyklopädien die Breite des Wissens zweidimensional erfahrbar machen und für den raschen Zugriff oft weiterhin bevorzugt werden, bieten Enzyklopädien in digitaler Form neben neuen Retrievaltechniken durch multimediale Synergien einen erheblich verbesserten Zugang zu den erläuterten Phänomenen. Die Autoren dieses Bandes setzen sich mit den Ansprüchen auseinander, die an die Konzeption von Enzyklopädien zu Beginn des 21. Jahrhunderts gestellt werden. Die einzelnen Beiträge vermitteln einen Einblick in Entstehung, Umfang und Funktionalitäten der auf der Buchmesse 2001 vorgestellten Neuausgaben der renommierten Nachschlagewerke "Brockhaus multimedial" und "Microsoft Encarta". Abschließend werden die Fragenkomplexe "Beitrag der Enzyklopädie zum Wissenserwerb heute" sowie "Entwicklungsperspektiven und Trägermedien von Enzyklopädien" thematisiert.
    Content
    Enthält die Beiträge: VOLPERS, H.: Idee und Begriff der Enzyklopädie im Wandel der Zeit; ANGER, E.: Brockhaus multimedial 2002 auf CD-ROM und DVD-ROM; HILTL, M.: Die Encarta Enzyklopädie Proefessional 2002 von Microsoft; HÄRKÖNEN, S.: Enzyklopädie im Wandel (Podiumsdiskussion)
    Footnote
    Rez. in: B.I.T. online 5(2002) H.3, S.281 (R. Fuhlrott) - Medienwissenschaft. 2003, H.1, S.72-74 (M. Hollender): "Der Sammelband gibt die Beiträge einer gleichnamigen Veranstaltung an der Fachhochschule Köln am 12. Dezember 2001 wieder. - Über enzyklopädisches Wissen verfügen zu wollen, sei in den letzten Jahren, so Helmut Volpers in seiner Einführung, durch den ,Verfall bildungsbürgerlicher Ideale" stark rückläufig gewesen; derzeit aber erlebe die Wertschätzung einer hohen Allgemeinbildung wieder einmal eine - popularisierte und medientaugliche - Renaissance: Die Verfügbarkeit über Faktenwissen eröffne die Chance, in der Flut der Fernsehrateshows zum Millionär zu avancieren. Volpers Beitrag über "Idee und Begriff der Enzyklopädie im Wandel der Zeit" widmet sich ausführlich vor allem Werken von Diderot und D'Alembert, dem Zedler und den frühen Brockhaus-Ausgaben. Sein Text liefert indes keine neuen Erkenntnisse und ist vor allem für Examenskandidaten hilfreich. Der Aufsatz von Volpers erfüllt aber wiederum als einziger der drei Beiträge die Ansprüche, die man an eine wissenschaftliche Veröffentlichung gemeinhin stellt. Die nachfolgenden Texte nämlich, die die Enzyklopädien von Brockhaus und Encarta in der CD-ROM-/DVD-Version präsentieren, stammen nicht von kommerziell unabhängig und wertneutral arbeitenden Verfassern, sondern vom Managing Editor New Media des Brockhaus-Verlages (Eberhard Anger) bzw. vom Chefredakteur der deutschsprachigen Encarta-Redaktion (Michael Hiltl). Demzufolge lesen sich die Beiträge wie eine Presseerklärung der Konzerne bzw. wie eine besonders kundenfreundlich formulierte Bedienungsanleitung für Fortgeschrittene. Von den Veranstaltern hätte man sich als Gegenpart auch eine kritische Stimme gewünscht; die Selbstanpreisungen der Firmenvertreter wie auch die Tendenz der Aussagen verstimmt den Leser, der eine abgewogene Darstellung erwartet hatte, zusehends. Dies beginnt bei der pauschalen Behauptung, der Brockhaus habe die NS-Ära aufgrund seiner Distanz zum Regime unbeschadet überstanden (die Darstellung von Senya Müller: Sprachwörterbücher im Nationalsozialismus: die ideologische Beeinflussung von Duden, Sprach-Brockhaus und anderen Nachschlagewerken während des "Dritten Reichs", Stuttgart 1994, beweist hinsichtlich des Sprach-Brockhauses das Gegenteil) und endet bei der Forderung, Internetinformationen müssten zukünftig mehr und mehr kostenpflichtig werden. Das merkantile Interesse von Anger und Hiltl ist freilich verständlich: Lexikonverlage stehen unter enormem Existenz- und Legitimationsdruck, um den Wettbewerb gegen sekundenschnell via Suchmaschinen kostenfrei erhältliche Informationen nicht zu verlieren. Und tatsächlich haben die internationalen Lexikonverlage in den letzten Jahren enorm aufgerüstet - die Unterschiede zwischen der großväterlich biederen Schrankwandausgabe des Brockhaus' und der Multimediaausgabe sind derart frappierend, dass selbst die unkritische Eigenwerbung der Verlagsrepräsentanten noch zu begeistern vermag (und umso mehr wünscht man sich eine relativierende Gegenstimme!). Die Hymnen der Lexikonverkäufer auf ihre Produkte sollen an dieser Stelle nicht wiederholt werden, wer sich indes mit dem Gedanken trägt, eine moderne Enzyklopädie zu erwerben, dem seien die Referate von Anger und Hiltl als Einstiegslektüre nur zu empfehlen. Wer hätte geahnt, dass die CD-ROMs des Brockhaus 2002 als Dreingabe auch den zweibändigen Brockhaus des Jahres 1906 einschließen! Zumindest soviel ist den Verlagsvertretern und den Kölner Tagungsveranstaltern gelungen: Sie wecken das Interesse an elektronischen lexikalischen Produkten. Kritische Stimmen muss man sich eben an anderer Stelle suchen.
    In regelmäßigen, sehr engen Abständen sind aus dem Netz Aktualisierungen der Enzyklopädien herunterladbar, die die veralteten Einträge automatisch überschreiben. Ungeklärt bleiben in diesem Zusammenhang leider zwei Fragen: Wie soll zukünftig aus derlei Werken wissenschaftlich seriös unter Angabe der Quelle zitiert werden? Aus konventionellen Lexika wird zwar selten zitiert, der Multimedia-Brockhaus umfasst hingegen ein Textvolumen, das mehr als viermal so groß ist wie das der Printausgabe, wodurch es als Quelle also eher infrage kommt. Unbeantwortet bleibt leider auch die wissenschaftshistorische Frage, ob die Entwicklungsstufen des sich täglich wandelnden und aktualisierenden Lexikons auf einem Brockhaus- bzw. Encarta-Archivserver dauerhaft gespeichert werden. Wissenschaftsgeschichte ist zwingend darauf angewiesen, nachweisen zu können, welcher Wissensstand zu welchem Zeitpunkt welchen Bevölkerungsgruppen als Gemeingut bekannt war; die Virtualität der Enzyklopädie als non-book-material macht derlei Studien womöglich bald unmöglich. Der Tagungsband wird unter http://www.fbi.fh-koeln.de/fachbereich/papers/ kabi/index.cfm auch im Netz vorgehalten. Sollten sämtliche Bände der Schriftenreihe Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft über eine derart billige Klebebindung verfügen wie das mir vorliegende Exemplar, gehört die Zukunft wieder ein Stückweit mehr der Netzpublikation: Der Selbstatomisierung des Heftes in drei Dutzend lose Blätter lässt sich so entgehen."
    Imprint
    Köln : FH Köln, Fachbereich Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.32
  15. Forschen für die Internet-Gesellschaft : Trends, Technologien, Anwendungen, Trends und Handlungsempfehlungen 2008 des Feldafinger Kreises (2008) 0.01
    0.012129185 = product of:
      0.07034927 = sum of:
        0.018452484 = weight(_text_:und in 2337) [ClassicSimilarity], result of:
          0.018452484 = score(doc=2337,freq=32.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.39180204 = fieldWeight in 2337, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2337)
        0.019054733 = weight(_text_:des in 2337) [ClassicSimilarity], result of:
          0.019054733 = score(doc=2337,freq=14.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.32380626 = fieldWeight in 2337, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2337)
        0.019054733 = weight(_text_:des in 2337) [ClassicSimilarity], result of:
          0.019054733 = score(doc=2337,freq=14.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.32380626 = fieldWeight in 2337, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2337)
        0.0028334525 = product of:
          0.005666905 = sum of:
            0.005666905 = weight(_text_:1 in 2337) [ClassicSimilarity], result of:
              0.005666905 = score(doc=2337,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.1085631 = fieldWeight in 2337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2337)
          0.5 = coord(1/2)
        0.010953867 = product of:
          0.021907734 = sum of:
            0.021907734 = weight(_text_:deutschland in 2337) [ClassicSimilarity], result of:
              0.021907734 = score(doc=2337,freq=2.0), product of:
                0.10263357 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02124939 = queryNorm
                0.21345583 = fieldWeight in 2337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2337)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Ausgangslage: Im April 2000 haben führende Repräsentanten der deutschen Wissenschaftsorganisationen und der Bundesverband der Deutschen Industrie (BDI) beschlossen, gemeinsame Strategien zur Stärkung des Standorts Deutschland im globalen Innovationswettbewerb zu entwickeln. Weil entscheidende Impulse für Innovationen von der Zusammenarbeit zwischen öffentlicher Forschung und privaten Unternehmen ausgehen, muss dieser Prozess durch mehr Autonomie und Wettbewerb von Hochschulen und Forschungsinstituten und durch intensive Kommunikation und Kooperation weiter verbessert werden. Ziel sollte sein, die Partner aus unterschiedlichen wissenschaftlichen Disziplinen und aus allen Branchen der Wirtschaft noch besser ins Gespräch zu bringen, um Defizite bei der Umsetzung von Forschungsergebnissen in innovative Produkte, Dienste und Verfahren abzubauen. Um den Dialog zwischen Wissenschaft und Gesellschaft zu intensivieren, haben die Spitzenorganisationen von Wissenschaft und Industrie gemeinsame Symposien auf den Gebieten "Energie", "Lebenswissenschaften" und "Internet-Gesellschaft" beschlossen. Von diesen Symposien sollen Impulse für die Ermittlung des künftigen Forschungsbedarfs und entsprechende Handlungsempfehlungen für diese Gebiete höchster volkswirtschaftlicher Relevanz ausgehen. Stellvertretend für die Wissenschaftsorganisationen hat die Fraunhofer-Gesellschaft gemeinsam mit dem BDI die Ausrichtung des Symposiums zur Internet-Gesellschaft organisiert und finanziell unterstützt.
    Content
    Die Trendaussagen des Feldafinger Kreises von 2008 1. Das Future Internet wird die globale, zuverlässige Plattform für alle Dienste. 2. Peer-to-Peer Networking ermöglicht den Informationsaustausch ohne zentrale Instanz. 3. Software wird zum Bestandteil fast aller Produkte. 4. Sicherheit wird zu einer Grundvoraussetzung für die Akzeptanz von Diensten. 5. Semantische Technologien verwandeln Informationen zu Wissen. 6. Konsequentes Wissensmanagement ist die Basis des Erfolgs von Unternehmen. 7. Intelligente Software-Agenten übernehmen Routineaufgaben. 8. Service Grids bilden das Internet der Dienste. 9. IKT sorgt für Energieeffi zienz und Versorgungssicherheit. 10. Selbstorganisation reduziert die Komplexität und erhöht die Zuverlässigkeit. 11. e-Processes erhöhen die Wettbewerbsfähigkeit durch internetbasierte Geschäftsprozesse. 12. Das Internet der Dinge sorgt für den Informationsaustausch zwischen Gegenständen. 13. Neue Fahrerassistenzsysteme ermöglichen pro-aktive Sicherheit. 14. Vernetzte, digitale Umgebungen unterstützen den Menschen in allen Lebenslagen. 15. Intuitive Bedienparadigmen werden die Nutzung des Internets für alle erleichtern.
  16. Binder, G.; Stahl, M.; Faulborn, L.: Vergleichsuntersuchung MESSENGER-FULCRUM (2000) 0.01
    0.011986801 = product of:
      0.069523446 = sum of:
        0.011416892 = weight(_text_:und in 4885) [ClassicSimilarity], result of:
          0.011416892 = score(doc=4885,freq=4.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.24241515 = fieldWeight in 4885, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4885)
        0.012603521 = weight(_text_:des in 4885) [ClassicSimilarity], result of:
          0.012603521 = score(doc=4885,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.2141777 = fieldWeight in 4885, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4885)
        0.012603521 = weight(_text_:des in 4885) [ClassicSimilarity], result of:
          0.012603521 = score(doc=4885,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.2141777 = fieldWeight in 4885, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4885)
        0.024245322 = weight(_text_:nach in 4885) [ClassicSimilarity], result of:
          0.024245322 = score(doc=4885,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.2970587 = fieldWeight in 4885, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4885)
        0.008654194 = product of:
          0.025962582 = sum of:
            0.025962582 = weight(_text_:l in 4885) [ClassicSimilarity], result of:
              0.025962582 = score(doc=4885,freq=2.0), product of:
                0.08445894 = queryWeight, product of:
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.02124939 = queryNorm
                0.30739886 = fieldWeight in 4885, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4885)
          0.33333334 = coord(1/3)
      0.1724138 = coord(5/29)
    
    Abstract
    In einem Benutzertest, der im Rahmen der Projektes GIRT stattfand, wurde die Leistungsfähigkeit zweier Retrievalsprachen für die Datenbankrecherche überprüft. Die Ergebnisse werden in diesem Bericht dargestellt: Das System FULCRUM beruht auf automatischer Indexierung und liefert ein nach statistischer Relevanz sortiertes Suchergebnis. Die Standardfreitextsuche des Systems MESSENGER wurde um die intellektuell vom IZ vergebenen Deskriptoren ergänzt. Die Ergebnisse zeigen, dass in FULCRUM das Boole'sche Exakt-Match-Retrieval dem Verktos-Space-Modell (Best-Match-Verfahren) von den Versuchspersonen vorgezogen wurde. Die in MESSENGER realisierte Mischform aus intellektueller und automatischer Indexierung erwies sich gegenüber dem quantitativ-statistischen Ansatz beim Recall als überlegen
  17. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.01
    0.011950079 = product of:
      0.11551743 = sum of:
        0.020630505 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.020630505 = score(doc=1484,freq=10.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.009890507 = product of:
          0.02967152 = sum of:
            0.02967152 = weight(_text_:l in 1484) [ClassicSimilarity], result of:
              0.02967152 = score(doc=1484,freq=2.0), product of:
                0.08445894 = queryWeight, product of:
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.02124939 = queryNorm
                0.35131297 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.33333334 = coord(1/3)
        0.08499642 = sum of:
          0.06196443 = weight(_text_:deutschland in 1484) [ClassicSimilarity], result of:
            0.06196443 = score(doc=1484,freq=4.0), product of:
              0.10263357 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.02124939 = queryNorm
              0.60374427 = fieldWeight in 1484, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.0625 = fieldNorm(doc=1484)
          0.023031991 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
            0.023031991 = score(doc=1484,freq=2.0), product of:
              0.07441174 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02124939 = queryNorm
              0.30952093 = fieldWeight in 1484, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1484)
      0.10344828 = coord(3/29)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22
  18. Schönfelder, N.: Mittelbedarf für Open Access an ausgewählten deutschen Universitäten und Forschungseinrichtungen : Transformationsrechnung (2019) 0.01
    0.0119108455 = product of:
      0.0690829 = sum of:
        0.012894064 = weight(_text_:und in 5427) [ClassicSimilarity], result of:
          0.012894064 = score(doc=5427,freq=10.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.27378 = fieldWeight in 5427, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5427)
        0.009002516 = weight(_text_:des in 5427) [ClassicSimilarity], result of:
          0.009002516 = score(doc=5427,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.15298408 = fieldWeight in 5427, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5427)
        0.009002516 = weight(_text_:des in 5427) [ClassicSimilarity], result of:
          0.009002516 = score(doc=5427,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.15298408 = fieldWeight in 5427, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5427)
        0.024491474 = weight(_text_:nach in 5427) [ClassicSimilarity], result of:
          0.024491474 = score(doc=5427,freq=4.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.3000746 = fieldWeight in 5427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5427)
        0.013692333 = product of:
          0.027384667 = sum of:
            0.027384667 = weight(_text_:deutschland in 5427) [ClassicSimilarity], result of:
              0.027384667 = score(doc=5427,freq=2.0), product of:
                0.10263357 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02124939 = queryNorm
                0.26681978 = fieldWeight in 5427, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5427)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Die Transformation subskriptionsbasierter, wissenschaftlicher Fachzeitschriften in den Open Access wird Änderungen in der finanziellen Belastung wissenschaftlicher Einrichtungen in Deutschland nach sich ziehen. Artikelbearbeitungsgebühren (APCs) sind im Bereich der international sichtbaren und in einschlägigen bibliographischen Datenbanken indexierten Open-Access-Zeitschriften das derzeit dominierende Geschäftsmodell. Wenn sich dieses Geschäftsmodell (APC) auch bei zurzeit hybriden Zeitschriften durchsetzen, kommt es zu einer Umverteilung von Ausgaben für Fachzeitschriften. Einrichtungen mit wenigen Publikationen werden voraussichtlich finanziell entlastet, Einrichtungen mit vielen Publikationen zusätzlich belastet. Um auf die Open-Access- Transformation adäquat im eigenen Hause zu reagieren und diese aktiv mitzugestalten, sind gesicherte Abschätzungen zu finanziellen Ent- bzw. Belastungen im Hinblick auf die zu erwartenden institutionellen APC-Gesamtausgaben der einzelnen Einrichtungen nach einer umfassenden Transformation von Zeitschriften in den Open Access unverzichtbar. An dieser Stelle setzt der vorliegende Bericht an.
    Für fünf deutsche Universitäten sowie ein Forschungsinstitut werden auf Basis der Publikationsdaten des Web of Science Abschätzungen zu den Gesamtausgaben für APCs erstellt und mit den derzeitigen Subskriptionsausgaben verglichen. Der Bericht zeigt, dass die Kostenübernahme auf Basis der projizierten Ausgaben für Publikationen aus nicht-Drittmittel-geförderter Forschung für alle hier betrachteten Einrichtungen ohne Probleme aus den derzeitigen bibliothekarischen Erwerbungsetats für Zeitschriften bestritten werden könnte. Dies setzt jedoch voraus, dass Drittmittelgeber neben der üblichen Forschungsförderung auch für die APCs der aus diesen Projekten resultierenden Publikationen aufkommen. Trifft dies nicht zu und die wissenschaftliche Einrichtung muss für sämtliche Publikationen die APCs selbst tragen, so hängen die budgetären Auswirkungen wesentlich von der zukünftigen Entwicklung der Artikelbearbeitungsgebühren ab.
  19. Sachse, E.; Liebig, M.; Gödert, W.: Automatische Indexierung unter Einbeziehung semantischer Relationen : Ergebnisse des Retrievaltests zum MILOS II-Projekt (1998) 0.01
    0.011743864 = product of:
      0.085143015 = sum of:
        0.016145922 = weight(_text_:und in 3577) [ClassicSimilarity], result of:
          0.016145922 = score(doc=3577,freq=8.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.34282678 = fieldWeight in 3577, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3577)
        0.033348955 = weight(_text_:informationswissenschaft in 3577) [ClassicSimilarity], result of:
          0.033348955 = score(doc=3577,freq=2.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.348393 = fieldWeight in 3577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3577)
        0.01782407 = weight(_text_:des in 3577) [ClassicSimilarity], result of:
          0.01782407 = score(doc=3577,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.302893 = fieldWeight in 3577, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3577)
        0.01782407 = weight(_text_:des in 3577) [ClassicSimilarity], result of:
          0.01782407 = score(doc=3577,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.302893 = fieldWeight in 3577, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3577)
      0.13793103 = coord(4/29)
    
    Abstract
    Im Rahmen von MILOS II wurde das erste MILOS-Projekt zur automatischen Indexierung von Titeldaten um eine semantischer Komponente erweitert, indem Thesaurusrelationen der Schlagwortnormdatei eingebunden wurden. Der abschließend zur Evaluierung durchgeführte Retrievaltest und seine Ergebnisse stehen im Mittelpunkt dieses Texts. Zusätzlich wird ein Überblick über bereits durchgeführte Retrievaltests (vorwiegend des anglo-amerikanischen Raums) gegeben und es wird erläutert, welche grundlegenden Fragestellungen bei der praktischen Durchführung eines Retrievaltests zu beachten sind
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.14
  20. Wehling, E.: Framing-Manual : Unser gemeinsamer freier Rundfunk ARD (2019) 0.01
    0.011587105 = product of:
      0.08400651 = sum of:
        0.02377548 = weight(_text_:und in 4997) [ClassicSimilarity], result of:
          0.02377548 = score(doc=4997,freq=34.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.50482535 = fieldWeight in 4997, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.026516767 = weight(_text_:geschichte in 4997) [ClassicSimilarity], result of:
          0.026516767 = score(doc=4997,freq=2.0), product of:
            0.100994095 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02124939 = queryNorm
            0.2625576 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.026516767 = weight(_text_:geschichte in 4997) [ClassicSimilarity], result of:
          0.026516767 = score(doc=4997,freq=2.0), product of:
            0.100994095 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02124939 = queryNorm
            0.2625576 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.0071974974 = product of:
          0.014394995 = sum of:
            0.014394995 = weight(_text_:22 in 4997) [ClassicSimilarity], result of:
              0.014394995 = score(doc=4997,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.19345059 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.5 = coord(1/2)
      0.13793103 = coord(4/29)
    
    Abstract
    Die ARD hat ein Gutachten in Auftrag gegeben, um die eigene Kommunikation zu verbessern. Das Gutachten wurde bisher nicht veröffentlicht, ist aber bereits Teil einer öffentlichen Debatte. Wir veröffentlichen das Gutachten, damit sich alle Beitragszahlende aus der Originalquelle informieren können und an der Debatte informierter teilhaben können. [Quelle: https://netzpolitik.org/2019/wir-veroeffentlichen-das-framing-gutachten-der-ard/].
    Content
    Vgl. auch den Kommentar in Open Password , Nr.157 vom 22.02.2019: "Vor wenigen Tagen wurde das "Framing-Manual" der Linguistin Elisabeth Wehling bekannt, das sie für 120.000 Euro für die ARD erarbeitet hat und fortlaufend in Workshops für Mitarbeiter eingesetzt wird. Da aus Frau Wehlings Sicht "objektives, faktenbegründetes und rationales Denken" nicht möglich ist, kann es im öffentlichen Streit der Meinungen nur mehr darum gehen, die eigenen Sprachregelungen durchzusetzen und die Rezipienten über Emotionalisierungen und implizite moralische Bewertungen über den Tisch zu ziehen. So sollten Bürger, die den Zwangsbeitrag für Rundfunk und Fernsehen nicht zahlen wollen, als "demokratieferne, wortbrüchige und illoyale Beitragshinterzieher" gebrandmarkt werden und sind "unserem gemeinsamen freien Rundfunk ARD" die "medienkapitalistischen Heuschrecken" entgegenzustellen. Derweil berichtet Meedia von einem zweiten Fall Relotius, einem freien Journalisten, der für die Süddeutsche Zeitung, die Zeit und den Spiegel geschrieben hat und soeben mit einer frei erfundenen Geschichte von der SZ überführt wurde. Das "Framing-Manual" erscheint mir als ein noch größerer Skandal als der Fall Claas Relotius mit seinen vielen erfundenen Geschichten im Spiegel und praktisch der gesamten weiteren "Qualitätspresse", weil die Spitzen der ARD und mit ihnen die nachgeordneten Strukturen das Manual von Frau Wehling willkommen geheißen haben und weiterhin zur Indoktrination ihrer Mitarbeiter verwenden. Fake News und die damit verbundene Kriegserklärung an Wahrheit und Wissenschaft kommen nicht von Donald Trump, sie werden selbst generiert und breiten sich ungehindert mit Wissen und Willen der Verantwortlichen in unserem "Qualitätsfernsehen" aus." (W. Bredemeier)
    Date
    22. 2.2019 9:26:20

Authors

Languages

  • d 111
  • e 76

Types