Search (226 results, page 1 of 12)

  • × type_ss:"r"
  1. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.05
    0.047345333 = product of:
      0.14203599 = sum of:
        0.026690327 = weight(_text_:und in 1837) [ClassicSimilarity], result of:
          0.026690327 = score(doc=1837,freq=16.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.41556883 = fieldWeight in 1837, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.01908586 = product of:
          0.03817172 = sum of:
            0.03817172 = weight(_text_:bibliothekswesen in 1837) [ClassicSimilarity], result of:
              0.03817172 = score(doc=1837,freq=2.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.2955047 = fieldWeight in 1837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1837)
          0.5 = coord(1/2)
        0.05512812 = weight(_text_:informationswissenschaft in 1837) [ClassicSimilarity], result of:
          0.05512812 = score(doc=1837,freq=4.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.42231607 = fieldWeight in 1837, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.03817172 = weight(_text_:bibliothekswesen in 1837) [ClassicSimilarity], result of:
          0.03817172 = score(doc=1837,freq=2.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.2955047 = fieldWeight in 1837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.002959963 = product of:
          0.005919926 = sum of:
            0.005919926 = weight(_text_:information in 1837) [ClassicSimilarity], result of:
              0.005919926 = score(doc=1837,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.116372846 = fieldWeight in 1837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1837)
          0.5 = coord(1/2)
      0.33333334 = coord(5/15)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Footnote
    Überarb. Version der Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : Fachhochschule, Fakultät für Informations- und Kommunikationswissenschaften, Institut für Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd. 54
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Grazia Colonia; Dimmler, E.; Dresel, R.; Messner, C.; Krobath, A.; Petz, S.; Sypien, M.; Boxen, P. van; Harders, M.; Heuer, D.; Jordans, I.; Juchem, K.; Linnertz, M.; Mittelhuber, I.; Schwammel, S.; Schlögl, C.; Stock, W.G.: Informationswissenschaftliche Zeitschriften in szientometrischer Analyse (2002) 0.04
    0.044690613 = product of:
      0.16758978 = sum of:
        0.022018395 = weight(_text_:und in 1075) [ClassicSimilarity], result of:
          0.022018395 = score(doc=1075,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.34282678 = fieldWeight in 1075, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.022266837 = product of:
          0.044533674 = sum of:
            0.044533674 = weight(_text_:bibliothekswesen in 1075) [ClassicSimilarity], result of:
              0.044533674 = score(doc=1075,freq=2.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.34475547 = fieldWeight in 1075, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1075)
          0.5 = coord(1/2)
        0.078770876 = weight(_text_:informationswissenschaft in 1075) [ClassicSimilarity], result of:
          0.078770876 = score(doc=1075,freq=6.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.60343444 = fieldWeight in 1075, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.044533674 = weight(_text_:bibliothekswesen in 1075) [ClassicSimilarity], result of:
          0.044533674 = score(doc=1075,freq=2.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.34475547 = fieldWeight in 1075, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
      0.26666668 = coord(4/15)
    
    Abstract
    In einer szientometrischen bzw. informetrischen Studie werden internationale wie deutschsprachige Zeitschriften der Informations-/Bibliothekswissenschaft und -praxis mittels Zitationsanalyse und Expertenbefragung analysiert. Die zitatenanalytischen Kennwerte umfassen den Impact Factor, die Halbwertszeit, die Zitierfreudigkeit, die relative Häufigkeit von Zeitschriftenselbstreferenzen sowie Soziogramme der einflussreichen Periodika. Der Fragebogen erhebt die Lesehäufigkeit, die Einsetzbarkeit der gelesenen Journale im Tätigkeitsbereich, die Publikationstätigkeit und die Publikationspräferenz sowohl für alle Respondenten als auch für abgrenzbare Gruppen (Praktiker vs. Wissenschaftler, Bibliothekare vs. Dokumentare vs. Informationswissenschaftler, öffentlicher Dienst vs. Informationswirtschaft vs. andere Wirtschaftsunternehmen).
    Field
    Bibliothekswesen
    Informationswissenschaft
    Imprint
    Köln : FH Köln, Fachbereich Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.33
  3. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.03
    0.032263637 = product of:
      0.0967909 = sum of:
        0.019893795 = weight(_text_:und in 1076) [ClassicSimilarity], result of:
          0.019893795 = score(doc=1076,freq=20.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.3097467 = fieldWeight in 1076, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.012723906 = product of:
          0.025447812 = sum of:
            0.025447812 = weight(_text_:bibliothekswesen in 1076) [ClassicSimilarity], result of:
              0.025447812 = score(doc=1076,freq=2.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.19700313 = fieldWeight in 1076, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1076)
          0.5 = coord(1/2)
        0.036752082 = weight(_text_:informationswissenschaft in 1076) [ClassicSimilarity], result of:
          0.036752082 = score(doc=1076,freq=4.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.28154406 = fieldWeight in 1076, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.025447812 = weight(_text_:bibliothekswesen in 1076) [ClassicSimilarity], result of:
          0.025447812 = score(doc=1076,freq=2.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.19700313 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.0019733086 = product of:
          0.0039466172 = sum of:
            0.0039466172 = weight(_text_:information in 1076) [ClassicSimilarity], result of:
              0.0039466172 = score(doc=1076,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.0775819 = fieldWeight in 1076, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1076)
          0.5 = coord(1/2)
      0.33333334 = coord(5/15)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
    Footnote
    Zugleich Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : FH Köln, Fachbereich Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.34
  4. Gorbacevskaja, N.; Novikiva, E.: Entwicklung der Katalogisierung in der UDSSR (1960) 0.02
    0.02035825 = product of:
      0.15268686 = sum of:
        0.050895624 = product of:
          0.10179125 = sum of:
            0.10179125 = weight(_text_:bibliothekswesen in 3493) [ClassicSimilarity], result of:
              0.10179125 = score(doc=3493,freq=2.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.7880125 = fieldWeight in 3493, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.125 = fieldNorm(doc=3493)
          0.5 = coord(1/2)
        0.10179125 = weight(_text_:bibliothekswesen in 3493) [ClassicSimilarity], result of:
          0.10179125 = score(doc=3493,freq=2.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.7880125 = fieldWeight in 3493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.125 = fieldNorm(doc=3493)
      0.13333334 = coord(2/15)
    
    Series
    Sowjetische Beiträge zum Bibliothekswesen der UDSSR in deutscher Übersetzung. 1
  5. Koch, W.; Stock, K.F.: Analyse bestehender Datenformate im Bibliothekswesen (1971) 0.02
    0.018827397 = product of:
      0.09413698 = sum of:
        0.017793551 = weight(_text_:und in 4280) [ClassicSimilarity], result of:
          0.017793551 = score(doc=4280,freq=4.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.27704588 = fieldWeight in 4280, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4280)
        0.025447812 = product of:
          0.050895624 = sum of:
            0.050895624 = weight(_text_:bibliothekswesen in 4280) [ClassicSimilarity], result of:
              0.050895624 = score(doc=4280,freq=2.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.39400625 = fieldWeight in 4280, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4280)
          0.5 = coord(1/2)
        0.050895624 = weight(_text_:bibliothekswesen in 4280) [ClassicSimilarity], result of:
          0.050895624 = score(doc=4280,freq=2.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.39400625 = fieldWeight in 4280, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0625 = fieldNorm(doc=4280)
      0.2 = coord(3/15)
    
    Abstract
    Diese Arbeit stellt das Ergebnis eines Forschungsauftrages dar, den das Bundesministerium für Wissenschaft und Forschung dem Rechenzentrum Graz erteilt hat. Ausgewertet und verglichen wurden: MARCII, BNB-MARC, MONOCLE (franz. MARC), DB-Schema, DFG-Schema, Bielefelder Kategorienschema, Regensburger Kategorienschema, BRD-DMI (Datenerhebungskatalog BMI). In Kurzform werden auch etliche andere Schemata aufgelistet, die heute nicht mehr akzuell sind - bis auf das ZDB-Schema
  6. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.02
    0.017623946 = product of:
      0.08811973 = sum of:
        0.021319222 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.021319222 = score(doc=318,freq=30.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.022266837 = product of:
          0.044533674 = sum of:
            0.044533674 = weight(_text_:bibliothekswesen in 318) [ClassicSimilarity], result of:
              0.044533674 = score(doc=318,freq=8.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.34475547 = fieldWeight in 318, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=318)
          0.5 = coord(1/2)
        0.044533674 = weight(_text_:bibliothekswesen in 318) [ClassicSimilarity], result of:
          0.044533674 = score(doc=318,freq=8.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.34475547 = fieldWeight in 318, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.2 = coord(3/15)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  7. Stock, W.G.: Universaldienste (1997) 0.02
    0.016279398 = product of:
      0.12209548 = sum of:
        0.031138714 = weight(_text_:und in 4442) [ClassicSimilarity], result of:
          0.031138714 = score(doc=4442,freq=4.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.4848303 = fieldWeight in 4442, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4442)
        0.09095676 = weight(_text_:informationswissenschaft in 4442) [ClassicSimilarity], result of:
          0.09095676 = score(doc=4442,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.696786 = fieldWeight in 4442, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.109375 = fieldNorm(doc=4442)
      0.13333334 = coord(2/15)
    
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.4
  8. Kaizik, A.; Gödert, W.; Oßwald, A.: Evaluation von Subject Gateways des Internet (EJECT) : Projektbericht (2001) 0.01
    0.013381588 = product of:
      0.06690794 = sum of:
        0.024966514 = weight(_text_:und in 1476) [ClassicSimilarity], result of:
          0.024966514 = score(doc=1476,freq=14.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.38872904 = fieldWeight in 1476, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
        0.038981467 = weight(_text_:informationswissenschaft in 1476) [ClassicSimilarity], result of:
          0.038981467 = score(doc=1476,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.29862255 = fieldWeight in 1476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
        0.002959963 = product of:
          0.005919926 = sum of:
            0.005919926 = weight(_text_:information in 1476) [ClassicSimilarity], result of:
              0.005919926 = score(doc=1476,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.116372846 = fieldWeight in 1476, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1476)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu errei-chen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele:· Durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; Einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen;· Diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden in dieser Studie ausführlich vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist.
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.30
    Theme
    Information Gateway
  9. Schweins, K.: Methoden zur Erschließung von Filmsequenzen (1997) 0.01
    0.012294643 = product of:
      0.092209816 = sum of:
        0.027240701 = weight(_text_:und in 1628) [ClassicSimilarity], result of:
          0.027240701 = score(doc=1628,freq=6.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.42413816 = fieldWeight in 1628, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
        0.064969115 = weight(_text_:informationswissenschaft in 1628) [ClassicSimilarity], result of:
          0.064969115 = score(doc=1628,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.49770427 = fieldWeight in 1628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
      0.13333334 = coord(2/15)
    
    Abstract
    Behandelt werden: das Fernseharchiv des WDR, die Stockshot Database des National Film Board of Canada und das Projekt AMPHORE (IWF + GMD)
    Imprint
    Köln : Fachhochschule, Fb Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.5
  10. Gödert, W.; Oßwald, A.; Rösch, H.; Sleegers, P.: Evit@: Evaluation elektronischer Informationsmittel (2000) 0.01
    0.012294643 = product of:
      0.092209816 = sum of:
        0.027240701 = weight(_text_:und in 1881) [ClassicSimilarity], result of:
          0.027240701 = score(doc=1881,freq=6.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.42413816 = fieldWeight in 1881, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
        0.064969115 = weight(_text_:informationswissenschaft in 1881) [ClassicSimilarity], result of:
          0.064969115 = score(doc=1881,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.49770427 = fieldWeight in 1881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
      0.13333334 = coord(2/15)
    
    Abstract
    Evit@ stellt ein Bewertungsinstrument bereit, mit dessen Hilfe qualitative Aussagen über elektronische Informationsmittel möglich werden. Eine Stärke des Verfahrens liegt auf der vergleichenden Produktanalyse und auf einem weitgehend entindividualisierten Ansatz
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.23
  11. AG KIM Gruppe Titeldaten DINI: Empfehlungen zur RDF-Repräsentation bibliografischer Daten (2014) 0.01
    0.011992856 = product of:
      0.05996428 = sum of:
        0.02179256 = weight(_text_:und in 4668) [ClassicSimilarity], result of:
          0.02179256 = score(doc=4668,freq=24.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.33931053 = fieldWeight in 4668, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4668)
        0.012723906 = product of:
          0.025447812 = sum of:
            0.025447812 = weight(_text_:bibliothekswesen in 4668) [ClassicSimilarity], result of:
              0.025447812 = score(doc=4668,freq=2.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.19700313 = fieldWeight in 4668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4668)
          0.5 = coord(1/2)
        0.025447812 = weight(_text_:bibliothekswesen in 4668) [ClassicSimilarity], result of:
          0.025447812 = score(doc=4668,freq=2.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.19700313 = fieldWeight in 4668, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.03125 = fieldNorm(doc=4668)
      0.2 = coord(3/15)
    
    Abstract
    In den letzten Jahren wurde eine Vielzahl an Datensets aus Kultur- und Wissenschaftseinrichtungen als Linked Open Data veröffentlicht. Auch das deutsche Bibliothekswesen hat sich aktiv an den Entwicklungen im Bereich Linked Data beteiligt. Die zuvor lediglich in den Bibliothekskatalogen vorliegenden Daten können weiteren Sparten geöffnet und so auf vielfältige Weise in externe Anwendungen eingebunden werden. Gemeinsames Ziel bei der Veröffentlichung der Bibliotheksdaten als Linked Data ist außerdem, Interoperabilität und Nachnutzbarkeit zu ermöglichen und sich auf diese Weise stärker mit anderen Domänen außerhalb der Bibliothekswelt zu vernetzen. Es bestehen sowohl Linked-Data-Services einzelner Bibliotheken als auch der deutschen Bibliotheksverbünde. Trotz ihres gemeinsamen Ziels sprechen die bestehenden Services nicht die gleiche Sprache, da sie auf unterschiedlichen Modellierungen basieren. Um die Interoperabilität dieser Datenquellen zu gewährleisten, sollten die Dienste künftig einer einheitlichen Modellierung folgen. Vor diesem Hintergrund wurde im Januar 2012 eine Arbeitsgruppe gegründet, in der alle deutschen Bibliotheksverbünde, die Deutsche Nationalbibliothek sowie einige weitere interessierte und engagierte Kolleginnen und Kollegen mit entsprechender Expertise vertreten sind. Die Gruppe Titeldaten agiert seit April 2012 als Untergruppe des Kompetenzzentrums Interoperable Metadaten (DINI-AG KIM). Die Moderation und Koordination liegt bei der Deutschen Nationalbibliothek. Im Dezember 2012 schloss sich auch der OBVSG der Arbeitsgruppe an. Die Schweizerische Nationalbibliothek folgte im Mai 2013. Vorliegende Empfehlungen sollen zu einer Harmonisierung der RDFRepräsentationen von Titeldaten im deutschsprachigen Raum beitragen und so möglichst einen Quasi-Standard etablieren. Auch international wird an der Herausforderung gearbeitet, die bestehenden bibliothekarischen Strukturen in die heute zur Verfügung stehenden Konzepte des Semantic Web zu überführen und ihren Mehrwert auszuschöpfen. Die neuesten internationalen Entwicklungen im Bereich der Bereitstellung bibliografischer Daten im Semantic Web wie die Bibliographic Framework Transition Initiative der Library of Congress (BIBFRAME) haben ebenfalls das Ziel, ein Modell zur RDF-Repräsentation bibliothekarischer Daten bereitzustellen. Die Gruppe Titeldaten beobachtet diese Entwicklungen und beabsichtigt, die Erfahrungen und Anforderungen der deutschsprachigen Bibliothekswelt mit einzubringen. Dabei werden einerseits international erarbeitete Empfehlungen aufgegriffen und andererseits Impulse aus der nationalen Kooperation dort eingebracht. Die hier verwendeten Properties könnten z. B. als Grundlage für ein Mapping zu BIBFRAME dienen.
  12. Buchbinder, R.; Weidemüller, H.U.; Tiedemann, E.: Biblio-Data, die nationalbibliographische Datenbank der Deutschen Bibliothek (1979) 0.01
    0.011729716 = product of:
      0.05864858 = sum of:
        0.019262085 = weight(_text_:und in 4) [ClassicSimilarity], result of:
          0.019262085 = score(doc=4,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29991096 = fieldWeight in 4, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
        0.036919862 = product of:
          0.073839724 = sum of:
            0.073839724 = weight(_text_:auskunft in 4) [ClassicSimilarity], result of:
              0.073839724 = score(doc=4,freq=2.0), product of:
                0.19680773 = queryWeight, product of:
                  6.7916126 = idf(docFreq=134, maxDocs=44218)
                  0.028978055 = queryNorm
                0.37518713 = fieldWeight in 4, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.7916126 = idf(docFreq=134, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4)
          0.5 = coord(1/2)
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 4) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=4,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 4, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Die deutschen nationalbibliographische Datenbank Biblio-Data wird in Teil A mit ihren Grundlagen vorgestellt. Biblio-Data basiert auf dem Information-Retrieval-System STAIRS von IBM, das durch Zusatzprogramme der ZMD verbessert wurde. Das Hauptgewicht dieses Beitrags liegt auf der Erörterung des Biblio-Data-Konzepts, nach dem die Daten der Deutschen Bibliographie retrievalgerecht aufbereitet und eingegeben werden. Auf Eigenarten, Probleme und Mängel, die daraus entstehen, dass Biblio-Data auf nationalbibliographischen Daten aufbaut, wird ausführlich eingegangen. Zwei weitere Beiträge zeigen an einigen Beispielen die vielfältigen Suchmöglichkeiten mit Biblio-Data, um zu verdeutlichen, dass damit nicht nur viel schenellere, sondern auch bessere Recherchen ausgeführt werden können. Teil B weist nach, dass Biblio-Data weder die Innhaltsanalyse noch die Zuordnung von schlagwörtern automatisieren kann. Im derzeitigen Einsatzstadium fällt Biblio-Data die Aufgabe zu, die weiterhin knventionall-intellektuell auszuführende Sacherschließung durch retrospektive Recherchen, insbesonderr durch den wesentlich erleichterten Zugriff auf frühere Indexierungsergebnisse, zu unterstützen. Teil C schildert die praktische Arbeit mit Biblio-Data bei bibliographischen Ermittlungen und Literaturzusammenstellunen und kommt zu dem Ergebnis, dass effektive und bibliographische Arbeit aus der sinnvollen Kombination von Datenbank-Retrieval und konventioneller Suche bestehet.
    Content
    Enthält die Beiträge: Buchbinder, R.: Grundlagen von Biblio-Data (S.11-68); Weidemüller, H.U.: Biblio-Data in der Sacherschließung der Deutschen Bibliothek (S.69-105); Tiedemann, E.: Biblio-Data in der bibliographischen Auskunft der Deutschen Bibliothek (S.107-123)
  13. Kuhlen, R.; Hess, M.S.: Passagen-Retrieval : auch eine Möglichkeit der automatischen Verknüpfung in Hypertexten (1993) 0.01
    0.010275577 = product of:
      0.051377885 = sum of:
        0.009436456 = weight(_text_:und in 1947) [ClassicSimilarity], result of:
          0.009436456 = score(doc=1947,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.14692576 = fieldWeight in 1947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
        0.038981467 = weight(_text_:informationswissenschaft in 1947) [ClassicSimilarity], result of:
          0.038981467 = score(doc=1947,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.29862255 = fieldWeight in 1947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
        0.002959963 = product of:
          0.005919926 = sum of:
            0.005919926 = weight(_text_:information in 1947) [ClassicSimilarity], result of:
              0.005919926 = score(doc=1947,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.116372846 = fieldWeight in 1947, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1947)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Das Passagen-Retrieval erlaubt explorierendes Navigieren in Volltextdatenbanken, aber auch in textorientierten Hypertextbasen. Es wird experimentell an fünf, im Information Retrieval geläufigen Assoziationskoeffizienten überprüft, inwieweit mit ihnen Textpassagen, gewonnen aus der Konversion von Absätzen aus einer Buchvorlage (Hypertextbuch von R. Kuhlen, 1991b), automatisch verknüpft werden können. Voraussetzung für die Anwendung der Maße ist eine Volltextinvertierung mit linguistisch abgesicherter Stammformenreduktion. Die Ergebnisse, gewonnen aus der Bewertung der Verknüpfungsangebote entsprechend den Berechnungen nach den fünf Koeffizienten und aus dem Vergleich mit einer intellektuellen Verknüpfungsvorgabe, zeigen eine deutliche Präferenz zugunsten des Asymmetrie-Maßes, das vielleicht noch durch eine Kombination mit dem Cosinus-Maß verbessert werden könnte. Die automatisch erstellten Verknüpfungsangebote sind sowohl im Autoren-Modus zur Unterstützung des Aufbaus von Hypertextbasen sinnvoll als auch im Lese-Modus als Möglichkeit des assoziativen Navigierens in großen Hypertextbasen verwendbar.
    Imprint
    Konstanz : Universität, FG Informationswissenschaft
  14. Stock, W.G.: Publikation und Zitat : Die problematische Basis empirischer Wissenschaftsforschung (2001) 0.01
    0.009270833 = product of:
      0.06953124 = sum of:
        0.023591138 = weight(_text_:und in 5787) [ClassicSimilarity], result of:
          0.023591138 = score(doc=5787,freq=18.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.3673144 = fieldWeight in 5787, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
        0.0459401 = weight(_text_:informationswissenschaft in 5787) [ClassicSimilarity], result of:
          0.0459401 = score(doc=5787,freq=4.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.35193008 = fieldWeight in 5787, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
      0.13333334 = coord(2/15)
    
    Abstract
    Die empirische Wissenschaftsforschung arbeitet bei den Indikatoren wissenschaftlicher Leistung und wissenschaftlicher Wirkung mit Publikations- und Zitationsraten. Die vorliegende Arbeit befaßt sich mit dabei auftretenden methodischen Problemen. Was ist überhaupt eine Publikation? Was heißt Zitation? Zentral ist auch die Zählbasis, d.h. die Einheitenbildung: Was ist 1 Publikation? und: Was ist 1 Zitation? Bei Printpublikationen gibt es eine Reihe von beachtenswerten Faktoren (u.a. Mehrautorenwerke, Gewichtungsfaktoren wie den Impact Factor, Dokumenttypen). Bei elektronischen Publikationen im Internet mit ihrem dynamischen Charakter ist die Einheitenbildung noch weitaus problematischer. Zitationen, verstanden als zitierte Publikationen, werfen alle methodischen Probleme der Publikationseinheiten auf, hinzu kommen weitere, spezifische Probleme. Lösungsmöglichkeiten im syntaktischen Bereich (Relativierung auf Textseiten oder Zeichen) ändern am grundlegenden Problem nur wenig, Lösungsversuche im semantischen Bereich (etwa im Rahmen der semantischen Informationstheorie) sind im Rahmen der Publikations- und Zitationsanalysen nicht durchführbar und verweisen sowohl auf themenanalytische Methoden als auch auf die Wissenschaftstheorie. Mit diesem Working Paper wollen wir vor allem auf offene Probleme hinweisen; "endgültige" Lösungen wird der Leser nicht finden, wohl aber Lösungsvorschläge, die meist durchaus noch diskussionswürdig sind. In der Informationswissenschaft wie in der Wissenschaftsforschung sind wir bisher viel zu sicher davon ausgegangen, daß wir wissen, was Publikationen und Zitationen sind
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.29
  15. Sachse, E.; Liebig, M.; Gödert, W.: Automatische Indexierung unter Einbeziehung semantischer Relationen : Ergebnisse des Retrievaltests zum MILOS II-Projekt (1998) 0.01
    0.00899957 = product of:
      0.06749678 = sum of:
        0.022018395 = weight(_text_:und in 3577) [ClassicSimilarity], result of:
          0.022018395 = score(doc=3577,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.34282678 = fieldWeight in 3577, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3577)
        0.04547838 = weight(_text_:informationswissenschaft in 3577) [ClassicSimilarity], result of:
          0.04547838 = score(doc=3577,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.348393 = fieldWeight in 3577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3577)
      0.13333334 = coord(2/15)
    
    Abstract
    Im Rahmen von MILOS II wurde das erste MILOS-Projekt zur automatischen Indexierung von Titeldaten um eine semantischer Komponente erweitert, indem Thesaurusrelationen der Schlagwortnormdatei eingebunden wurden. Der abschließend zur Evaluierung durchgeführte Retrievaltest und seine Ergebnisse stehen im Mittelpunkt dieses Texts. Zusätzlich wird ein Überblick über bereits durchgeführte Retrievaltests (vorwiegend des anglo-amerikanischen Raums) gegeben und es wird erläutert, welche grundlegenden Fragestellungen bei der praktischen Durchführung eines Retrievaltests zu beachten sind
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.14
  16. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.01
    0.008932816 = product of:
      0.06699611 = sum of:
        0.035587102 = weight(_text_:und in 7383) [ClassicSimilarity], result of:
          0.035587102 = score(doc=7383,freq=4.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.55409175 = fieldWeight in 7383, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=7383)
        0.031409014 = product of:
          0.06281803 = sum of:
            0.06281803 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
              0.06281803 = score(doc=7383,freq=2.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.61904186 = fieldWeight in 7383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7383)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Date
    22. 2.1997 19:46:30
  17. Enzyklopädie im Wandel : Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot (2002) 0.01
    0.0071544345 = product of:
      0.053658254 = sum of:
        0.021173695 = weight(_text_:und in 1882) [ClassicSimilarity], result of:
          0.021173695 = score(doc=1882,freq=58.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.32967478 = fieldWeight in 1882, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
        0.032484557 = weight(_text_:informationswissenschaft in 1882) [ClassicSimilarity], result of:
          0.032484557 = score(doc=1882,freq=8.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.24885213 = fieldWeight in 1882, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
      0.13333334 = coord(2/15)
    
    Abstract
    "Enzyklopädie im Wandel: Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot?" lautete das Thema der Auftaktveranstaltung, die am 12. Dezember 2001 im Rahmen des Diskussionsforums "Kölner Dialog Informationswissenschaft" an der Fachhochschule Köln stattfand. Enzyklopädien sind stets dem Zeitgeist verpflichtet und im Wandel begriffen. Sie passen sich in ihrer Konzeption den zu erwartenden Bedürfnissen der Benutzer und den produktionstechnischen Möglichkeiten an. Gegenwärtig ist ein Nebeneinander von gedruckten und digitalen Enzyklopädien zu beobachten. Während gedruckte Enzyklopädien die Breite des Wissens zweidimensional erfahrbar machen und für den raschen Zugriff oft weiterhin bevorzugt werden, bieten Enzyklopädien in digitaler Form neben neuen Retrievaltechniken durch multimediale Synergien einen erheblich verbesserten Zugang zu den erläuterten Phänomenen. Die Autoren dieses Bandes setzen sich mit den Ansprüchen auseinander, die an die Konzeption von Enzyklopädien zu Beginn des 21. Jahrhunderts gestellt werden. Die einzelnen Beiträge vermitteln einen Einblick in Entstehung, Umfang und Funktionalitäten der auf der Buchmesse 2001 vorgestellten Neuausgaben der renommierten Nachschlagewerke "Brockhaus multimedial" und "Microsoft Encarta". Abschließend werden die Fragenkomplexe "Beitrag der Enzyklopädie zum Wissenserwerb heute" sowie "Entwicklungsperspektiven und Trägermedien von Enzyklopädien" thematisiert.
    Content
    Enthält die Beiträge: VOLPERS, H.: Idee und Begriff der Enzyklopädie im Wandel der Zeit; ANGER, E.: Brockhaus multimedial 2002 auf CD-ROM und DVD-ROM; HILTL, M.: Die Encarta Enzyklopädie Proefessional 2002 von Microsoft; HÄRKÖNEN, S.: Enzyklopädie im Wandel (Podiumsdiskussion)
    Footnote
    Rez. in: B.I.T. online 5(2002) H.3, S.281 (R. Fuhlrott) - Medienwissenschaft. 2003, H.1, S.72-74 (M. Hollender): "Der Sammelband gibt die Beiträge einer gleichnamigen Veranstaltung an der Fachhochschule Köln am 12. Dezember 2001 wieder. - Über enzyklopädisches Wissen verfügen zu wollen, sei in den letzten Jahren, so Helmut Volpers in seiner Einführung, durch den ,Verfall bildungsbürgerlicher Ideale" stark rückläufig gewesen; derzeit aber erlebe die Wertschätzung einer hohen Allgemeinbildung wieder einmal eine - popularisierte und medientaugliche - Renaissance: Die Verfügbarkeit über Faktenwissen eröffne die Chance, in der Flut der Fernsehrateshows zum Millionär zu avancieren. Volpers Beitrag über "Idee und Begriff der Enzyklopädie im Wandel der Zeit" widmet sich ausführlich vor allem Werken von Diderot und D'Alembert, dem Zedler und den frühen Brockhaus-Ausgaben. Sein Text liefert indes keine neuen Erkenntnisse und ist vor allem für Examenskandidaten hilfreich. Der Aufsatz von Volpers erfüllt aber wiederum als einziger der drei Beiträge die Ansprüche, die man an eine wissenschaftliche Veröffentlichung gemeinhin stellt. Die nachfolgenden Texte nämlich, die die Enzyklopädien von Brockhaus und Encarta in der CD-ROM-/DVD-Version präsentieren, stammen nicht von kommerziell unabhängig und wertneutral arbeitenden Verfassern, sondern vom Managing Editor New Media des Brockhaus-Verlages (Eberhard Anger) bzw. vom Chefredakteur der deutschsprachigen Encarta-Redaktion (Michael Hiltl). Demzufolge lesen sich die Beiträge wie eine Presseerklärung der Konzerne bzw. wie eine besonders kundenfreundlich formulierte Bedienungsanleitung für Fortgeschrittene. Von den Veranstaltern hätte man sich als Gegenpart auch eine kritische Stimme gewünscht; die Selbstanpreisungen der Firmenvertreter wie auch die Tendenz der Aussagen verstimmt den Leser, der eine abgewogene Darstellung erwartet hatte, zusehends. Dies beginnt bei der pauschalen Behauptung, der Brockhaus habe die NS-Ära aufgrund seiner Distanz zum Regime unbeschadet überstanden (die Darstellung von Senya Müller: Sprachwörterbücher im Nationalsozialismus: die ideologische Beeinflussung von Duden, Sprach-Brockhaus und anderen Nachschlagewerken während des "Dritten Reichs", Stuttgart 1994, beweist hinsichtlich des Sprach-Brockhauses das Gegenteil) und endet bei der Forderung, Internetinformationen müssten zukünftig mehr und mehr kostenpflichtig werden. Das merkantile Interesse von Anger und Hiltl ist freilich verständlich: Lexikonverlage stehen unter enormem Existenz- und Legitimationsdruck, um den Wettbewerb gegen sekundenschnell via Suchmaschinen kostenfrei erhältliche Informationen nicht zu verlieren. Und tatsächlich haben die internationalen Lexikonverlage in den letzten Jahren enorm aufgerüstet - die Unterschiede zwischen der großväterlich biederen Schrankwandausgabe des Brockhaus' und der Multimediaausgabe sind derart frappierend, dass selbst die unkritische Eigenwerbung der Verlagsrepräsentanten noch zu begeistern vermag (und umso mehr wünscht man sich eine relativierende Gegenstimme!). Die Hymnen der Lexikonverkäufer auf ihre Produkte sollen an dieser Stelle nicht wiederholt werden, wer sich indes mit dem Gedanken trägt, eine moderne Enzyklopädie zu erwerben, dem seien die Referate von Anger und Hiltl als Einstiegslektüre nur zu empfehlen. Wer hätte geahnt, dass die CD-ROMs des Brockhaus 2002 als Dreingabe auch den zweibändigen Brockhaus des Jahres 1906 einschließen! Zumindest soviel ist den Verlagsvertretern und den Kölner Tagungsveranstaltern gelungen: Sie wecken das Interesse an elektronischen lexikalischen Produkten. Kritische Stimmen muss man sich eben an anderer Stelle suchen.
    In regelmäßigen, sehr engen Abständen sind aus dem Netz Aktualisierungen der Enzyklopädien herunterladbar, die die veralteten Einträge automatisch überschreiben. Ungeklärt bleiben in diesem Zusammenhang leider zwei Fragen: Wie soll zukünftig aus derlei Werken wissenschaftlich seriös unter Angabe der Quelle zitiert werden? Aus konventionellen Lexika wird zwar selten zitiert, der Multimedia-Brockhaus umfasst hingegen ein Textvolumen, das mehr als viermal so groß ist wie das der Printausgabe, wodurch es als Quelle also eher infrage kommt. Unbeantwortet bleibt leider auch die wissenschaftshistorische Frage, ob die Entwicklungsstufen des sich täglich wandelnden und aktualisierenden Lexikons auf einem Brockhaus- bzw. Encarta-Archivserver dauerhaft gespeichert werden. Wissenschaftsgeschichte ist zwingend darauf angewiesen, nachweisen zu können, welcher Wissensstand zu welchem Zeitpunkt welchen Bevölkerungsgruppen als Gemeingut bekannt war; die Virtualität der Enzyklopädie als non-book-material macht derlei Studien womöglich bald unmöglich. Der Tagungsband wird unter http://www.fbi.fh-koeln.de/fachbereich/papers/ kabi/index.cfm auch im Netz vorgehalten. Sollten sämtliche Bände der Schriftenreihe Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft über eine derart billige Klebebindung verfügen wie das mir vorliegende Exemplar, gehört die Zukunft wieder ein Stückweit mehr der Netzpublikation: Der Selbstatomisierung des Heftes in drei Dutzend lose Blätter lässt sich so entgehen."
    Imprint
    Köln : FH Köln, Fachbereich Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.32
  18. Hammwöhner, R.; Kuhlen, R.: Semantic control of open hypertext systems by typed objects (1993) 0.01
    0.0065242234 = product of:
      0.048931673 = sum of:
        0.04547838 = weight(_text_:informationswissenschaft in 1902) [ClassicSimilarity], result of:
          0.04547838 = score(doc=1902,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.348393 = fieldWeight in 1902, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1902)
        0.00345329 = product of:
          0.00690658 = sum of:
            0.00690658 = weight(_text_:information in 1902) [ClassicSimilarity], result of:
              0.00690658 = score(doc=1902,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.13576832 = fieldWeight in 1902, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1902)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    The C(K)onstance Hypertext system (KHS) is an elaborated example of an open hypertext system. Open hypertext systems combine heterogeneous resources and different hypertext applications such as email, text and image hypertexts with access to online data bases or other information resources. These hypertexts, to which heterogeneous users have access, grow steadily in size. This paper takes an object-oriented approach and proposes a rigorous typing of hypertext objexts to overcome the problems of open hypertext. The advantage of this typing is shown an an e-mail hypertext as a special application of the KHS system. KHS is written in Smalltalk and is being developed an UNIX-machines.
    Imprint
    Konstanz : Universität, FG Informationswissenschaft
  19. Hochschule im digitalen Zeitalter : Informationskompetenz neu begreifen - Prozesse anders steuern (2012) 0.01
    0.006463997 = product of:
      0.048479974 = sum of:
        0.028828848 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.028828848 = score(doc=506,freq=42.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.44886562 = fieldWeight in 506, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.019651124 = sum of:
          0.0039466172 = weight(_text_:information in 506) [ClassicSimilarity], result of:
            0.0039466172 = score(doc=506,freq=2.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.0775819 = fieldWeight in 506, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.03125 = fieldNorm(doc=506)
          0.015704507 = weight(_text_:22 in 506) [ClassicSimilarity], result of:
            0.015704507 = score(doc=506,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.15476047 = fieldWeight in 506, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=506)
      0.13333334 = coord(2/15)
    
    Abstract
    Die rasanten Veränderungen der Kommunikation und der daraus resultierende soziale und kulturelle Wandel betreffen auch die Hochschulen in besonderer Weise. Hochschulleitungen haben hier bereits schon reagiert, sie stehen aber weiterhin vor der Herausforderung, auf die Veränderungen zu reagieren und entsprechende Maßnahmen zu ergreifen. Es bedarf nicht nur einer Harmonisierung des Informationsmanagements und der Informationsinfrastruktur, sondern integrativ auch der Stärkung der Informationskompetenz auf allen Ebenen der Organisation. Da diese Herausforderung das gesamte System Hochschule betrifft, wird der Begriff der Informationskompetenz hier gegenüber seiner herkömmlichen Verwendung deutlich ausgeweitet: Es wird nicht nur die akademische Informationskompetenz betrachtet, die in Lehre und Forschung zum Tragen kommt, sondern auch die organisationsbezogene Informationskompetenz, die sich auf alle hochschulinternen Abläufe bezieht. Zugleich geht es in der Empfehlung nicht, wie es der Titelbegriff "Hochschule im digitalen Zeitalter" nahe legen könnte, um Konzepte wie das einer Netzhochschule.
    Zur Stärkung der Informationskompetenz der Studierenden ist es erforderlich, dass entsprechende Lehrangebote ausgebaut, stärker als bisher curricular verankert und möglichst flächendeckend angeboten werden. Die unterschiedlichen, von verschiedenen Akteuren zur Verfügung gestellten Lehrangebote zur Vermittlung von Informationskompetenz sollten mehr als bisher aufeinander abgestimmt und miteinander verschränkt werden. Um die Informationskompetenz aller Lehrenden zu sichern, sollten diese mehr als bisher entsprechende Fortbildungs- und Trainingsangebote wahrnehmen. Die Hochschulleitungen sollten dafür Sorge tragen, dass entsprechende attraktive Angebote zur Verfügung gestellt werden. Auch die Informationskompetenz der Forschenden muss ausgebaut werden, indem entsprechende Qualifizierungsangebote wahrgenommen und Qualifikationsmaßnahmen stärker als bisher z. B. in den Curricula der Graduierten- und Postgraduiertenausbildung verankert werden. Forschende können ihre Informationskompetenz zugleich im Rahmen von Kompetenznetzwerken stärken. Dies gilt es entsprechend seitens der Hochschulleitungen zu unterstützen. Die Hochschulleitungen sollten Strukturen und Prozesse im Rahmen eines hochschulinternen "Governance"-Prozesses verändern können. Innerhalb der Hochschulleitung muss daher eine Person für die Themen "Informationsinfrastruktur" und "Stärkung der Informationskompetenz" verantwortlich und Ansprechpartner sein. Was die Dienstleistungen angeht, wird insbesondere empfohlen, dass die Mitarbeiterinnen und Mitarbeiter der Hochschulbibliotheken und Rechenzentren ihre Kompetenzen erweitern, um die Forscherinnen und Forscher beim Datenmanagement besser unterstützen zu können.
    Die HRK sieht sich künftig für die bundesweite strategische Koordination des Handlungsfeldes "Informationskompetenz" verantwortlich. Um das Zusammenwirken an der Schnittstelle zwischen den Fakultäten bzw. Fachbereichen einerseits und den Bibliotheken und Rechenzentren andererseits zu verbessern, richtet die HRK eine Arbeitsgruppe ein, die Prozesse an der o. g. Schnittstelle jeweils mit Blick auf ausgewählte Fächer in regelmäßigen Zeitabständen begleitet und Vorschläge zur Verbesserung der Zusammenarbeit formuliert. Die Politik in Bund und Ländern sollte ihren Anteil am Aufbau solcher Strukturen leisten und die notwendigen Maßnahmen finanziell unterstützen.
    Date
    8.12.2012 17:22:26
    Theme
    Information
  20. Möhr, M.: Einige Begriffe aus der Informationsökonomie und Benutzerforschung : redaktionell überarb. Fassung (1982) 0.01
    0.0061490485 = product of:
      0.04611786 = sum of:
        0.037745822 = weight(_text_:und in 2910) [ClassicSimilarity], result of:
          0.037745822 = score(doc=2910,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.58770305 = fieldWeight in 2910, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2910)
        0.0083720395 = product of:
          0.016744079 = sum of:
            0.016744079 = weight(_text_:information in 2910) [ClassicSimilarity], result of:
              0.016744079 = score(doc=2910,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.3291521 = fieldWeight in 2910, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2910)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Series
    Forschungsbericht des Projektes Wirtschaftlichkeit von Information und Dokumentation II; 1979,1)(Aktuelle Beiträge und Berichte der Gesellschaft für Information und Dokumentation: 11

Authors

Languages

  • e 116
  • d 108

Types