Search (27 results, page 1 of 2)

  • × type_ss:"r"
  1. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.09
    0.087168716 = product of:
      0.2179218 = sum of:
        0.16334943 = weight(_text_:studie in 1484) [ClassicSimilarity], result of:
          0.16334943 = score(doc=1484,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.5355037 = fieldWeight in 1484, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.05457236 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
          0.05457236 = score(doc=1484,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.30952093 = fieldWeight in 1484, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
      0.4 = coord(2/5)
    
    Date
    13. 9.2014 14:45:22
    Source
    http://www.searchmetrics.com/media/documents/knowledge-base/searchmetrics-ranking-faktoren-studie-2014.pdf
  2. IVS und IK im Innovationszyklus : Studie des Informationsrings Kreditwirtschaft (2000) 0.06
    0.057172306 = product of:
      0.28586152 = sum of:
        0.28586152 = weight(_text_:studie in 5829) [ClassicSimilarity], result of:
          0.28586152 = score(doc=5829,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.93713146 = fieldWeight in 5829, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.109375 = fieldNorm(doc=5829)
      0.2 = coord(1/5)
    
  3. Klatt, R.; Gavrilides, K.; Kleinsimglinhausen, K.; Feldmann, M.: Nutzung elektronischer Information in der Hochschulausbildung : Barrieren und Potentiale der innovativen Mediennutzung im Lernalltag der Hochschulen (2001) 0.05
    0.049004834 = product of:
      0.24502417 = sum of:
        0.24502417 = weight(_text_:studie in 6245) [ClassicSimilarity], result of:
          0.24502417 = score(doc=6245,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.80325556 = fieldWeight in 6245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.09375 = fieldNorm(doc=6245)
      0.2 = coord(1/5)
    
    Abstract
    Bericht als Ergebnis einer BMBF-Studie
  4. John, M.: Semantische Technologien in der betrieblichen Anwendung : Ergebnisse einer Anwenderstudie (2006) 0.05
    0.0462022 = product of:
      0.231011 = sum of:
        0.231011 = weight(_text_:studie in 3898) [ClassicSimilarity], result of:
          0.231011 = score(doc=3898,freq=4.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.7573166 = fieldWeight in 3898, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.0625 = fieldNorm(doc=3898)
      0.2 = coord(1/5)
    
    Abstract
    Die vorliegende Studie untersucht den Einsatz und den Wirkungsgrad von semantischen Technologien in den betrieblichen Informationssystemen. Einleitend wird kurz in die Semantic Web Thematik und die Hauptanwendungsgebiete semantischer Technologien sowie die damit verbundenen Informationsprozesse eingeführt, um dann anschließend anhand von empirischen Daten den Aufwand, den Nutzen und die Effekte von semantischen Anwendungen beschreibbar zu machen. Dabei versucht die Studie auch die Lessons learned der Unternehmen zu vermitteln, die bereits semantische Technologien einsetzen.
  5. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.03
    0.028876374 = product of:
      0.14438187 = sum of:
        0.14438187 = weight(_text_:studie in 4063) [ClassicSimilarity], result of:
          0.14438187 = score(doc=4063,freq=4.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.47332287 = fieldWeight in 4063, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.2 = coord(1/5)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
  6. Grazia Colonia; Dimmler, E.; Dresel, R.; Messner, C.; Krobath, A.; Petz, S.; Sypien, M.; Boxen, P. van; Harders, M.; Heuer, D.; Jordans, I.; Juchem, K.; Linnertz, M.; Mittelhuber, I.; Schwammel, S.; Schlögl, C.; Stock, W.G.: Informationswissenschaftliche Zeitschriften in szientometrischer Analyse (2002) 0.03
    0.028586153 = product of:
      0.14293076 = sum of:
        0.14293076 = weight(_text_:studie in 1075) [ClassicSimilarity], result of:
          0.14293076 = score(doc=1075,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.46856573 = fieldWeight in 1075, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
      0.2 = coord(1/5)
    
    Abstract
    In einer szientometrischen bzw. informetrischen Studie werden internationale wie deutschsprachige Zeitschriften der Informations-/Bibliothekswissenschaft und -praxis mittels Zitationsanalyse und Expertenbefragung analysiert. Die zitatenanalytischen Kennwerte umfassen den Impact Factor, die Halbwertszeit, die Zitierfreudigkeit, die relative Häufigkeit von Zeitschriftenselbstreferenzen sowie Soziogramme der einflussreichen Periodika. Der Fragebogen erhebt die Lesehäufigkeit, die Einsetzbarkeit der gelesenen Journale im Tätigkeitsbereich, die Publikationstätigkeit und die Publikationspräferenz sowohl für alle Respondenten als auch für abgrenzbare Gruppen (Praktiker vs. Wissenschaftler, Bibliothekare vs. Dokumentare vs. Informationswissenschaftler, öffentlicher Dienst vs. Informationswirtschaft vs. andere Wirtschaftsunternehmen).
  7. Gödert, W.; Hartmann, S.; Hubrich, J.; Lepsky, K.; Schulenborg, K.; Trunk, D.: Semantische Anreicherung der Schlagwortnormdatei : Ergebnisbericht (2004) 0.03
    0.028292954 = product of:
      0.14146477 = sum of:
        0.14146477 = weight(_text_:studie in 1815) [ClassicSimilarity], result of:
          0.14146477 = score(doc=1815,freq=6.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.4637598 = fieldWeight in 1815, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.03125 = fieldNorm(doc=1815)
      0.2 = coord(1/5)
    
    Abstract
    Die Schlagwortnormdatei (SWD) ist mit einem Umfang von ca. 150.000 Sachschlagwörtern das umfangreichste terminologisch kontrollierte deutschsprachige Vokabular, das zur verbalen Inhaltserschließung von Dokumenten genutzt werden und somit prinzipiell auch als Kandidat für den Aufbau semantischer Navigationsstrukturen im Online-Retrieval angesehen werden kann. Die Strukturierung der Schlagwörter in der SWD folgt den Vorgaben zur Ausweisung begrifflicher Strukturen in einem Thesaurus. Durch Veränderungen des der Erstellung der SWD zu Grunde liegenden Regelwerkes RSWK hat sich im Verlauf der Zeit ein Nebeneinander von unterschiedlich dichten Beziehungsnetzen ergeben, ohne dass hierzu bislang Details erhoben und dokumentiert wären. In dieser Studie werden Aussagen über den Aufwand gemacht, der erforderlich wäre, die semantische Relationenstruktur der Schlagwortnormdatei (SWD) zu homogenisieren. Hierzu wird eine quantitative und qualitative Analyse am Beispiel mehrerer Themengebiete vorgenommen. Die Berücksichtigung mehrerer Gebiete soll es gestatten, möglichst repräsentative Aussagen für das gesamte Vokabular abzuleiten. Die Autorinnen und Autoren der Studien sind sich angesichts der zur Verfügung stehenden begrenzten Ressourcen bewusst, dass dieser Anspruch nur mit Einschränkungen eingelöst werden kann. Die für die Analyse der Relationenstruktur benutzten Kriterien orientieren sich an Grundsätzen zur Gestaltung strukturierten Vokabulars sowie insbesondere der Eignung der SWD, zum Aufbau bestandsunabhängiger semantischer Navigationssysteme im Online-Retrieval, für Zwecke des wörterbuchgestützten automatischen Indexierens.
    Mit diesem Kriterium lässt es sich nicht vermeiden, dass Relationen als fehlend charakterisiert werden, auch wenn sie vom Regelwerk nicht gefordert werden. Die Analysen berücksichtigen allerdings die Verzahnung der SWD zum Regelwerk RSWK insoweit, als in der Regel nur bereits vorhandene Schlagwörter betrachtet wurden und nicht auch Lücken analysiert wurden, die allein deswegen vorhandenen sind, weil Schlagwörter wegen nicht vorhandener Bücher (noch) nicht gebildet wurden. Die Funktion der SWD zur terminologischen Ansetzung von Schlagwörtern ist nicht Gegenstand der Studie. Der Bericht dokumentiert zusätzlich Inkonsistenzen, die während der Analysen ermittelt wurden. Ziel dieses Projekts ist es, die tatsächlich erreichte Situation der Relationenstruktur der SWD zu ermitteln sowie Vorschläge auszuarbeiten, an welchen Stellen eine Nachbearbeitung der Relationen erfolgen sollte und wie dies realisiert werden könnte. Bei dieser Analyse wird nicht differenziert zwischen Relationierungen, die vom Regelwerk RSWK gedeckt sind und Relationierungen, die allgemeinen Regeln zur Darstellung begrifflicher Strukturen entsprechen.
    Footnote
    Diese Studie wurde im Auftrag der Deutschen Bibliothek durchgeführt und nicht veröffentlicht.
  8. Kaizik, A.; Gödert, W.; Oßwald, A.: Evaluation von Subject Gateways des Internet (EJECT) : Projektbericht (2001) 0.02
    0.024502417 = product of:
      0.12251209 = sum of:
        0.12251209 = weight(_text_:studie in 1476) [ClassicSimilarity], result of:
          0.12251209 = score(doc=1476,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.40162778 = fieldWeight in 1476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
      0.2 = coord(1/5)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu errei-chen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele:· Durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; Einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen;· Diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden in dieser Studie ausführlich vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist.
  9. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.02
    0.0231011 = product of:
      0.1155055 = sum of:
        0.1155055 = weight(_text_:studie in 1076) [ClassicSimilarity], result of:
          0.1155055 = score(doc=1076,freq=4.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.3786583 = fieldWeight in 1076, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.2 = coord(1/5)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
  10. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.02
    0.021828944 = product of:
      0.10914472 = sum of:
        0.10914472 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
          0.10914472 = score(doc=7383,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.61904186 = fieldWeight in 7383, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.125 = fieldNorm(doc=7383)
      0.2 = coord(1/5)
    
    Date
    22. 2.1997 19:46:30
  11. Rudolph, S.; Hemmje, M.: Visualisierung von Thesauri zur interaktiven Unterstüzung von visuellen Anfragen an Textdatenbanken (1994) 0.02
    0.02041868 = product of:
      0.1020934 = sum of:
        0.1020934 = weight(_text_:studie in 2382) [ClassicSimilarity], result of:
          0.1020934 = score(doc=2382,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.3346898 = fieldWeight in 2382, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2382)
      0.2 = coord(1/5)
    
    Abstract
    In der folgenden Studie wird eine Komponente für eine visuelle Benutzerschnittstelle zu Textdatenbanken entworfen. Mit Hilfe einer Terminologievisualisierung wird dem Benutzer eine Hilfestellung bei der Relevanzbewertung von Dokumenten und bei der Erweiterung seiner visuellen Anfrage an das Retrieval-System gegeben. Dazu werden zuerst die grundlegenden Information-Retrieval-Modelle eingehender vorgestellt, d.h., generelle Retrieval-Modelle, Retrievaloperationen und spezielle Retrieval-Modelle wie Text-Retrieval werden erläutert. Die Funktionalität eines Text-Retrieval-Systems wird vorgestellt. Darüber hinaus werden bereits existierende Implementierungen visueller Information-Retrieval-Benutzerschnittstellen vorgestellt. Im weiteren Verlauf der Arbeit werden mögliche Visualisierungen der mit Hilfe eines Text-Retrieval-Systems gefundenen Dokumente aufgezeigt. Es werden mehrere Vorschläge zur Visualisierung von Thesauri diskutiert. Es wird gezeigt, wie neuronale Netze zur Kartierung eines Eingabebereiches benutzt werden können. Klassifikationsebenen einer objekt-orientierten Annäherung eines Information-Retrieval-Systems werden vorgestellt. In diesem Zusammenhang werden auch die Eigenschaften von Thesauri sowie die Architektur und Funktion eines Parsersystems erläutert. Mit diesen Voraussetzung wird die Implementierung einer visuellen Terminologierunterstützung realisiert. Abschließend wird ein Fazit zur vorgestellten Realisierung basierend auf einem Drei-Schichten-Modell von [Agosti et al. 1990] gezogen.
  12. Wheelbarger, J.J.; Clouse, R.W.: ¬A comparision of a manual library reclassification project with a computer automated library reclassification project (1975) 0.02
    0.019100327 = product of:
      0.09550163 = sum of:
        0.09550163 = weight(_text_:22 in 3473) [ClassicSimilarity], result of:
          0.09550163 = score(doc=3473,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.5416616 = fieldWeight in 3473, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.109375 = fieldNorm(doc=3473)
      0.2 = coord(1/5)
    
    Pages
    22 S
  13. Matthews, J.R.; Parker, M.R.: Local Area Networks and Wide Area Networks for libraries (1995) 0.02
    0.019100327 = product of:
      0.09550163 = sum of:
        0.09550163 = weight(_text_:22 in 2656) [ClassicSimilarity], result of:
          0.09550163 = score(doc=2656,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.5416616 = fieldWeight in 2656, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.109375 = fieldNorm(doc=2656)
      0.2 = coord(1/5)
    
    Date
    30.11.1995 20:53:22
  14. Information for a new age : redefining the librarian (1995) 0.02
    0.016371708 = product of:
      0.08185854 = sum of:
        0.08185854 = weight(_text_:22 in 2538) [ClassicSimilarity], result of:
          0.08185854 = score(doc=2538,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.46428138 = fieldWeight in 2538, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.09375 = fieldNorm(doc=2538)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Journal of academic librarianship 22(1996) no.2, S.147 (A. Schultis)
  15. Cleverdon, C.W.: ASLIB Cranfield Research Project : Report on the first stage of an investigation into the comparative efficiency of indexing systems (1960) 0.02
    0.016371708 = product of:
      0.08185854 = sum of:
        0.08185854 = weight(_text_:22 in 6158) [ClassicSimilarity], result of:
          0.08185854 = score(doc=6158,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.46428138 = fieldWeight in 6158, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.09375 = fieldNorm(doc=6158)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: College and research libraries 22(1961) no.3, S.228 (G. Jahoda)
  16. ¬The future of national bibliography (1997) 0.02
    0.016371708 = product of:
      0.08185854 = sum of:
        0.08185854 = weight(_text_:22 in 1715) [ClassicSimilarity], result of:
          0.08185854 = score(doc=1715,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.46428138 = fieldWeight in 1715, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.09375 = fieldNorm(doc=1715)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Select newsletter 1998, no.22, S.8 (P. Robinson)
  17. Carey, K.; Stringer, R.: ¬The power of nine : a preliminary investigation into navigation strategies for the new library with special reference to disabled people (2000) 0.02
    0.016371708 = product of:
      0.08185854 = sum of:
        0.08185854 = weight(_text_:22 in 234) [ClassicSimilarity], result of:
          0.08185854 = score(doc=234,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.46428138 = fieldWeight in 234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.09375 = fieldNorm(doc=234)
      0.2 = coord(1/5)
    
    Pages
    22 S
  18. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.02
    0.016334943 = product of:
      0.08167472 = sum of:
        0.08167472 = weight(_text_:studie in 4250) [ClassicSimilarity], result of:
          0.08167472 = score(doc=4250,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.26775184 = fieldWeight in 4250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.2 = coord(1/5)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  19. Intellectual property and the National Information Infrastructure : a preliminary draft of the report of the Working Group on Intellectual Property Rights (1994) 0.01
    0.013643091 = product of:
      0.06821545 = sum of:
        0.06821545 = weight(_text_:22 in 7306) [ClassicSimilarity], result of:
          0.06821545 = score(doc=7306,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.38690117 = fieldWeight in 7306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=7306)
      0.2 = coord(1/5)
    
    Date
    22. 7.1996 19:53:48
  20. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.013643091 = product of:
      0.06821545 = sum of:
        0.06821545 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
          0.06821545 = score(doc=5576,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.38690117 = fieldWeight in 5576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
      0.2 = coord(1/5)
    
    Date
    13.12.2017 14:17:22

Years

Languages

  • d 16
  • e 10

Types