Search (188 results, page 10 of 10)

  • × type_ss:"r"
  1. Hartley, J.; Sydes, M.: Structured abstracts in the social sciences : presentation, readability and recall (1995) 0.00
    4.7031528E-4 = product of:
      0.0018812611 = sum of:
        0.0018812611 = product of:
          0.0037625222 = sum of:
            0.0037625222 = weight(_text_:a in 2383) [ClassicSimilarity], result of:
              0.0037625222 = score(doc=2383,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.07643694 = fieldWeight in 2383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2383)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Reports results of a study to explore the possibilities of extending the use of structured abstracts (which use subheadings such as background, aims, participants method, results, conclusions) of the type often found in biomedical periodicals; to test whether or not such structured abstracts are more easily searched, comprehended and recalled than abstracts set in the traditional manner; and to examine readers' preferences for different typographic settings for structured abstracts. Results indicated: that it is possible to produce structured abstracts for periodical articles in the social sciences; and that such abstracts may be easier to read, search and recall than abstracts presented in the traditional manner. Suggests that abstracts use 6 subheadings (background, aims, method, results, conclusions, and, optionally, comment) and recommends that these subheadings are conveyed in bold capital letters and, ideally, set apart from the main text by printer's rules
  2. Anderson, J.D.: Guidelines for indexes and related information retrieval devices (1997) 0.00
    4.7031528E-4 = product of:
      0.0018812611 = sum of:
        0.0018812611 = product of:
          0.0037625222 = sum of:
            0.0037625222 = weight(_text_:a in 3807) [ClassicSimilarity], result of:
              0.0037625222 = score(doc=3807,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.07643694 = fieldWeight in 3807, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3807)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    This technical report provides guidelines for the content, organization, and presentation of indexes used for the retrieval of documents and parts of documents. It deals with the principles of indexing, regardless of the type of material indexed, the indexing method used (intellectual analysis, machine algorithm, or both), the medium of the index, or the method of presentation for searching. It emphasizes 4 processes essential for all indexes: comprehensive design, vocabulary management, and the provision of systax. It includes definitions of indexes and of their parts, attributes, and aspects; a uniform vocabulary; treatment of the nature and variety of indexes; and recommendations regarding the design, organization, and presentation of indexes. It does not suggest guidelines for every detail or technique of indexing. These can be determined for each index on the basis of factors covered in the technical report
  3. Stein, R.; Gottschewski, J.; Heuchert, R.; Ermert, A.; Hagedorn-Saupe, M.; Hansen, H.-J.; Saro, C.; Scheffel, R.; Schulte-Dornberg, G.: ¬Das CIDOC Conceptual Reference Model : Eine Hilfe für den Datenaustausch? (2005) 0.00
    4.7031528E-4 = product of:
      0.0018812611 = sum of:
        0.0018812611 = product of:
          0.0037625222 = sum of:
            0.0037625222 = weight(_text_:a in 3741) [ClassicSimilarity], result of:
              0.0037625222 = score(doc=3741,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.07643694 = fieldWeight in 3741, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3741)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  4. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.00
    4.7031528E-4 = product of:
      0.0018812611 = sum of:
        0.0018812611 = product of:
          0.0037625222 = sum of:
            0.0037625222 = weight(_text_:a in 4322) [ClassicSimilarity], result of:
              0.0037625222 = score(doc=4322,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.07643694 = fieldWeight in 4322, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4322)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  5. Reiner, U.: VZG-Projekt Colibri : Bewertung von automatisch DDC-klassifizierten Titeldatensätzen der Deutschen Nationalbibliothek (DNB) (2009) 0.00
    3.9192935E-4 = product of:
      0.0015677174 = sum of:
        0.0015677174 = product of:
          0.0031354348 = sum of:
            0.0031354348 = weight(_text_:a in 2675) [ClassicSimilarity], result of:
              0.0031354348 = score(doc=2675,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.06369744 = fieldWeight in 2675, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2675)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Das VZG-Projekt Colibri/DDC beschäftigt sich seit 2003 mit automatischen Verfahren zur Dewey-Dezimalklassifikation (Dewey Decimal Classification, kurz DDC). Ziel des Projektes ist eine einheitliche DDC-Erschließung von bibliografischen Titeldatensätzen und eine Unterstützung der DDC-Expert(inn)en und DDC-Laien, z. B. bei der Analyse und Synthese von DDC-Notationen und deren Qualitätskontrolle und der DDC-basierten Suche. Der vorliegende Bericht konzentriert sich auf die erste größere automatische DDC-Klassifizierung und erste automatische und intellektuelle Bewertung mit der Klassifizierungskomponente vc_dcl1. Grundlage hierfür waren die von der Deutschen Nationabibliothek (DNB) im November 2007 zur Verfügung gestellten 25.653 Titeldatensätze (12 Wochen-/Monatslieferungen) der Deutschen Nationalbibliografie der Reihen A, B und H. Nach Erläuterung der automatischen DDC-Klassifizierung und automatischen Bewertung in Kapitel 2 wird in Kapitel 3 auf den DNB-Bericht "Colibri_Auswertung_DDC_Endbericht_Sommer_2008" eingegangen. Es werden Sachverhalte geklärt und Fragen gestellt, deren Antworten die Weichen für den Verlauf der weiteren Klassifizierungstests stellen werden. Über das Kapitel 3 hinaus führende weitergehende Betrachtungen und Gedanken zur Fortführung der automatischen DDC-Klassifizierung werden in Kapitel 4 angestellt. Der Bericht dient dem vertieften Verständnis für die automatischen Verfahren.
  6. Buchbinder, R.; Weidemüller, H.U.; Tiedemann, E.: Biblio-Data, die nationalbibliographische Datenbank der Deutschen Bibliothek (1979) 0.00
    3.9192935E-4 = product of:
      0.0015677174 = sum of:
        0.0015677174 = product of:
          0.0031354348 = sum of:
            0.0031354348 = weight(_text_:a in 4) [ClassicSimilarity], result of:
              0.0031354348 = score(doc=4,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.06369744 = fieldWeight in 4, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die deutschen nationalbibliographische Datenbank Biblio-Data wird in Teil A mit ihren Grundlagen vorgestellt. Biblio-Data basiert auf dem Information-Retrieval-System STAIRS von IBM, das durch Zusatzprogramme der ZMD verbessert wurde. Das Hauptgewicht dieses Beitrags liegt auf der Erörterung des Biblio-Data-Konzepts, nach dem die Daten der Deutschen Bibliographie retrievalgerecht aufbereitet und eingegeben werden. Auf Eigenarten, Probleme und Mängel, die daraus entstehen, dass Biblio-Data auf nationalbibliographischen Daten aufbaut, wird ausführlich eingegangen. Zwei weitere Beiträge zeigen an einigen Beispielen die vielfältigen Suchmöglichkeiten mit Biblio-Data, um zu verdeutlichen, dass damit nicht nur viel schenellere, sondern auch bessere Recherchen ausgeführt werden können. Teil B weist nach, dass Biblio-Data weder die Innhaltsanalyse noch die Zuordnung von schlagwörtern automatisieren kann. Im derzeitigen Einsatzstadium fällt Biblio-Data die Aufgabe zu, die weiterhin knventionall-intellektuell auszuführende Sacherschließung durch retrospektive Recherchen, insbesonderr durch den wesentlich erleichterten Zugriff auf frühere Indexierungsergebnisse, zu unterstützen. Teil C schildert die praktische Arbeit mit Biblio-Data bei bibliographischen Ermittlungen und Literaturzusammenstellunen und kommt zu dem Ergebnis, dass effektive und bibliographische Arbeit aus der sinnvollen Kombination von Datenbank-Retrieval und konventioneller Suche bestehet.
  7. Klingenberg, A.: Referenzrahmen Informationskompetenz (2016) 0.00
    3.9192935E-4 = product of:
      0.0015677174 = sum of:
        0.0015677174 = product of:
          0.0031354348 = sum of:
            0.0031354348 = weight(_text_:a in 3271) [ClassicSimilarity], result of:
              0.0031354348 = score(doc=3271,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.06369744 = fieldWeight in 3271, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3271)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  8. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.00
    3.1354348E-4 = product of:
      0.0012541739 = sum of:
        0.0012541739 = product of:
          0.0025083479 = sum of:
            0.0025083479 = weight(_text_:a in 4250) [ClassicSimilarity], result of:
              0.0025083479 = score(doc=4250,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.050957955 = fieldWeight in 4250, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4250)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.

Authors

Languages

  • e 156
  • d 29
  • nl 1
  • More… Less…

Types