Search (273 results, page 2 of 14)

  • × type_ss:"r"
  1. Inhaltsbezogene Suche von Bildern und Videosequenzen in digitalen multimedialen Archiven : Beiträge eines Workshops der KI'98 am 16./17.9.1998 in Bremen (1998) 0.02
    0.017017838 = product of:
      0.05105351 = sum of:
        0.013968632 = weight(_text_:in in 10) [ClassicSimilarity], result of:
          0.013968632 = score(doc=10,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.23523843 = fieldWeight in 10, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=10)
        0.037084877 = weight(_text_:und in 10) [ClassicSimilarity], result of:
          0.037084877 = score(doc=10,freq=10.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.38329202 = fieldWeight in 10, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=10)
      0.33333334 = coord(2/6)
    
    Abstract
    Enthält die Fachbeiträge eines Workshops zum Thema "Inhaltsbezogene Suche von Bildern und Videosequenzen in digitalen multimedialen Archiven", der am 16. u. 17.9.1998 im Rahmen der Tagung KI'98 an der Universität Bremen stattfand
    Content
    Enthält die Beiträge: SPECHT, G.: Architekturen von Multimedia-Datenbanksystemen zur Speicherung von Bildern und Videos; MALSY, M. u.a.: Unterstützung des strutkturierten Zugriffs auf MPEG Videos in einem Multimedia-Datenbankmanagementsystem; ARLT, B. u. R.W. BRAUSE: Image encoding by independent principal components; DITTMANN, J. u.a.: Objektverfolgung und Szenenerkennung in Video auf Basis von Kantendetektion; THOMAS, P.: Verteilte digitale Medienarchivsysteme für kooperative Fernsehproduktion; DAMMEYER, A. u.a.: Videoanalyse mit DiVA
    Imprint
    Bremen : Universität Bremen / Fachbereich Mathematik und Informatik
  2. Nentwig, L.: Semantische Interoperabilität : Bd.1: Eine technische Einführung (2010) 0.02
    0.017004829 = product of:
      0.051014483 = sum of:
        0.009977593 = weight(_text_:in in 4847) [ClassicSimilarity], result of:
          0.009977593 = score(doc=4847,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.16802745 = fieldWeight in 4847, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
        0.04103689 = weight(_text_:und in 4847) [ClassicSimilarity], result of:
          0.04103689 = score(doc=4847,freq=24.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.42413816 = fieldWeight in 4847, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
      0.33333334 = coord(2/6)
    
    Abstract
    Jede Organisation, sei es in der freien Wirtschaft oder der öffentlichen Verwaltung, nutzt heute Informationssysteme zur effizienten Abwicklung der Geschäftsprozesse. Um Kooperationen zwischen den Organisationen zu ermöglichen, steigt dabei in zunehmendem Maße die Bedeutung organisationsübergreifender und medienbruchfreier Geschäftsprozesse. Grundlage für einen solchen Datenaustausch ist ein Vorgehen, das Fehlinterpretationen und inhaltliche Missverständnisse bei der Verwendung von Begriffen, Datenstrukturen, Schreibkonventionen etc. zu vermeiden hilft und semantische Interoperabilität ermöglicht. Erst die Semantische Interoperabilität gewährleistet einen effizienten organisationsinternen Datenaustausch und eine effiziente Datenintegration mit externen Kooperationsteilnehmern. Die Arbeit an praktikablen Konzepten und Lösungen steht im Zentrum des Arbeitsgebietes »Semantic Interoperability Engineering« (SIE). In diesem Whitepaper werden dafür zentrale Begriffe und Konzepte eingeführt. Sie dienen als Basis für eine weitere Beschäftigung mit dem Thema.
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
    Imprint
    Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
  3. Schlußbericht der Enquete-Kommission "Zukunft der Medien in Wirtschaft und Gesellschaft - Deutschlands Weg in die Informationsgeselschaft" (1998) 0.02
    0.016946267 = product of:
      0.0508388 = sum of:
        0.017669076 = weight(_text_:in in 6480) [ClassicSimilarity], result of:
          0.017669076 = score(doc=6480,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.29755569 = fieldWeight in 6480, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.109375 = fieldNorm(doc=6480)
        0.03316972 = weight(_text_:und in 6480) [ClassicSimilarity], result of:
          0.03316972 = score(doc=6480,freq=2.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.34282678 = fieldWeight in 6480, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6480)
      0.33333334 = coord(2/6)
    
  4. John, M.: Semantische Technologien in der betrieblichen Anwendung : Ergebnisse einer Anwenderstudie (2006) 0.02
    0.01675801 = product of:
      0.05027403 = sum of:
        0.012365777 = weight(_text_:in in 3898) [ClassicSimilarity], result of:
          0.012365777 = score(doc=3898,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.2082456 = fieldWeight in 3898, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3898)
        0.037908252 = weight(_text_:und in 3898) [ClassicSimilarity], result of:
          0.037908252 = score(doc=3898,freq=8.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.39180204 = fieldWeight in 3898, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3898)
      0.33333334 = coord(2/6)
    
    Abstract
    Die vorliegende Studie untersucht den Einsatz und den Wirkungsgrad von semantischen Technologien in den betrieblichen Informationssystemen. Einleitend wird kurz in die Semantic Web Thematik und die Hauptanwendungsgebiete semantischer Technologien sowie die damit verbundenen Informationsprozesse eingeführt, um dann anschließend anhand von empirischen Daten den Aufwand, den Nutzen und die Effekte von semantischen Anwendungen beschreibbar zu machen. Dabei versucht die Studie auch die Lessons learned der Unternehmen zu vermitteln, die bereits semantische Technologien einsetzen.
    Imprint
    Berlin : Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik (FIRST)
  5. Erschließung in der Deutschen Nationalbibliothek ab 1. Oktober 2015 (2015) 0.02
    0.01675801 = product of:
      0.05027403 = sum of:
        0.012365777 = weight(_text_:in in 2440) [ClassicSimilarity], result of:
          0.012365777 = score(doc=2440,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.2082456 = fieldWeight in 2440, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=2440)
        0.037908252 = weight(_text_:und in 2440) [ClassicSimilarity], result of:
          0.037908252 = score(doc=2440,freq=8.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.39180204 = fieldWeight in 2440, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2440)
      0.33333334 = coord(2/6)
    
    Abstract
    Am 1. Oktober 2015 wird die Deutsche Nationalbibliothek (DNB) mit der Erschließung nach dem Regelwerk Resource Description and Access (RDA) beginnen. Die Verbünde und Bibliotheken in Deutschland, Österreich und der deutschsprachigen Schweiz folgen innerhalb der darauffolgenden drei Monate. Im Vorfeld des Umstiegs auf RDA waren nicht nur umfangreiche Schulungsunterlagen zu erstellen und Schulungen zu planen, sondern die DNB musste auch ihre Erschließungspraxis überprüfen und hat in Folge dieser Überprüfung sowohl die Formal- als auch die Inhaltserschließung neu ausgerichtet.
  6. Dahlberg, I.: ¬Die Pilotstudie DB-Thesaurus (1980) 0.02
    0.01673975 = product of:
      0.05021925 = sum of:
        0.0075724614 = weight(_text_:in in 3155) [ClassicSimilarity], result of:
          0.0075724614 = score(doc=3155,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.12752387 = fieldWeight in 3155, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3155)
        0.042646788 = weight(_text_:und in 3155) [ClassicSimilarity], result of:
          0.042646788 = score(doc=3155,freq=18.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.4407773 = fieldWeight in 3155, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3155)
      0.33333334 = coord(2/6)
    
    Abstract
    Bei der Pilotstudie DB-Thesaurus ging es um die Untersuchung der Art und Form der von der Deutschen Bibliothek für ihre Inhaltserschließung verwendeten Schlagwörter und ihre Eignung als Elemente eines allgemeinen Thesaurus für Bibliotheken. Der Abschlußbericht (Arbeits- und Ergebnisbericht) beantwortet die in der Ausschreibung ausgesprochenen Fragen bezgl. der Möglichkeiten und Grundprinzipien eines solchen Thesaurus der DB-Schlagwörter, insbesondere auch seiner Struktur (Umfassung der Fachgebeiete, Anzahl der Hauptgruppen, Erschließungstiefe), seiner Relationsarten (begriffliche und terminologische), der Möglichkeiten der Wortschatzbegrenzung, der Behandlung von Eigennamen und der Möglichkeiten der Terminologiekontrolle. Die Untersuchung ergab, daß sich die SW der DB als Thesauruselemente eignen, daß diese aber um viele Begriffe ergänzt werden müssen, die teilweise aus dem Schatz der DB-Verweisungen gewonnen werden könnten, wenn man einen systematisch angelegten, allgemeinen Thesaurus auf dieser Basis erstellen will. Unter den Anlagen befindet sich als Beispiel dafür, daß DB-Schlag- und Verweisungswörter zur Thesauruserstellung herangezogen werden können, ein sog. Sportthesaurus, der nur durch einige fehlende Oberbegriffe ergänzt wurde. Der gesamte systematische Teil ist im alphabetischen Teil enthalten. Auf die Unterscheidung der Abstraktionsrelation von der Bestandsrelation wurde auch im alphabetischen Teil besonderer Wert gelegt
    Footnote
    Vgl. auch: Dahlberg, I. in: Numerische und nicht-numerische Klassifikation ... S.184-191.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Schweins, K.: Methoden zur Erschließung von Filmsequenzen (1997) 0.02
    0.016653707 = product of:
      0.04996112 = sum of:
        0.008924231 = weight(_text_:in in 1628) [ClassicSimilarity], result of:
          0.008924231 = score(doc=1628,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.15028831 = fieldWeight in 1628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
        0.04103689 = weight(_text_:und in 1628) [ClassicSimilarity], result of:
          0.04103689 = score(doc=1628,freq=6.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.42413816 = fieldWeight in 1628, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
      0.33333334 = coord(2/6)
    
    Abstract
    Behandelt werden: das Fernseharchiv des WDR, die Stockshot Database des National Film Board of Canada und das Projekt AMPHORE (IWF + GMD)
    Footnote
    Rez. in: nfd 50(1999) H.1, S.56 (W. Putz)
    Imprint
    Köln : Fachhochschule, Fb Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.5
  8. Bartz, T.; Prestel, J.; Wagner, H.: Problemstellungen, Herausforderungen und Aufgabenbereiche für Bibliotheken als Informationsvermittler und -aufbereiter in der wissenschaftlichen Kommunikation im Umfeld des Internet : Endbericht der Arbeitsgruppe Virtuelle Bibliotheken (1995) 0.02
    0.016528014 = product of:
      0.049584042 = sum of:
        0.011973113 = weight(_text_:in in 2393) [ClassicSimilarity], result of:
          0.011973113 = score(doc=2393,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.20163295 = fieldWeight in 2393, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
        0.03761093 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
          0.03761093 = score(doc=2393,freq=14.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.38872904 = fieldWeight in 2393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
      0.33333334 = coord(2/6)
    
    Abstract
    Durch die Möglichkeiten der Einbindung von Bibliotheken in internationale Kommunikationsnetzwerke wie dem Internet zeichnen sich völlig neue Potentiale für die Vermittlung und Distribution von Wissen ab. Die globale Vernetzung verbindet die elektronischen Bestände aller angeschlossenen Bibliotheken, Datenbankanbieter oder sonstiger Informationsprodutzenten zu einer einzigen 'virtuellen Bibliothek' - der alte Traum von einer umfassenden Enzyklopädie des Weltwissens scheint damit in greifbare Nähe zu rücken. Neue Formen von Informationsprodukten entstehen und damit gleichzeitig der Bedarf nach veränderten Methoden und Regeln der Wissenserschließung, -aufbereitung und -verteilung. Die direkte Zugänglichmachung von Dokumenten in elektronischer Form verändert auf gravierende Weise die Gepflogenheiten unserer traditionellen 'Informationskultur'. Mit der Dematerialisierung des Wissens, d.h. mit der Unabhängigkeit des Rohstoffs 'Wissen' von festgelegten Formaten und Trägermedien stellt vielleicht auch das 'Gebäude' Bibliothek in seiner bisherigen physischen Präsenz bald einen Anachronismus dar.
  9. Pfaff, S.: ¬Die Entwicklung eines Hypertextdokumentes als Informationsdienstleistung der Bibliothek und Dokumentation des Deutschen Elektronen-Synchrotron DESY im Internet (1994) 0.02
    0.016507369 = product of:
      0.049522102 = sum of:
        0.0071393843 = weight(_text_:in in 5628) [ClassicSimilarity], result of:
          0.0071393843 = score(doc=5628,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.120230645 = fieldWeight in 5628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=5628)
        0.042382717 = weight(_text_:und in 5628) [ClassicSimilarity], result of:
          0.042382717 = score(doc=5628,freq=10.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.438048 = fieldWeight in 5628, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5628)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Internet und insbesondere das Internet Werkzeug WWW haben wachsenden Einfluß im wissenschaftlichen Bereich. Auch Bibliotheken haben begonnen, ihre Dieste in dieses Computernetz auszudehnen. Für Bibliothek und Dokumentation des DESY wurde eine Hypertext-Informationsdokument angefertigt und über das WWW bereitgestellt
    Footnote
    [Abschlußarbeit im Lehrbegiet Information Management des Instituts für Information und Dokumentation an der FH Potsdam]
  10. Stein, R.; Gottschewski, J.; Heuchert, R.; Ermert, A.; Hagedorn-Saupe, M.; Hansen, H.-J.; Saro, C.; Scheffel, R.; Schulte-Dornberg, G.: ¬Das CIDOC Conceptual Reference Model : Eine Hilfe für den Datenaustausch? (2005) 0.02
    0.016494038 = product of:
      0.04948211 = sum of:
        0.009274333 = weight(_text_:in in 3741) [ClassicSimilarity], result of:
          0.009274333 = score(doc=3741,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1561842 = fieldWeight in 3741, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3741)
        0.040207777 = weight(_text_:und in 3741) [ClassicSimilarity], result of:
          0.040207777 = score(doc=3741,freq=16.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.41556883 = fieldWeight in 3741, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3741)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit dieser Publikation veröffentlicht das Institut für Museumskunde die bisherigen Arbeitsergebnisse der Arbeitsgruppe "Datenaustausch" in der Fachgruppe Dokumentation des Deutschen Museumsbunds (DMB). Kolleginnen und Kollegen verschiedener Interessenschwerpunkte aus Museen und Informatik-Einrichtungen haben seit dem Jahre 2000 die Entwicklung des CIDOC-CRM (das "Conceptual Reference Model" des Dokumentationskomitees von ICOM, dem Internationalen Museumsrat) zu einem Arbeitsinstrument begleitet, das derzeit auf dem Wege ist, als Norm ISO 21 127 Anerkennung zu finden. Die Arbeitsgruppe hat sich intensiv damit beschäftigt, zunächst das komplexe Modell zu verstehen, und sie hat diskutiert, inwieweit es eine Hilfestellung für die Arbeit von Museen miteinander und für einen Datenaustausch zwischen ihnen bietet. Die Ergebnisse der Überlegungen werden hier vorgestellt in der Hoffnung, dass dadurch viele Kolleginnen und Kollegen mit dem Modell bekannt werden, ihnen das Verständnis des CRM erleichtert wird und das Modell auch in Deutschland für die Konzeption von Informationssystemen und die Vermittlung zwischen unterschiedlichen Dokumentationen genutzt werden kann.
    Series
    Mitteilungen und Berichte aus dem Institut für Museumskunde; Nr.31
  11. Puzicha, J.: Informationen finden! : Intelligente Suchmaschinentechnologie & automatische Kategorisierung (2007) 0.02
    0.015978947 = product of:
      0.04793684 = sum of:
        0.013115887 = weight(_text_:in in 2817) [ClassicSimilarity], result of:
          0.013115887 = score(doc=2817,freq=12.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.22087781 = fieldWeight in 2817, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
        0.034820955 = weight(_text_:und in 2817) [ClassicSimilarity], result of:
          0.034820955 = score(doc=2817,freq=12.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.35989314 = fieldWeight in 2817, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
      0.33333334 = coord(2/6)
    
    Abstract
    Wie in diesem Text erläutert wurde, ist die Effektivität von Such- und Klassifizierungssystemen durch folgendes bestimmt: 1) den Arbeitsauftrag, 2) die Genauigkeit des Systems, 3) den zu erreichenden Automatisierungsgrad, 4) die Einfachheit der Integration in bereits vorhandene Systeme. Diese Kriterien gehen davon aus, dass jedes System, unabhängig von der Technologie, in der Lage ist, Grundvoraussetzungen des Produkts in Bezug auf Funktionalität, Skalierbarkeit und Input-Methode zu erfüllen. Diese Produkteigenschaften sind in der Recommind Produktliteratur genauer erläutert. Von diesen Fähigkeiten ausgehend sollte die vorhergehende Diskussion jedoch einige klare Trends aufgezeigt haben. Es ist nicht überraschend, dass jüngere Entwicklungen im Maschine Learning und anderen Bereichen der Informatik einen theoretischen Ausgangspunkt für die Entwicklung von Suchmaschinen- und Klassifizierungstechnologie haben. Besonders jüngste Fortschritte bei den statistischen Methoden (PLSA) und anderen mathematischen Werkzeugen (SVMs) haben eine Ergebnisqualität auf Durchbruchsniveau erreicht. Dazu kommt noch die Flexibilität in der Anwendung durch Selbsttraining und Kategorienerkennen von PLSA-Systemen, wie auch eine neue Generation von vorher unerreichten Produktivitätsverbesserungen.
  12. Klingenberg, A.: Referenzrahmen Informationskompetenz (2016) 0.02
    0.015812993 = product of:
      0.04743898 = sum of:
        0.009977593 = weight(_text_:in in 3271) [ClassicSimilarity], result of:
          0.009977593 = score(doc=3271,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.16802745 = fieldWeight in 3271, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3271)
        0.037461385 = weight(_text_:und in 3271) [ClassicSimilarity], result of:
          0.037461385 = score(doc=3271,freq=20.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3871834 = fieldWeight in 3271, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3271)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Referenzrahmen Informationskompetenz stellt Informationskompetenz in mehreren Teilkompetenzen auf unterschiedlichen Niveaustufen dar. Damit steht sowohl für den einzelnen Lernenden und als auch für Anbieter von Veranstaltungen zur Informationskompetenz ein einheitlicher Bezugsrahmen für alle Bildungsebenen zur Verfügung.
    Content
    Vorwort: "Der Bundesvorstand des Deutschen Bibliotheksverbandes e.V. (dbv) hat in seiner Sitzung am 27. Oktober 2016 den Referenzrahmen Informationskompetenz in der vorliegenden Form verabschiedet und empfiehlt seinen Bibliotheken den Einsatz dieses Werkzeugs sowohl in der täglichen Praxis, als auch in der strategischen Planung. Dem Vorbild des Gemeinsamen Europäischen Referenzrahmens für Sprachen folgend, will der Referenzrahmen Informationskompetenz des Deutschen Bibliotheksverbandes e.V. (dbv) die Aktivitäten sämtlicher Akteure zur Entwicklung von Informationskompetenz vergleichbar machen und einen Maßstab zur Messung der Kompetenzniveaus schaffen. Der Referenzrahmen Informationskompetenz unterstützt jede Bibliothek und jede Bildungseinrichtung dabei, ihre Veranstaltungen und Angebote zur Förderung von Informationskompetenz einzuordnen und zu klassifizieren. Diese Aktivitäten werden damit nicht nur untereinander vergleichbar, sondern erleichtern im Sinne des Lebenslangen Lernens auch den Brückenschlag zwischen unterschiedlichen Institutionen, von Öffentlichen und Wissenschaftlichen Bibliotheken über Schulbibliotheken zu Schulen, Universitäten, Hochschulen und Einrichtungen der Weiterbildung. Der Referenzrahmen Informationskompetenz vermittelt dabei mit Hilfe seiner Teilkompetenzen ein umfassendes Verständnis von Informationskompetenz."
    Footnote
    Erarbeitet von Andreas Klingenberg im Auftrag der dbv-Kommission Bibliothek & Schule und der Gemeinsamen Kommission Informationskompetenz von VDB und dbv. Vgl.: http://www.informationskompetenz.de/index.php/referenzrahmen/.
  13. EDV-Projekte und Anwendungen neuer Techniken : Medien in wissenschaftlichen Bibliotheken Deutschlands (1996) 0.02
    0.015702762 = product of:
      0.04710828 = sum of:
        0.014278769 = weight(_text_:in in 4511) [ClassicSimilarity], result of:
          0.014278769 = score(doc=4511,freq=8.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.24046129 = fieldWeight in 4511, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4511)
        0.032829512 = weight(_text_:und in 4511) [ClassicSimilarity], result of:
          0.032829512 = score(doc=4511,freq=6.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.33931053 = fieldWeight in 4511, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4511)
      0.33333334 = coord(2/6)
    
    Abstract
    Eine große Anzahl deutscher wissenschaftlicher Bibliotheken erprobt den Einsatz neuer Techniken mit Pilot- und Anwendungsprojekten verschiedenster Art. Sie werden in nicht unerheblichem Maße gefördert, so z.B. im Rahmen des Förderungsprogramms 'Modernisierung und Rationalisierung in wissenschaftlichen Bibliotheken' der DFG. Von 155 angeschriebenen Institutionen wurden 109 Projekte gemeldet. Daraus resultieren 50 Projektbeschreibungen im Hauptteil dieser Veröffentlichung. Die Projekte sind dsachlich nach dem klassischen Geschäftsgang in Bibliotheken, nämlich Erwerbung, Erschließung, Benutzung angeordnet. Management als übergreifender Bereich wurde vorangestellt
  14. Reiner, U.: VZG-Projekt Colibri : Bewertung von automatisch DDC-klassifizierten Titeldatensätzen der Deutschen Nationalbibliothek (DNB) (2009) 0.02
    0.015672814 = product of:
      0.047018442 = sum of:
        0.007728611 = weight(_text_:in in 2675) [ClassicSimilarity], result of:
          0.007728611 = score(doc=2675,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1301535 = fieldWeight in 2675, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
        0.039289832 = weight(_text_:und in 2675) [ClassicSimilarity], result of:
          0.039289832 = score(doc=2675,freq=22.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.40608138 = fieldWeight in 2675, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
      0.33333334 = coord(2/6)
    
    Abstract
    Das VZG-Projekt Colibri/DDC beschäftigt sich seit 2003 mit automatischen Verfahren zur Dewey-Dezimalklassifikation (Dewey Decimal Classification, kurz DDC). Ziel des Projektes ist eine einheitliche DDC-Erschließung von bibliografischen Titeldatensätzen und eine Unterstützung der DDC-Expert(inn)en und DDC-Laien, z. B. bei der Analyse und Synthese von DDC-Notationen und deren Qualitätskontrolle und der DDC-basierten Suche. Der vorliegende Bericht konzentriert sich auf die erste größere automatische DDC-Klassifizierung und erste automatische und intellektuelle Bewertung mit der Klassifizierungskomponente vc_dcl1. Grundlage hierfür waren die von der Deutschen Nationabibliothek (DNB) im November 2007 zur Verfügung gestellten 25.653 Titeldatensätze (12 Wochen-/Monatslieferungen) der Deutschen Nationalbibliografie der Reihen A, B und H. Nach Erläuterung der automatischen DDC-Klassifizierung und automatischen Bewertung in Kapitel 2 wird in Kapitel 3 auf den DNB-Bericht "Colibri_Auswertung_DDC_Endbericht_Sommer_2008" eingegangen. Es werden Sachverhalte geklärt und Fragen gestellt, deren Antworten die Weichen für den Verlauf der weiteren Klassifizierungstests stellen werden. Über das Kapitel 3 hinaus führende weitergehende Betrachtungen und Gedanken zur Fortführung der automatischen DDC-Klassifizierung werden in Kapitel 4 angestellt. Der Bericht dient dem vertieften Verständnis für die automatischen Verfahren.
  15. Lutz, B.; Moldaschl, M.: Expertensysteme und Industrielle Facharbeit : ein Gutachten über denkbare qualifikatorische Auswirkungen von Expertensystemen in der fertigenden Industrie erstellt im Auftrag der Enquete-Kommission "Technikfolgenabschätzung und -bewertung" des Deutschen Bundestages (1989) 0.02
    0.015628422 = product of:
      0.046885263 = sum of:
        0.009274333 = weight(_text_:in in 3890) [ClassicSimilarity], result of:
          0.009274333 = score(doc=3890,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1561842 = fieldWeight in 3890, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3890)
        0.03761093 = weight(_text_:und in 3890) [ClassicSimilarity], result of:
          0.03761093 = score(doc=3890,freq=14.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.38872904 = fieldWeight in 3890, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3890)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit Schreiben vom 17.3.1988 wurde das Institut für Sozialwissenschaftliche Forschung von Herrn Dr. Rüttgers, MdB, Vorsitzender der Enquete-Kommission "Technikfolgenabschätzung und -bewertung" des Deutschen Bundestages, aufgefordert, ein Angebot für ein Gutachten vorzulegen, das "mögliche Auswirkungen des Einsatzes von Expertensystemen auf die Beschäftigten, die Bedürfnisse der Beschäftigten" in der fertigenden Industrie behandeln solle. Zwei weitere, gleichzeitig von anderen Wissenschaftlern zu erstellende Gutachten sollten einerseits gegenwärtige und zu erwartende Anwendungen von Expertensystemen in der fertigenden Industrie aufzeigen und andererseits Einsatzmöglichkeiten und denkbare Auswirkungen aus betrieblicher Perspektive klären. Dieses Gutachten wollte sich allerdings: - vor allem auf die qualifikatorischen Folgen der Einführung von Expertensystemen konzentrieren - und einer Vorgehensweise folgen, die keine prognostischen Aussagen, sondern lediglich eine Abschätzung des "Raumes" potentieller Wirkungen liefern konnte.
  16. Razum, M.; Schwichtenberg, F.: Metadatenkonzept für dynamische Daten : BW-eLabs Report (2012) 0.02
    0.015550725 = product of:
      0.046652175 = sum of:
        0.008743925 = weight(_text_:in in 994) [ClassicSimilarity], result of:
          0.008743925 = score(doc=994,freq=12.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14725187 = fieldWeight in 994, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=994)
        0.037908252 = weight(_text_:und in 994) [ClassicSimilarity], result of:
          0.037908252 = score(doc=994,freq=32.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.39180204 = fieldWeight in 994, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=994)
      0.33333334 = coord(2/6)
    
    Abstract
    1.1. Dynamische Daten - Unter "dynamischen Daten" verstehen wir im Projekt BW-eLabs die im Rahmen von (virtuellen bzw. remote durchgeführten) Experimenten anfallenden Forschungsdaten, meist in Form von Messwerten. Im Falle des FMF (Freiburger Materialforschungsinstitut) sind dies überwiegend Spektren, im Falle des ITO (Institut für technische Optik an der Universität Stuttgart) Hologramme. Ein wichtiger Aspekt von Forschungsdaten, und damit auch für die dynamischen Daten, ist die Verknüpfung der Messwerte mit Kalibrierungs- und Konfigurationsdaten. Erst in der Gesamtbeschau lassen sich dynamische Daten so sinnvoll interpretieren. Weiterhin - und das ist eben der dynamische Gesichtspunkt bei dieser Art von Daten - verändert sich im Verlauf des wissenschaftlichen Arbeitsprozesses die Sicht auf die Daten. Die Rohdaten, die das System direkt im Labor am Gerät erfasst, lassen sich in folgenden Analyseschritten visualisieren und/oder aggregieren. Diese Schritte erzeugen neue Versionen der Daten bzw. abgeleitete Datenobjekte, die wiederum mit den Ausgangsdaten verknüpft werden. Ein Ziel von BW-eLabs ist es, diese dynamischen Daten nicht nur den Forschern innerhalb eines Projekts (also z.B. dem lokal arbeitenden Wissenschaftler und seiner entfernt arbeitenden Kollegin) verfügbar zu machen, sondern ausgewählte Datenobjekte mit einem Persistent Identifier zu versehen, um diese anschließend publizieren und damit zitierbar machen zu können.
    1.2. Metadaten - Metadaten sind ein entscheidender Faktor für die Archivierung, Publikation und Nachnutzung von Forschungsdaten. Nur hinreichend beschriebene Daten können durch Wissenschaftler verstanden und korrekt eingeordnet werden. Erst derartig beschriebene Daten lassen sich sinnvoll veröffentlichen und zitieren. Zusätzlich erlauben geeignete Metadaten das Browsen und Suchen in den Forschungsdaten. Deshalb ist die Definition und Verwendung geeigneter Metadaten-Modelle, die die Daten auf dem richtigen Level beschreiben, von außerordentlicher Bedeutung. Allerdings sind Metadaten, gerade im Bereich von Forschungsdaten, außerordentlich fach- und anwendungsspezifisch. Es gibt bisher nur wenige übergreifende Standards auf diesem Gebiet. Auch die in BW-eLabs vertretenen Disziplinen Materialwissenschaften und Technische Optik bauen auf sehr unterschiedlichen fachlichen Metadatenprofilen auf. Beide verwenden aber ein sehr vergleichbares Vorgehen bei der Beschreibung der kontextuellen Information, also dem Umfeld, in dem Versuchsdaten im Labor entstehen. Dieser Report beschreibt ein für das Projekt BW-eLabs geeignetes Metadaten-Modell für diese kontextuellen Informationen.
    1.3. Beziehung zur Beschreibung statischer Daten - Neben dynamischen Daten arbeitet das Projekt BW-eLabs auch mit sogenannten "statischen Daten", unter denen vor allem Publikationen zu verstehen sind. Auch hierfür sind Metadaten vorzusehen. Das dafür notwendige Konzept beschreibt ein eigener Report. Publikationen enthalten heute vielfach bereits Verweise auf Datenobjekte bzw. Messwerte. Momentan oftmals noch als sogenannte "supporting information" von Verlagen an die Publikation angehängt, ist es ein Ziel von BW-eLabs (und anderen Projekten), die dabei auftretenden Beschränkungen hinsichtlich Umfang und Nachnutzbarkeit zu umgehen und die Daten nur noch über Verweise (z.B. anhand von Persistent Identifiern) aus der Publikation heraus zu verknüpfen. Damit werden die Datenobjekte eigenständige Entitäten, die einen eigenen Publikationsverlauf nehmen.
  17. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.02
    0.01548963 = product of:
      0.04646889 = sum of:
        0.010929906 = weight(_text_:in in 4063) [ClassicSimilarity], result of:
          0.010929906 = score(doc=4063,freq=12.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18406484 = fieldWeight in 4063, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.035538986 = weight(_text_:und in 4063) [ClassicSimilarity], result of:
          0.035538986 = score(doc=4063,freq=18.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3673144 = fieldWeight in 4063, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.33333334 = coord(2/6)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  18. Bredemeier, W.; Stock, M.; Stock, W.G.: ¬Die Branche elektronischer Geschäftsinformationen in Deutschland 2000/2001 (2001) 0.02
    0.015461872 = product of:
      0.046385616 = sum of:
        0.008924231 = weight(_text_:in in 621) [ClassicSimilarity], result of:
          0.008924231 = score(doc=621,freq=8.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.15028831 = fieldWeight in 621, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=621)
        0.037461385 = weight(_text_:und in 621) [ClassicSimilarity], result of:
          0.037461385 = score(doc=621,freq=20.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3871834 = fieldWeight in 621, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=621)
      0.33333334 = coord(2/6)
    
    Content
    Der deutsche Markt für Elektronische Informationsdienste im Jahre 2000 - Ergebnisse einer Umsatzerhebung - Von Willi Bredemeier: - Abgesicherte Methodologie unter Berücksichtigung der Spezifika des EIS-Marktes und der aktuellen Entwicklung - teilweise Vergleichbarkeit der Daten ab 1989 - Weitgehende quantitative Markttransparenz, da der Leser die Aggregationen der Markt- und Teilmarktdaten aus einzelwirtschaftlichen Daten voll nachvollziehen kann - 93 zum Teil ausführliche Tabellen vorwiegend zu einzelnen Informationsanbietern unter besonderer Berücksichtigung der Geschäftsjahre 2000 und 1999, unterteilt in die Bereiche Gesamtmarkt für Elektronische Informationsdienste, Datev, Realtime-Finanzinformationen, Nachrichtenagenturen, Kreditinformationen, Firmen- und Produktinformationen, weitere Wirtschaftsinformationen, Rechtsinformationen, Wissenschaftlich-technisch-medizinische Informationen - Intellectual Property, Konsumentendienste, Nachbarmärkte - Analyse aktueller Markttrends. Qualität professioneller Firmeninformationen im World Wide Web - Von Mechtild Stock und Wolfgang G. Stock: - Weiterführung der Qualitätsdiskussion und Entwicklung eines Systems von Qualitätskriterien für Informationsangebote, bezogen auf Firmeninformationen im Internet - "Qualitätspanel" für die Bereiche Bonitätsinformationen, Firmenkurzdossiers, Produktinformationen und Adressinformationen mit den Anbietern Bürgel, Creditreform, Dun & Bradstreet Deutschland, ABC online, ALLECO, Hoppenstedt Firmendatenbank, Who is Who in Multimedia, Kompass Deutschland, Sachon Industriedaten, Wer liefert was?, AZ Bertelsmann, Schober.com - Hochdifferenzierte Tests, die den Kunden Hilfen bei der Auswahl zwischen Angeboten und den Anbietern Hinweise auf Maßnahmen zu qualitativen Verbesserungen geben - Detaillierte Informationen über eingesetzte Systeme der Branchen- und Produktklassifikationen - Rankings der Firmeninformationsanbieter insgesamt sowie nach Datenbasen, Retrievalsystemen und Websites, Detailinformationen zu allen Qualitätsdimensionen
    Footnote
    Rez. in: nfd 53(2002) H.4, S.250-251 (C. Schlögl)
  19. Information for a new age : redefining the librarian (1995) 0.02
    0.0153987575 = product of:
      0.04619627 = sum of:
        0.010709076 = weight(_text_:in in 2538) [ClassicSimilarity], result of:
          0.010709076 = score(doc=2538,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 2538, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=2538)
        0.035487194 = product of:
          0.07097439 = sum of:
            0.07097439 = weight(_text_:22 in 2538) [ClassicSimilarity], result of:
              0.07097439 = score(doc=2538,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.46428138 = fieldWeight in 2538, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2538)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: Journal of academic librarianship 22(1996) no.2, S.147 (A. Schultis)
  20. Cleverdon, C.W.: ASLIB Cranfield Research Project : Report on the first stage of an investigation into the comparative efficiency of indexing systems (1960) 0.02
    0.0153987575 = product of:
      0.04619627 = sum of:
        0.010709076 = weight(_text_:in in 6158) [ClassicSimilarity], result of:
          0.010709076 = score(doc=6158,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 6158, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=6158)
        0.035487194 = product of:
          0.07097439 = sum of:
            0.07097439 = weight(_text_:22 in 6158) [ClassicSimilarity], result of:
              0.07097439 = score(doc=6158,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.46428138 = fieldWeight in 6158, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6158)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: College and research libraries 22(1961) no.3, S.228 (G. Jahoda)

Authors

Languages

  • e 162
  • d 109

Types

  • el 34
  • m 5
  • s 4
  • x 2
  • More… Less…