Search (258 results, page 1 of 13)

  • × type_ss:"r"
  1. Burkart-Sabsoub, M.; Wersig, G.: Perspektiven für Klassifikationssysteme in neueren Entwicklungen der Informationspraxis (1982) 0.12
    0.121029735 = product of:
      0.30257434 = sum of:
        0.07423691 = weight(_text_:23 in 3451) [ClassicSimilarity], result of:
          0.07423691 = score(doc=3451,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.63357824 = fieldWeight in 3451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=3451)
        0.07423691 = weight(_text_:23 in 3451) [ClassicSimilarity], result of:
          0.07423691 = score(doc=3451,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.63357824 = fieldWeight in 3451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=3451)
        0.02838917 = weight(_text_:und in 3451) [ClassicSimilarity], result of:
          0.02838917 = score(doc=3451,freq=2.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.39180204 = fieldWeight in 3451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=3451)
        0.07423691 = weight(_text_:23 in 3451) [ClassicSimilarity], result of:
          0.07423691 = score(doc=3451,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.63357824 = fieldWeight in 3451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=3451)
        0.01069325 = weight(_text_:in in 3451) [ClassicSimilarity], result of:
          0.01069325 = score(doc=3451,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.24046129 = fieldWeight in 3451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.125 = fieldNorm(doc=3451)
        0.0407812 = weight(_text_:der in 3451) [ClassicSimilarity], result of:
          0.0407812 = score(doc=3451,freq=4.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.5584417 = fieldWeight in 3451, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.125 = fieldNorm(doc=3451)
      0.4 = coord(6/15)
    
    Footnote
    Projekt: Klassifikationssysteme, Nutzung und Möglichkeiten der Weiterentwicklung
    Pages
    23 S
  2. Burkart-Sabsoub, M.; Wersig, G.: Kombinatorischer Einsatz von Dokumentationssprachen : Bericht über eine Besuchs-Exploration (1982) 0.09
    0.09331219 = product of:
      0.27993655 = sum of:
        0.07423691 = weight(_text_:23 in 3448) [ClassicSimilarity], result of:
          0.07423691 = score(doc=3448,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.63357824 = fieldWeight in 3448, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=3448)
        0.07423691 = weight(_text_:23 in 3448) [ClassicSimilarity], result of:
          0.07423691 = score(doc=3448,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.63357824 = fieldWeight in 3448, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=3448)
        0.02838917 = weight(_text_:und in 3448) [ClassicSimilarity], result of:
          0.02838917 = score(doc=3448,freq=2.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.39180204 = fieldWeight in 3448, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=3448)
        0.07423691 = weight(_text_:23 in 3448) [ClassicSimilarity], result of:
          0.07423691 = score(doc=3448,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.63357824 = fieldWeight in 3448, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=3448)
        0.028836664 = weight(_text_:der in 3448) [ClassicSimilarity], result of:
          0.028836664 = score(doc=3448,freq=2.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3948779 = fieldWeight in 3448, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.125 = fieldNorm(doc=3448)
      0.33333334 = coord(5/15)
    
    Footnote
    Projekt: Klassifikationssysteme, Nutzung und Möglichkeiten der Weiterentwicklung
    Pages
    23 S
  3. Gödert, W.; Oßwald, A.; Rösch, H.; Sleegers, P.: Evit@: Evaluation elektronischer Informationsmittel (2000) 0.09
    0.08887793 = product of:
      0.22219482 = sum of:
        0.046398066 = weight(_text_:23 in 1881) [ClassicSimilarity], result of:
          0.046398066 = score(doc=1881,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.3959864 = fieldWeight in 1881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
        0.046398066 = weight(_text_:23 in 1881) [ClassicSimilarity], result of:
          0.046398066 = score(doc=1881,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.3959864 = fieldWeight in 1881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
        0.03073218 = weight(_text_:und in 1881) [ClassicSimilarity], result of:
          0.03073218 = score(doc=1881,freq=6.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.42413816 = fieldWeight in 1881, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
        0.046398066 = weight(_text_:23 in 1881) [ClassicSimilarity], result of:
          0.046398066 = score(doc=1881,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.3959864 = fieldWeight in 1881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
        0.03424554 = weight(_text_:zur in 1881) [ClassicSimilarity], result of:
          0.03424554 = score(doc=1881,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.34019846 = fieldWeight in 1881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
        0.018022915 = weight(_text_:der in 1881) [ClassicSimilarity], result of:
          0.018022915 = score(doc=1881,freq=2.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.2467987 = fieldWeight in 1881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
      0.4 = coord(6/15)
    
    Abstract
    Evit@ stellt ein Bewertungsinstrument bereit, mit dessen Hilfe qualitative Aussagen über elektronische Informationsmittel möglich werden. Eine Stärke des Verfahrens liegt auf der vergleichenden Produktanalyse und auf einem weitgehend entindividualisierten Ansatz
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.23
  4. Grazia Colonia; Dimmler, E.; Dresel, R.; Messner, C.; Krobath, A.; Petz, S.; Sypien, M.; Boxen, P. van; Harders, M.; Heuer, D.; Jordans, I.; Juchem, K.; Linnertz, M.; Mittelhuber, I.; Schwammel, S.; Schlögl, C.; Stock, W.G.: Informationswissenschaftliche Zeitschriften in szientometrischer Analyse (2002) 0.08
    0.08311172 = product of:
      0.17809653 = sum of:
        0.032478645 = weight(_text_:23 in 1075) [ClassicSimilarity], result of:
          0.032478645 = score(doc=1075,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.27719048 = fieldWeight in 1075, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.032478645 = weight(_text_:23 in 1075) [ClassicSimilarity], result of:
          0.032478645 = score(doc=1075,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.27719048 = fieldWeight in 1075, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.024840524 = weight(_text_:und in 1075) [ClassicSimilarity], result of:
          0.024840524 = score(doc=1075,freq=8.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.34282678 = fieldWeight in 1075, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.032478645 = weight(_text_:23 in 1075) [ClassicSimilarity], result of:
          0.032478645 = score(doc=1075,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.27719048 = fieldWeight in 1075, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.023971878 = weight(_text_:zur in 1075) [ClassicSimilarity], result of:
          0.023971878 = score(doc=1075,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.23813893 = fieldWeight in 1075, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.0066161114 = weight(_text_:in in 1075) [ClassicSimilarity], result of:
          0.0066161114 = score(doc=1075,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.14877784 = fieldWeight in 1075, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.02523208 = weight(_text_:der in 1075) [ClassicSimilarity], result of:
          0.02523208 = score(doc=1075,freq=8.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.34551817 = fieldWeight in 1075, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
      0.46666667 = coord(7/15)
    
    Abstract
    In einer szientometrischen bzw. informetrischen Studie werden internationale wie deutschsprachige Zeitschriften der Informations-/Bibliothekswissenschaft und -praxis mittels Zitationsanalyse und Expertenbefragung analysiert. Die zitatenanalytischen Kennwerte umfassen den Impact Factor, die Halbwertszeit, die Zitierfreudigkeit, die relative Häufigkeit von Zeitschriftenselbstreferenzen sowie Soziogramme der einflussreichen Periodika. Der Fragebogen erhebt die Lesehäufigkeit, die Einsetzbarkeit der gelesenen Journale im Tätigkeitsbereich, die Publikationstätigkeit und die Publikationspräferenz sowohl für alle Respondenten als auch für abgrenzbare Gruppen (Praktiker vs. Wissenschaftler, Bibliothekare vs. Dokumentare vs. Informationswissenschaftler, öffentlicher Dienst vs. Informationswirtschaft vs. andere Wirtschaftsunternehmen).
    Date
    23. 8.2002 11:51:29
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.33
  5. Forschen für die Internet-Gesellschaft : Trends, Technologien, Anwendungen, Trends und Handlungsempfehlungen 2008 des Feldafinger Kreises (2008) 0.08
    0.08297486 = product of:
      0.20743714 = sum of:
        0.03215748 = weight(_text_:software in 2337) [ClassicSimilarity], result of:
          0.03215748 = score(doc=2337,freq=4.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.24794699 = fieldWeight in 2337, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=2337)
        0.02838917 = weight(_text_:und in 2337) [ClassicSimilarity], result of:
          0.02838917 = score(doc=2337,freq=32.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.39180204 = fieldWeight in 2337, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2337)
        0.019372202 = weight(_text_:zur in 2337) [ClassicSimilarity], result of:
          0.019372202 = score(doc=2337,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.19244531 = fieldWeight in 2337, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=2337)
        0.103347056 = weight(_text_:sicherheit in 2337) [ClassicSimilarity], result of:
          0.103347056 = score(doc=2337,freq=4.0), product of:
            0.23250443 = queryWeight, product of:
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.032692216 = queryNorm
            0.444495 = fieldWeight in 2337, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.03125 = fieldNorm(doc=2337)
        0.003780635 = weight(_text_:in in 2337) [ClassicSimilarity], result of:
          0.003780635 = score(doc=2337,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.08501591 = fieldWeight in 2337, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2337)
        0.0203906 = weight(_text_:der in 2337) [ClassicSimilarity], result of:
          0.0203906 = score(doc=2337,freq=16.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.27922085 = fieldWeight in 2337, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2337)
      0.4 = coord(6/15)
    
    Abstract
    Ausgangslage: Im April 2000 haben führende Repräsentanten der deutschen Wissenschaftsorganisationen und der Bundesverband der Deutschen Industrie (BDI) beschlossen, gemeinsame Strategien zur Stärkung des Standorts Deutschland im globalen Innovationswettbewerb zu entwickeln. Weil entscheidende Impulse für Innovationen von der Zusammenarbeit zwischen öffentlicher Forschung und privaten Unternehmen ausgehen, muss dieser Prozess durch mehr Autonomie und Wettbewerb von Hochschulen und Forschungsinstituten und durch intensive Kommunikation und Kooperation weiter verbessert werden. Ziel sollte sein, die Partner aus unterschiedlichen wissenschaftlichen Disziplinen und aus allen Branchen der Wirtschaft noch besser ins Gespräch zu bringen, um Defizite bei der Umsetzung von Forschungsergebnissen in innovative Produkte, Dienste und Verfahren abzubauen. Um den Dialog zwischen Wissenschaft und Gesellschaft zu intensivieren, haben die Spitzenorganisationen von Wissenschaft und Industrie gemeinsame Symposien auf den Gebieten "Energie", "Lebenswissenschaften" und "Internet-Gesellschaft" beschlossen. Von diesen Symposien sollen Impulse für die Ermittlung des künftigen Forschungsbedarfs und entsprechende Handlungsempfehlungen für diese Gebiete höchster volkswirtschaftlicher Relevanz ausgehen. Stellvertretend für die Wissenschaftsorganisationen hat die Fraunhofer-Gesellschaft gemeinsam mit dem BDI die Ausrichtung des Symposiums zur Internet-Gesellschaft organisiert und finanziell unterstützt.
    Content
    Die Trendaussagen des Feldafinger Kreises von 2008 1. Das Future Internet wird die globale, zuverlässige Plattform für alle Dienste. 2. Peer-to-Peer Networking ermöglicht den Informationsaustausch ohne zentrale Instanz. 3. Software wird zum Bestandteil fast aller Produkte. 4. Sicherheit wird zu einer Grundvoraussetzung für die Akzeptanz von Diensten. 5. Semantische Technologien verwandeln Informationen zu Wissen. 6. Konsequentes Wissensmanagement ist die Basis des Erfolgs von Unternehmen. 7. Intelligente Software-Agenten übernehmen Routineaufgaben. 8. Service Grids bilden das Internet der Dienste. 9. IKT sorgt für Energieeffi zienz und Versorgungssicherheit. 10. Selbstorganisation reduziert die Komplexität und erhöht die Zuverlässigkeit. 11. e-Processes erhöhen die Wettbewerbsfähigkeit durch internetbasierte Geschäftsprozesse. 12. Das Internet der Dinge sorgt für den Informationsaustausch zwischen Gegenständen. 13. Neue Fahrerassistenzsysteme ermöglichen pro-aktive Sicherheit. 14. Vernetzte, digitale Umgebungen unterstützen den Menschen in allen Lebenslagen. 15. Intuitive Bedienparadigmen werden die Nutzung des Internets für alle erleichtern.
  6. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.08
    0.07974228 = product of:
      0.17087632 = sum of:
        0.02783884 = weight(_text_:23 in 1837) [ClassicSimilarity], result of:
          0.02783884 = score(doc=1837,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 1837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.02783884 = weight(_text_:23 in 1837) [ClassicSimilarity], result of:
          0.02783884 = score(doc=1837,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 1837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.030111264 = weight(_text_:und in 1837) [ClassicSimilarity], result of:
          0.030111264 = score(doc=1837,freq=16.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.41556883 = fieldWeight in 1837, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.02783884 = weight(_text_:23 in 1837) [ClassicSimilarity], result of:
          0.02783884 = score(doc=1837,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 1837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.029058306 = weight(_text_:zur in 1837) [ClassicSimilarity], result of:
          0.029058306 = score(doc=1837,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.28866798 = fieldWeight in 1837, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.0040099686 = weight(_text_:in in 1837) [ClassicSimilarity], result of:
          0.0040099686 = score(doc=1837,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.09017298 = fieldWeight in 1837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.024180276 = weight(_text_:der in 1837) [ClassicSimilarity], result of:
          0.024180276 = score(doc=1837,freq=10.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3311152 = fieldWeight in 1837, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
      0.46666667 = coord(7/15)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Date
    23. 2.2005 10:27:09
    Footnote
    Überarb. Version der Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : Fachhochschule, Fakultät für Informations- und Kommunikationswissenschaften, Institut für Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd. 54
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Reiner, U.: VZG-Projekt Colibri : Bewertung von automatisch DDC-klassifizierten Titeldatensätzen der Deutschen Nationalbibliothek (DNB) (2009) 0.08
    0.07791355 = product of:
      0.16695762 = sum of:
        0.023199033 = weight(_text_:23 in 2675) [ClassicSimilarity], result of:
          0.023199033 = score(doc=2675,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 2675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
        0.023199033 = weight(_text_:23 in 2675) [ClassicSimilarity], result of:
          0.023199033 = score(doc=2675,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 2675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
        0.029423824 = weight(_text_:und in 2675) [ClassicSimilarity], result of:
          0.029423824 = score(doc=2675,freq=22.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.40608138 = fieldWeight in 2675, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
        0.023199033 = weight(_text_:23 in 2675) [ClassicSimilarity], result of:
          0.023199033 = score(doc=2675,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 2675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
        0.029657507 = weight(_text_:zur in 2675) [ClassicSimilarity], result of:
          0.029657507 = score(doc=2675,freq=6.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.2946205 = fieldWeight in 2675, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
        0.0057878923 = weight(_text_:in in 2675) [ClassicSimilarity], result of:
          0.0057878923 = score(doc=2675,freq=6.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.1301535 = fieldWeight in 2675, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
        0.032491274 = weight(_text_:der in 2675) [ClassicSimilarity], result of:
          0.032491274 = score(doc=2675,freq=26.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.4449227 = fieldWeight in 2675, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
      0.46666667 = coord(7/15)
    
    Abstract
    Das VZG-Projekt Colibri/DDC beschäftigt sich seit 2003 mit automatischen Verfahren zur Dewey-Dezimalklassifikation (Dewey Decimal Classification, kurz DDC). Ziel des Projektes ist eine einheitliche DDC-Erschließung von bibliografischen Titeldatensätzen und eine Unterstützung der DDC-Expert(inn)en und DDC-Laien, z. B. bei der Analyse und Synthese von DDC-Notationen und deren Qualitätskontrolle und der DDC-basierten Suche. Der vorliegende Bericht konzentriert sich auf die erste größere automatische DDC-Klassifizierung und erste automatische und intellektuelle Bewertung mit der Klassifizierungskomponente vc_dcl1. Grundlage hierfür waren die von der Deutschen Nationabibliothek (DNB) im November 2007 zur Verfügung gestellten 25.653 Titeldatensätze (12 Wochen-/Monatslieferungen) der Deutschen Nationalbibliografie der Reihen A, B und H. Nach Erläuterung der automatischen DDC-Klassifizierung und automatischen Bewertung in Kapitel 2 wird in Kapitel 3 auf den DNB-Bericht "Colibri_Auswertung_DDC_Endbericht_Sommer_2008" eingegangen. Es werden Sachverhalte geklärt und Fragen gestellt, deren Antworten die Weichen für den Verlauf der weiteren Klassifizierungstests stellen werden. Über das Kapitel 3 hinaus führende weitergehende Betrachtungen und Gedanken zur Fortführung der automatischen DDC-Klassifizierung werden in Kapitel 4 angestellt. Der Bericht dient dem vertieften Verständnis für die automatischen Verfahren.
    Date
    23. 2.2009 16:52:13
  8. Hellweg, H.; Krause, J.; Mandl, T.; Marx, J.; Müller, M.N.O.; Mutschke, P.; Strötgen, R.: Treatment of semantic heterogeneity in information retrieval (2001) 0.06
    0.06429256 = product of:
      0.16073139 = sum of:
        0.037118454 = weight(_text_:23 in 6560) [ClassicSimilarity], result of:
          0.037118454 = score(doc=6560,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.31678912 = fieldWeight in 6560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6560)
        0.037118454 = weight(_text_:23 in 6560) [ClassicSimilarity], result of:
          0.037118454 = score(doc=6560,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.31678912 = fieldWeight in 6560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6560)
        0.037118454 = weight(_text_:23 in 6560) [ClassicSimilarity], result of:
          0.037118454 = score(doc=6560,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.31678912 = fieldWeight in 6560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6560)
        0.027396431 = weight(_text_:zur in 6560) [ClassicSimilarity], result of:
          0.027396431 = score(doc=6560,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.27215877 = fieldWeight in 6560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0625 = fieldNorm(doc=6560)
        0.00756127 = weight(_text_:in in 6560) [ClassicSimilarity], result of:
          0.00756127 = score(doc=6560,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.17003182 = fieldWeight in 6560, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=6560)
        0.014418332 = weight(_text_:der in 6560) [ClassicSimilarity], result of:
          0.014418332 = score(doc=6560,freq=2.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.19743896 = fieldWeight in 6560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=6560)
      0.4 = coord(6/15)
    
    Abstract
    Nowadays, users of information services are faced with highly decentralised, heterogeneous document sources with different content analysis. Semantic heterogeneity occurs e.g. when resources using different systems for content description are searched using a simple query system. This report describes several approaches of handling semantic heterogeneity used in projects of the German Social Science Information Centre
    Footnote
    Der vollständige Text steht unter http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/ als PDF-Datei zur Verfügung
    Series
    IZ-Arbeitsbericht; Nr.23
  9. ¬The future of national bibliography (1997) 0.06
    0.06425679 = product of:
      0.19277035 = sum of:
        0.05567768 = weight(_text_:23 in 1715) [ClassicSimilarity], result of:
          0.05567768 = score(doc=1715,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.47518367 = fieldWeight in 1715, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=1715)
        0.05567768 = weight(_text_:23 in 1715) [ClassicSimilarity], result of:
          0.05567768 = score(doc=1715,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.47518367 = fieldWeight in 1715, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=1715)
        0.05567768 = weight(_text_:23 in 1715) [ClassicSimilarity], result of:
          0.05567768 = score(doc=1715,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.47518367 = fieldWeight in 1715, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=1715)
        0.008019937 = weight(_text_:in in 1715) [ClassicSimilarity], result of:
          0.008019937 = score(doc=1715,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18034597 = fieldWeight in 1715, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=1715)
        0.017717376 = product of:
          0.05315213 = sum of:
            0.05315213 = weight(_text_:22 in 1715) [ClassicSimilarity], result of:
              0.05315213 = score(doc=1715,freq=2.0), product of:
                0.114482574 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032692216 = queryNorm
                0.46428138 = fieldWeight in 1715, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1715)
          0.33333334 = coord(1/3)
      0.33333334 = coord(5/15)
    
    Date
    31.12.1998 21:31:23
    Footnote
    Rez. in: Select newsletter 1998, no.22, S.8 (P. Robinson)
  10. Lutz, B.; Moldaschl, M.: Expertensysteme und Industrielle Facharbeit : ein Gutachten über denkbare qualifikatorische Auswirkungen von Expertensystemen in der fertigenden Industrie erstellt im Auftrag der Enquete-Kommission "Technikfolgenabschätzung und -bewertung" des Deutschen Bundestages (1989) 0.06
    0.058895595 = product of:
      0.14723898 = sum of:
        0.02783884 = weight(_text_:23 in 3890) [ClassicSimilarity], result of:
          0.02783884 = score(doc=3890,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 3890, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3890)
        0.02783884 = weight(_text_:23 in 3890) [ClassicSimilarity], result of:
          0.02783884 = score(doc=3890,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 3890, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3890)
        0.028166508 = weight(_text_:und in 3890) [ClassicSimilarity], result of:
          0.028166508 = score(doc=3890,freq=14.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.38872904 = fieldWeight in 3890, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3890)
        0.02783884 = weight(_text_:23 in 3890) [ClassicSimilarity], result of:
          0.02783884 = score(doc=3890,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 3890, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3890)
        0.00694547 = weight(_text_:in in 3890) [ClassicSimilarity], result of:
          0.00694547 = score(doc=3890,freq=6.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.1561842 = fieldWeight in 3890, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3890)
        0.028610492 = weight(_text_:der in 3890) [ClassicSimilarity], result of:
          0.028610492 = score(doc=3890,freq=14.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3917808 = fieldWeight in 3890, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3890)
      0.4 = coord(6/15)
    
    Abstract
    Mit Schreiben vom 17.3.1988 wurde das Institut für Sozialwissenschaftliche Forschung von Herrn Dr. Rüttgers, MdB, Vorsitzender der Enquete-Kommission "Technikfolgenabschätzung und -bewertung" des Deutschen Bundestages, aufgefordert, ein Angebot für ein Gutachten vorzulegen, das "mögliche Auswirkungen des Einsatzes von Expertensystemen auf die Beschäftigten, die Bedürfnisse der Beschäftigten" in der fertigenden Industrie behandeln solle. Zwei weitere, gleichzeitig von anderen Wissenschaftlern zu erstellende Gutachten sollten einerseits gegenwärtige und zu erwartende Anwendungen von Expertensystemen in der fertigenden Industrie aufzeigen und andererseits Einsatzmöglichkeiten und denkbare Auswirkungen aus betrieblicher Perspektive klären. Dieses Gutachten wollte sich allerdings: - vor allem auf die qualifikatorischen Folgen der Einführung von Expertensystemen konzentrieren - und einer Vorgehensweise folgen, die keine prognostischen Aussagen, sondern lediglich eine Abschätzung des "Raumes" potentieller Wirkungen liefern konnte.
    Date
    14.12.2017 16:23:17
  11. Gastmeyer, M.: Thesaurus Wirtschaft : Entstehung, Konzeption und Aufbau (1994) 0.06
    0.058589973 = product of:
      0.21971239 = sum of:
        0.06495729 = weight(_text_:23 in 2729) [ClassicSimilarity], result of:
          0.06495729 = score(doc=2729,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.55438095 = fieldWeight in 2729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=2729)
        0.06495729 = weight(_text_:23 in 2729) [ClassicSimilarity], result of:
          0.06495729 = score(doc=2729,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.55438095 = fieldWeight in 2729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=2729)
        0.024840524 = weight(_text_:und in 2729) [ClassicSimilarity], result of:
          0.024840524 = score(doc=2729,freq=2.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.34282678 = fieldWeight in 2729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2729)
        0.06495729 = weight(_text_:23 in 2729) [ClassicSimilarity], result of:
          0.06495729 = score(doc=2729,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.55438095 = fieldWeight in 2729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=2729)
      0.26666668 = coord(4/15)
    
    Date
    8. 8.2003 10:30:23
  12. Hancock-Beaulieu, M.; McKenzie, L.; Irving, A.: Evaluative protocols for searching behaviour in online library catalogues (1991) 0.05
    0.054460924 = product of:
      0.20422846 = sum of:
        0.06495729 = weight(_text_:23 in 347) [ClassicSimilarity], result of:
          0.06495729 = score(doc=347,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.55438095 = fieldWeight in 347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=347)
        0.06495729 = weight(_text_:23 in 347) [ClassicSimilarity], result of:
          0.06495729 = score(doc=347,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.55438095 = fieldWeight in 347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=347)
        0.06495729 = weight(_text_:23 in 347) [ClassicSimilarity], result of:
          0.06495729 = score(doc=347,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.55438095 = fieldWeight in 347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=347)
        0.009356594 = weight(_text_:in in 347) [ClassicSimilarity], result of:
          0.009356594 = score(doc=347,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.21040362 = fieldWeight in 347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.109375 = fieldNorm(doc=347)
      0.26666668 = coord(4/15)
    
    Date
    23. 1.1999 19:52:29
  13. Buchbinder, R.; Weidemüller, H.U.; Tiedemann, E.: Biblio-Data, die nationalbibliographische Datenbank der Deutschen Bibliothek (1979) 0.05
    0.049660124 = product of:
      0.124150306 = sum of:
        0.023199033 = weight(_text_:23 in 4) [ClassicSimilarity], result of:
          0.023199033 = score(doc=4,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
        0.023199033 = weight(_text_:23 in 4) [ClassicSimilarity], result of:
          0.023199033 = score(doc=4,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
        0.021730933 = weight(_text_:und in 4) [ClassicSimilarity], result of:
          0.021730933 = score(doc=4,freq=12.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.29991096 = fieldWeight in 4, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
        0.023199033 = weight(_text_:23 in 4) [ClassicSimilarity], result of:
          0.023199033 = score(doc=4,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
        0.0057878923 = weight(_text_:in in 4) [ClassicSimilarity], result of:
          0.0057878923 = score(doc=4,freq=6.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.1301535 = fieldWeight in 4, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
        0.027034372 = weight(_text_:der in 4) [ClassicSimilarity], result of:
          0.027034372 = score(doc=4,freq=18.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.37019804 = fieldWeight in 4, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
      0.4 = coord(6/15)
    
    Abstract
    Die deutschen nationalbibliographische Datenbank Biblio-Data wird in Teil A mit ihren Grundlagen vorgestellt. Biblio-Data basiert auf dem Information-Retrieval-System STAIRS von IBM, das durch Zusatzprogramme der ZMD verbessert wurde. Das Hauptgewicht dieses Beitrags liegt auf der Erörterung des Biblio-Data-Konzepts, nach dem die Daten der Deutschen Bibliographie retrievalgerecht aufbereitet und eingegeben werden. Auf Eigenarten, Probleme und Mängel, die daraus entstehen, dass Biblio-Data auf nationalbibliographischen Daten aufbaut, wird ausführlich eingegangen. Zwei weitere Beiträge zeigen an einigen Beispielen die vielfältigen Suchmöglichkeiten mit Biblio-Data, um zu verdeutlichen, dass damit nicht nur viel schenellere, sondern auch bessere Recherchen ausgeführt werden können. Teil B weist nach, dass Biblio-Data weder die Innhaltsanalyse noch die Zuordnung von schlagwörtern automatisieren kann. Im derzeitigen Einsatzstadium fällt Biblio-Data die Aufgabe zu, die weiterhin knventionall-intellektuell auszuführende Sacherschließung durch retrospektive Recherchen, insbesonderr durch den wesentlich erleichterten Zugriff auf frühere Indexierungsergebnisse, zu unterstützen. Teil C schildert die praktische Arbeit mit Biblio-Data bei bibliographischen Ermittlungen und Literaturzusammenstellunen und kommt zu dem Ergebnis, dass effektive und bibliographische Arbeit aus der sinnvollen Kombination von Datenbank-Retrieval und konventioneller Suche bestehet.
    Content
    Enthält die Beiträge: Buchbinder, R.: Grundlagen von Biblio-Data (S.11-68); Weidemüller, H.U.: Biblio-Data in der Sacherschließung der Deutschen Bibliothek (S.69-105); Tiedemann, E.: Biblio-Data in der bibliographischen Auskunft der Deutschen Bibliothek (S.107-123)
    Date
    23. 2.2012 20:40:04
  14. Freigang, K.-H.; Mayer, F.; Schmitz, K.-D.: Micro- and minicomputer-based terminology databases in Europe (1991) 0.05
    0.047566652 = product of:
      0.17837493 = sum of:
        0.05567768 = weight(_text_:23 in 920) [ClassicSimilarity], result of:
          0.05567768 = score(doc=920,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.47518367 = fieldWeight in 920, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=920)
        0.05567768 = weight(_text_:23 in 920) [ClassicSimilarity], result of:
          0.05567768 = score(doc=920,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.47518367 = fieldWeight in 920, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=920)
        0.05567768 = weight(_text_:23 in 920) [ClassicSimilarity], result of:
          0.05567768 = score(doc=920,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.47518367 = fieldWeight in 920, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=920)
        0.011341906 = weight(_text_:in in 920) [ClassicSimilarity], result of:
          0.011341906 = score(doc=920,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.25504774 = fieldWeight in 920, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=920)
      0.26666668 = coord(4/15)
    
    Abstract
    In the present study, the terminology management systems offered on the European market at the end of 1990 are described
    Date
    17.11.1997 20:31:23
  15. Dierickx, H. (Bearb.); Hopkinson, A. (Bearb.): UNISIST reference manual for machine-readable bibliographic description (1986) 0.04
    0.044542145 = product of:
      0.22271073 = sum of:
        0.07423691 = weight(_text_:23 in 2033) [ClassicSimilarity], result of:
          0.07423691 = score(doc=2033,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.63357824 = fieldWeight in 2033, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=2033)
        0.07423691 = weight(_text_:23 in 2033) [ClassicSimilarity], result of:
          0.07423691 = score(doc=2033,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.63357824 = fieldWeight in 2033, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=2033)
        0.07423691 = weight(_text_:23 in 2033) [ClassicSimilarity], result of:
          0.07423691 = score(doc=2033,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.63357824 = fieldWeight in 2033, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=2033)
      0.2 = coord(3/15)
    
    Date
    7. 1.2002 9:31:23
  16. Realizing the information future : the Internet and beyond (1994) 0.04
    0.03890066 = product of:
      0.14587747 = sum of:
        0.046398066 = weight(_text_:23 in 5422) [ClassicSimilarity], result of:
          0.046398066 = score(doc=5422,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.3959864 = fieldWeight in 5422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=5422)
        0.046398066 = weight(_text_:23 in 5422) [ClassicSimilarity], result of:
          0.046398066 = score(doc=5422,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.3959864 = fieldWeight in 5422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=5422)
        0.046398066 = weight(_text_:23 in 5422) [ClassicSimilarity], result of:
          0.046398066 = score(doc=5422,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.3959864 = fieldWeight in 5422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=5422)
        0.0066832816 = weight(_text_:in in 5422) [ClassicSimilarity], result of:
          0.0066832816 = score(doc=5422,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.15028831 = fieldWeight in 5422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=5422)
      0.26666668 = coord(4/15)
    
    Date
    9. 5.1996 17:23:05
    Footnote
    Rez. in: Information processing and management. 32(1996) no.1, S.120-122; Managing information 2(1995) no.4, S.46 (A. Foster); Library and information science research 17(1995) no.4, S.419-420 (J. Liu)
  17. Hochschule im digitalen Zeitalter : Informationskompetenz neu begreifen - Prozesse anders steuern (2012) 0.04
    0.0371501 = product of:
      0.11145029 = sum of:
        0.03252388 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.03252388 = score(doc=506,freq=42.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.44886562 = fieldWeight in 506, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.030630141 = weight(_text_:zur in 506) [ClassicSimilarity], result of:
          0.030630141 = score(doc=506,freq=10.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.30428275 = fieldWeight in 506, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.007072921 = weight(_text_:in in 506) [ClassicSimilarity], result of:
          0.007072921 = score(doc=506,freq=14.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.15905021 = fieldWeight in 506, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.035317555 = weight(_text_:der in 506) [ClassicSimilarity], result of:
          0.035317555 = score(doc=506,freq=48.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.4836247 = fieldWeight in 506, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.005905792 = product of:
          0.017717376 = sum of:
            0.017717376 = weight(_text_:22 in 506) [ClassicSimilarity], result of:
              0.017717376 = score(doc=506,freq=2.0), product of:
                0.114482574 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032692216 = queryNorm
                0.15476047 = fieldWeight in 506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.33333334 = coord(1/3)
      0.33333334 = coord(5/15)
    
    Abstract
    Die rasanten Veränderungen der Kommunikation und der daraus resultierende soziale und kulturelle Wandel betreffen auch die Hochschulen in besonderer Weise. Hochschulleitungen haben hier bereits schon reagiert, sie stehen aber weiterhin vor der Herausforderung, auf die Veränderungen zu reagieren und entsprechende Maßnahmen zu ergreifen. Es bedarf nicht nur einer Harmonisierung des Informationsmanagements und der Informationsinfrastruktur, sondern integrativ auch der Stärkung der Informationskompetenz auf allen Ebenen der Organisation. Da diese Herausforderung das gesamte System Hochschule betrifft, wird der Begriff der Informationskompetenz hier gegenüber seiner herkömmlichen Verwendung deutlich ausgeweitet: Es wird nicht nur die akademische Informationskompetenz betrachtet, die in Lehre und Forschung zum Tragen kommt, sondern auch die organisationsbezogene Informationskompetenz, die sich auf alle hochschulinternen Abläufe bezieht. Zugleich geht es in der Empfehlung nicht, wie es der Titelbegriff "Hochschule im digitalen Zeitalter" nahe legen könnte, um Konzepte wie das einer Netzhochschule.
    Zur Stärkung der Informationskompetenz der Studierenden ist es erforderlich, dass entsprechende Lehrangebote ausgebaut, stärker als bisher curricular verankert und möglichst flächendeckend angeboten werden. Die unterschiedlichen, von verschiedenen Akteuren zur Verfügung gestellten Lehrangebote zur Vermittlung von Informationskompetenz sollten mehr als bisher aufeinander abgestimmt und miteinander verschränkt werden. Um die Informationskompetenz aller Lehrenden zu sichern, sollten diese mehr als bisher entsprechende Fortbildungs- und Trainingsangebote wahrnehmen. Die Hochschulleitungen sollten dafür Sorge tragen, dass entsprechende attraktive Angebote zur Verfügung gestellt werden. Auch die Informationskompetenz der Forschenden muss ausgebaut werden, indem entsprechende Qualifizierungsangebote wahrgenommen und Qualifikationsmaßnahmen stärker als bisher z. B. in den Curricula der Graduierten- und Postgraduiertenausbildung verankert werden. Forschende können ihre Informationskompetenz zugleich im Rahmen von Kompetenznetzwerken stärken. Dies gilt es entsprechend seitens der Hochschulleitungen zu unterstützen. Die Hochschulleitungen sollten Strukturen und Prozesse im Rahmen eines hochschulinternen "Governance"-Prozesses verändern können. Innerhalb der Hochschulleitung muss daher eine Person für die Themen "Informationsinfrastruktur" und "Stärkung der Informationskompetenz" verantwortlich und Ansprechpartner sein. Was die Dienstleistungen angeht, wird insbesondere empfohlen, dass die Mitarbeiterinnen und Mitarbeiter der Hochschulbibliotheken und Rechenzentren ihre Kompetenzen erweitern, um die Forscherinnen und Forscher beim Datenmanagement besser unterstützen zu können.
    Die HRK sieht sich künftig für die bundesweite strategische Koordination des Handlungsfeldes "Informationskompetenz" verantwortlich. Um das Zusammenwirken an der Schnittstelle zwischen den Fakultäten bzw. Fachbereichen einerseits und den Bibliotheken und Rechenzentren andererseits zu verbessern, richtet die HRK eine Arbeitsgruppe ein, die Prozesse an der o. g. Schnittstelle jeweils mit Blick auf ausgewählte Fächer in regelmäßigen Zeitabständen begleitet und Vorschläge zur Verbesserung der Zusammenarbeit formuliert. Die Politik in Bund und Ländern sollte ihren Anteil am Aufbau solcher Strukturen leisten und die notwendigen Maßnahmen finanziell unterstützen.
    Date
    8.12.2012 17:22:26
    Issue
    Entschließung der 13. Mitgliederversammlung der HRK am 20. November 2012 in Göttingen.
  18. Nentwig, L.: Semantische Interoperabilität : Bd.1: Eine technische Einführung (2010) 0.03
    0.03463359 = product of:
      0.103900775 = sum of:
        0.028423464 = weight(_text_:software in 4847) [ClassicSimilarity], result of:
          0.028423464 = score(doc=4847,freq=2.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.21915624 = fieldWeight in 4847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
        0.03073218 = weight(_text_:und in 4847) [ClassicSimilarity], result of:
          0.03073218 = score(doc=4847,freq=24.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.42413816 = fieldWeight in 4847, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
        0.01712277 = weight(_text_:zur in 4847) [ClassicSimilarity], result of:
          0.01712277 = score(doc=4847,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.17009923 = fieldWeight in 4847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
        0.007472136 = weight(_text_:in in 4847) [ClassicSimilarity], result of:
          0.007472136 = score(doc=4847,freq=10.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.16802745 = fieldWeight in 4847, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
        0.020150231 = weight(_text_:der in 4847) [ClassicSimilarity], result of:
          0.020150231 = score(doc=4847,freq=10.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.27592933 = fieldWeight in 4847, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
      0.33333334 = coord(5/15)
    
    Abstract
    Jede Organisation, sei es in der freien Wirtschaft oder der öffentlichen Verwaltung, nutzt heute Informationssysteme zur effizienten Abwicklung der Geschäftsprozesse. Um Kooperationen zwischen den Organisationen zu ermöglichen, steigt dabei in zunehmendem Maße die Bedeutung organisationsübergreifender und medienbruchfreier Geschäftsprozesse. Grundlage für einen solchen Datenaustausch ist ein Vorgehen, das Fehlinterpretationen und inhaltliche Missverständnisse bei der Verwendung von Begriffen, Datenstrukturen, Schreibkonventionen etc. zu vermeiden hilft und semantische Interoperabilität ermöglicht. Erst die Semantische Interoperabilität gewährleistet einen effizienten organisationsinternen Datenaustausch und eine effiziente Datenintegration mit externen Kooperationsteilnehmern. Die Arbeit an praktikablen Konzepten und Lösungen steht im Zentrum des Arbeitsgebietes »Semantic Interoperability Engineering« (SIE). In diesem Whitepaper werden dafür zentrale Begriffe und Konzepte eingeführt. Sie dienen als Basis für eine weitere Beschäftigung mit dem Thema.
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
    Imprint
    Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
  19. Wehling, E.: Framing-Manual : Unser gemeinsamer freier Rundfunk ARD (2019) 0.03
    0.03255151 = product of:
      0.09765452 = sum of:
        0.036578607 = weight(_text_:und in 4997) [ClassicSimilarity], result of:
          0.036578607 = score(doc=4997,freq=34.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.50482535 = fieldWeight in 4997, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.01712277 = weight(_text_:zur in 4997) [ClassicSimilarity], result of:
          0.01712277 = score(doc=4997,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.17009923 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.0066832816 = weight(_text_:in in 4997) [ClassicSimilarity], result of:
          0.0066832816 = score(doc=4997,freq=8.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.15028831 = fieldWeight in 4997, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.029887622 = weight(_text_:der in 4997) [ClassicSimilarity], result of:
          0.029887622 = score(doc=4997,freq=22.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.40926933 = fieldWeight in 4997, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.00738224 = product of:
          0.02214672 = sum of:
            0.02214672 = weight(_text_:22 in 4997) [ClassicSimilarity], result of:
              0.02214672 = score(doc=4997,freq=2.0), product of:
                0.114482574 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032692216 = queryNorm
                0.19345059 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
      0.33333334 = coord(5/15)
    
    Abstract
    Die ARD hat ein Gutachten in Auftrag gegeben, um die eigene Kommunikation zu verbessern. Das Gutachten wurde bisher nicht veröffentlicht, ist aber bereits Teil einer öffentlichen Debatte. Wir veröffentlichen das Gutachten, damit sich alle Beitragszahlende aus der Originalquelle informieren können und an der Debatte informierter teilhaben können. [Quelle: https://netzpolitik.org/2019/wir-veroeffentlichen-das-framing-gutachten-der-ard/].
    Content
    Vgl. auch den Kommentar in Open Password , Nr.157 vom 22.02.2019: "Vor wenigen Tagen wurde das "Framing-Manual" der Linguistin Elisabeth Wehling bekannt, das sie für 120.000 Euro für die ARD erarbeitet hat und fortlaufend in Workshops für Mitarbeiter eingesetzt wird. Da aus Frau Wehlings Sicht "objektives, faktenbegründetes und rationales Denken" nicht möglich ist, kann es im öffentlichen Streit der Meinungen nur mehr darum gehen, die eigenen Sprachregelungen durchzusetzen und die Rezipienten über Emotionalisierungen und implizite moralische Bewertungen über den Tisch zu ziehen. So sollten Bürger, die den Zwangsbeitrag für Rundfunk und Fernsehen nicht zahlen wollen, als "demokratieferne, wortbrüchige und illoyale Beitragshinterzieher" gebrandmarkt werden und sind "unserem gemeinsamen freien Rundfunk ARD" die "medienkapitalistischen Heuschrecken" entgegenzustellen. Derweil berichtet Meedia von einem zweiten Fall Relotius, einem freien Journalisten, der für die Süddeutsche Zeitung, die Zeit und den Spiegel geschrieben hat und soeben mit einer frei erfundenen Geschichte von der SZ überführt wurde. Das "Framing-Manual" erscheint mir als ein noch größerer Skandal als der Fall Claas Relotius mit seinen vielen erfundenen Geschichten im Spiegel und praktisch der gesamten weiteren "Qualitätspresse", weil die Spitzen der ARD und mit ihnen die nachgeordneten Strukturen das Manual von Frau Wehling willkommen geheißen haben und weiterhin zur Indoktrination ihrer Mitarbeiter verwenden. Fake News und die damit verbundene Kriegserklärung an Wahrheit und Wissenschaft kommen nicht von Donald Trump, sie werden selbst generiert und breiten sich ungehindert mit Wissen und Willen der Verantwortlichen in unserem "Qualitätsfernsehen" aus." (W. Bredemeier)
    Date
    22. 2.2019 9:26:20
  20. Hegner, M.: Methode zur Evaluation von Software (2003) 0.03
    0.031419307 = product of:
      0.117822394 = sum of:
        0.03410816 = weight(_text_:software in 2499) [ClassicSimilarity], result of:
          0.03410816 = score(doc=2499,freq=2.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.2629875 = fieldWeight in 2499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
        0.018439308 = weight(_text_:und in 2499) [ClassicSimilarity], result of:
          0.018439308 = score(doc=2499,freq=6.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.2544829 = fieldWeight in 2499, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
        0.04109465 = weight(_text_:zur in 2499) [ClassicSimilarity], result of:
          0.04109465 = score(doc=2499,freq=8.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.40823817 = fieldWeight in 2499, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
        0.024180276 = weight(_text_:der in 2499) [ClassicSimilarity], result of:
          0.024180276 = score(doc=2499,freq=10.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3311152 = fieldWeight in 2499, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
      0.26666668 = coord(4/15)
    
    Abstract
    Der Arbeitsbericht befasst sich mit den zwei unterschiedlichen Usability Methoden, dem Usability Test und den Usability Inspektionsmethoden. Bei den Usability Inspektionsmethoden wird die Benutzungsschnittstelle durch Ergonomieexperten evaluiert. Diese Methoden umfassen die Heuristische Evaluation, standard inspection und cognitive walkthrough, etc. Der Vorteil dieser Inspektionsmethoden liegt darin, dass sie weniger zeitintensiv und kostengünstiger als ein Usability Test sind. Der Usability Test wird im Gegensatz zu den Usability Inspektionsmethoden mit repräsentativen Versuchspersonen durchgeführt. Er ist ein effizientes Mittel um Benutzungsschnittstellen zu evaluieren oder auf deren Benutzungsfreundlichkeit zu überprüfen. Des weiteren erläutert der Arbeitsbericht die verschiedenen Usability Testmethoden sowie die Basiselemente zur Durchführung eines Usability Tests. Abschließend wird noch auf die Varianzanalyse (Analysis of Variance, ANOVA) als ein statistisches Verfahren zur Überprüfung von Mittelwertsunterschieden näher eingegangen.
    Footnote
    Der vollständige Text steht unter http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/ als PDF-Datei zur Verfügung

Authors

Languages

  • e 164
  • d 92

Types

  • el 30
  • m 5
  • s 4
  • x 1
  • More… Less…