Search (660 results, page 1 of 33)

  • × type_ss:"x"
  1. Werther, S.: Bei Anruf Film : Strukturen, Methoden und Chancen produktionsintegrierter Filmrecherche im internationalen Vergleich (1997) 0.15
    0.15460236 = product of:
      0.24736378 = sum of:
        0.052830297 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.052830297 = score(doc=1498,freq=34.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.6057904 = fieldWeight in 1498, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1498)
        0.099063665 = weight(_text_:methoden in 1498) [ClassicSimilarity], result of:
          0.099063665 = score(doc=1498,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.48582888 = fieldWeight in 1498, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=1498)
        0.031880606 = weight(_text_:der in 1498) [ClassicSimilarity], result of:
          0.031880606 = score(doc=1498,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.36271852 = fieldWeight in 1498, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1498)
        0.052830297 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.052830297 = score(doc=1498,freq=34.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.6057904 = fieldWeight in 1498, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1498)
        0.010758916 = product of:
          0.032276746 = sum of:
            0.032276746 = weight(_text_:29 in 1498) [ClassicSimilarity], result of:
              0.032276746 = score(doc=1498,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23319192 = fieldWeight in 1498, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1498)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    In einer explorartiven Studie werden Arbeitsbedingungen, -strukturen und -methoden englischer und U.S.-amerikanischer Free lance film researcher beschrieben und vor diesem Hintergrund die Möglichkeiten des Einsatzes freiberuflicher Filmrechercheure auch im Rahmen bundesdeutscher Film- und Fernsehproduktion beurteilt. Der erste Teil der Untersuchung befaßt sich mit der Notwendigkeit produktionsintegrierter Film- und Fernsehrecherche und stellt typische Aufgaben- und Verantwortungsbereiche von Filmresearchern vor. Auf der Grundlage einer leitfadengestützten, standardisierten Tiefenbefragung von 8 englischen und 8 amerikanischen Filmrechercheuren sowie von Recherchemitarbeitern in 3 deutschen Fernsehredaktionen werden zunächst die politisch-rechtlichen, medienwirtschaftlichen und quellenbezogenen Rahmenbedingungen geschildert, unter denen die anglo-amerikanischen Filmrechercheure arbeiten. Vergleichend werden deren Qulifikationen und Voraussetzungen charakterisiert, Aufgaben und Arbeitsfelder erläutert, es werden arbeitsrechtliche Grundlagen verdeutlicht sowie die besonderen Arbeitsmethoden und Hilfsmittel von Filmrechercheuren vorgestellt. Ähnlichkeiten und Unterschiede zwischen der produktionsintegrierten Filmrecherche in den USA und in Großbritannien werden der Situation von recherchierenden Mitarbeitern in deutschen Redaktionen gegenübergestellt. Zuletzt weist die Studie die ablauforganisatorischen, produktionsinhaltlichen und ökonomischen Vorteile nach, die sich durch den Einsatz von freiberuflichen Filmrechercheuren in bundesrepublikanischen Sendeanstalten und Fernsehproduktionsfirmen erzielen lassen
    Date
    2. 1.1999 13:07:29
  2. Bös, K.: Aspektorientierte Inhaltserschließung von Romanen und Bildern : ein Vergleich der Ansätze von Annelise Mark Pejtersen und Sara Shatford (2012) 0.13
    0.12749352 = product of:
      0.25498703 = sum of:
        0.036988612 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.036988612 = score(doc=400,freq=24.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.42413816 = fieldWeight in 400, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=400)
        0.15444262 = weight(_text_:methoden in 400) [ClassicSimilarity], result of:
          0.15444262 = score(doc=400,freq=14.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.7574189 = fieldWeight in 400, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=400)
        0.026567172 = weight(_text_:der in 400) [ClassicSimilarity], result of:
          0.026567172 = score(doc=400,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.30226544 = fieldWeight in 400, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=400)
        0.036988612 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.036988612 = score(doc=400,freq=24.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.42413816 = fieldWeight in 400, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=400)
      0.5 = coord(4/8)
    
    Abstract
    Für die inhaltliche Erschließung von Sach- und Fachliteratur stehen heutzutage etablierte Verfahren und Standards zur Verfügung. Anders verhält es sich dagegen mit der Erschließung von Schöner Literatur und Bildern. Beide Medien sind sehr verschieden und haben doch eines gemeinsam. Sie lassen sich mit den Regeln für Sach- und Fachliteratur nicht zufriedenstellend inhaltlich erschließen. Dieses Problem erkannten in den 1970er und 80er Jahren beide Autoren, deren Methoden ich hier verglichen habe. Annelise Mark Pejtersen bemühte sich um eine Lösung für die Schöne Literatur und wählte dabei einen empirischen Ansatz. Sara Shatford versuchte durch theoretische Überlegungen eine Lösung für Bilder zu erarbeiten. Der empirische wie der theoretische Ansatz führten zu Methoden, die das jeweilige Medium unter verschiedenen Aspekten betrachten. Diese Aspekten basieren in beiden Fällen auf denselben Fragen. Dennoch unterscheiden sie sich stark voneinander sowohl im Hinblick auf die Inhalte, die sie aufnehmen können, als auch hinsichtlich ihrer Struktur. Eine Anwendung einer der Methoden auf das jeweils andere Medium erscheint daher nicht sinnvoll. In dieser Arbeit werden die Methoden von Pejtersen und Shatford zunächst einzeln erläutert. Im Anschluss werden die Aspekte beider Methoden vergleichend gegenübergestellt. Dazu werden ausgewählte Beispiele mit beiden Methoden erschlossen. Abschließend wird geprüft, ob die wechselseitige Erschließung, wie sie im Vergleich angewendet wurde, in der Praxis sinnvoll ist und ob es Medien gibt, deren Erschließung mit beiden Methoden interessant wäre.
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  3. Sommer, M.: Automatische Generierung von DDC-Notationen für Hochschulveröffentlichungen (2012) 0.12
    0.12152986 = product of:
      0.19444779 = sum of:
        0.03624129 = weight(_text_:und in 587) [ClassicSimilarity], result of:
          0.03624129 = score(doc=587,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41556883 = fieldWeight in 587, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.070048586 = weight(_text_:methoden in 587) [ClassicSimilarity], result of:
          0.070048586 = score(doc=587,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 587, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.04115769 = weight(_text_:der in 587) [ClassicSimilarity], result of:
          0.04115769 = score(doc=587,freq=20.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.46826762 = fieldWeight in 587, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.03624129 = weight(_text_:und in 587) [ClassicSimilarity], result of:
          0.03624129 = score(doc=587,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41556883 = fieldWeight in 587, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.010758916 = product of:
          0.032276746 = sum of:
            0.032276746 = weight(_text_:29 in 587) [ClassicSimilarity], result of:
              0.032276746 = score(doc=587,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23319192 = fieldWeight in 587, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=587)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
    Content
    Vgl. unter: http://opus.bsz-bw.de/fhhv/volltexte/2012/397/pdf/Bachelorarbeit_final_Korrektur01.pdf. Bachelorarbeit, Hochschule Hannover, Fakultät III - Medien, Information und Design, Abteilung Information und Kommunikation, Studiengang Informationsmanagement
    Date
    29. 1.2013 15:44:43
    Imprint
    Hannover : Hochschule Hannover, Fakultät III - Medien, Information und Design, Abteilung Information und Kommunikation
  4. Walther, R.: Möglichkeiten und Grenzen automatischer Klassifikationen von Web-Dokumenten (2001) 0.12
    0.11593488 = product of:
      0.23186976 = sum of:
        0.039550725 = weight(_text_:und in 1562) [ClassicSimilarity], result of:
          0.039550725 = score(doc=1562,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 1562, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.11557427 = weight(_text_:methoden in 1562) [ClassicSimilarity], result of:
          0.11557427 = score(doc=1562,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.56680036 = fieldWeight in 1562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.03719404 = weight(_text_:der in 1562) [ClassicSimilarity], result of:
          0.03719404 = score(doc=1562,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4231716 = fieldWeight in 1562, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.039550725 = weight(_text_:und in 1562) [ClassicSimilarity], result of:
          0.039550725 = score(doc=1562,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 1562, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
      0.5 = coord(4/8)
    
    Abstract
    Automatische Klassifikationen von Web- und andern Textdokumenten ermöglichen es, betriebsinterne und externe Informationen geordnet zugänglich zu machen. Die Forschung zur automatischen Klassifikation hat sich in den letzten Jahren intensiviert. Das Resultat sind verschiedenen Methoden, die heute in der Praxis einzeln oder kombiniert für die Klassifikation im Einsatz sind. In der vorliegenden Lizenziatsarbeit werden neben allgemeinen Grundsätzen einige Methoden zur automatischen Klassifikation genauer betrachtet und ihre Möglichkeiten und Grenzen erörtert. Daneben erfolgt die Präsentation der Resultate aus einer Umfrage bei Anbieterrfirmen von Softwarelösungen zur automatische Klassifikation von Text-Dokumenten. Die Ausführungen dienen der myax internet AG als Basis, ein eigenes Klassifikations-Produkt zu entwickeln
    Footnote
    Lizenziatsarbeit an der Rechts- und Wirtschaftswissenschaftlichen Fakultät der Universität Bern, Institut für Wirtschaftsinformatik (Prof. G. Knolmayer)
    Imprint
    Bern : Rechts- und Wirtschaftswissenschaftlichen Fakultät
  5. Krüger, K.: Suchmaschinen-Spamming : Vergleichend-kritische Analysen zur Wirkung kommerzieller Strategien der Website-Optimierung auf das Ranking in www-Suchmaschinen (2004) 0.11
    0.113218725 = product of:
      0.22643745 = sum of:
        0.042281505 = weight(_text_:und in 3700) [ClassicSimilarity], result of:
          0.042281505 = score(doc=3700,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4848303 = fieldWeight in 3700, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
        0.11557427 = weight(_text_:methoden in 3700) [ClassicSimilarity], result of:
          0.11557427 = score(doc=3700,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.56680036 = fieldWeight in 3700, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
        0.02630016 = weight(_text_:der in 3700) [ClassicSimilarity], result of:
          0.02630016 = score(doc=3700,freq=6.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.29922754 = fieldWeight in 3700, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
        0.042281505 = weight(_text_:und in 3700) [ClassicSimilarity], result of:
          0.042281505 = score(doc=3700,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4848303 = fieldWeight in 3700, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
      0.5 = coord(4/8)
    
    Abstract
    Interne und externe Manipulationen zwischen erlaubter Website-Optimierung und Spam-Methoden mindern die Qualität der Ergebnislisten, und besonders kommerziellen Anbieter ist eine Positionierung unter den TopTen wichtig, weil nur die wenigsten Suchmaschinennutzer mehr als die ersten zehn, maximal zwanzig Treffer beachten. Spamming soll eine Listung unter den ersten Rangpositionen sichern, aber auch Manipulationen werden eingesetzt, um Indizes der Suchmaschinen mit irrelevanten Ergebnissen qualitativ zu verschlechtern. Praktisch analysiert werden AItaVista, Fireball, Google und Lycos auf valide und invalide Treffer, auf Anzahl vermutlich manipulierter Seiten, auf häufigste Spam-Methoden, auf Anteile kommerzieller Links und auf pornographische Seiten.
    Footnote
    Diplomarbeit im Studiengang Bibliotheks- und Informationsmanagement
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  6. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.11
    0.11315996 = product of:
      0.22631992 = sum of:
        0.024160858 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.024160858 = score(doc=4499,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.13208488 = weight(_text_:methoden in 4499) [ClassicSimilarity], result of:
          0.13208488 = score(doc=4499,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.64777184 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.04591332 = weight(_text_:der in 4499) [ClassicSimilarity], result of:
          0.04591332 = score(doc=4499,freq=14.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.5223744 = fieldWeight in 4499, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.024160858 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.024160858 = score(doc=4499,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
      0.5 = coord(4/8)
    
    Abstract
    Mit dieser Diplomarbeit soll vor allem ein Überblick über den derzeitigen Stand der Technik der Methoden der Semantischen Netze, der Fuzzy-Logik sowie der regelbasierten Wissensrepräsentation und -verarbeitung gegeben werden. Anhand praktischer Anwendungen wird dargestellt, in welchen Bereichen diese Techniken eingesetzt werden und welcher Nutzen sich hieraus ergibt.
    Content
    Diplomarbeit zur Erlangung des Grades eines Diplom-Wirtschaftsinformatikers (FH) der Hochschule Wismar. Vgl.: http://www.wi.hs-wismar.de/~cleve/vorl/projects/da/DA-FS-Haas.pdf.
  7. Weidler, D.: Usability-Inspektionen und Usability-Tests : Komplementäre Methoden für die Evaluation eines E-Learning-Moduls (2004) 0.11
    0.111380674 = product of:
      0.22276135 = sum of:
        0.036616858 = weight(_text_:und in 3706) [ClassicSimilarity], result of:
          0.036616858 = score(doc=3706,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41987535 = fieldWeight in 3706, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3706)
        0.11557427 = weight(_text_:methoden in 3706) [ClassicSimilarity], result of:
          0.11557427 = score(doc=3706,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.56680036 = fieldWeight in 3706, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3706)
        0.033953357 = weight(_text_:der in 3706) [ClassicSimilarity], result of:
          0.033953357 = score(doc=3706,freq=10.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.38630107 = fieldWeight in 3706, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3706)
        0.036616858 = weight(_text_:und in 3706) [ClassicSimilarity], result of:
          0.036616858 = score(doc=3706,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41987535 = fieldWeight in 3706, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3706)
      0.5 = coord(4/8)
    
    Abstract
    Benutzer von E-Learning-Produkten sind einer Doppelbeiastung ausgesetzt: Aufnehmen von Lernstoff und Erlernen des Umgangs mit Programmen. Der Gefahr, Benutzer einer kognitiven Überlastung auszusetzen, kann eine gute Usability entgegenwirken. Es werden Benutzerfreundlichkeit von Teilen eines E-Learning-Moduls »Automatische Inhaltserschließung« untersucht mit analytischen Inspektionsmethoden und empirischen Usability-Tests. Da der Designprozeß nicht iterativ gestaltet wurde, dienen die Ergebnisse aus den Inspektionen zur Vorbereitung der Tests. Die Testergebnisse werden genutzt, um Erkenntnisse der expertenorientierten Methoden zu verifizieren. Es wird analysiert, ob die Inspektionsmethoden Probleme aufdecken, die auch von den Teilnehmern an den Usability-Tests als solche empfunden wurden. Zur praktischen Umsetzung der Lösungsansätze werden Usability-Reports verfaßt und ein Storyboard konzipiert.
    Footnote
    Diplomarbeit im Studiengang Bibliotheks- und Informationsmanagement
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  8. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.11
    0.11066399 = product of:
      0.22132798 = sum of:
        0.124989055 = product of:
          0.37496716 = sum of:
            0.37496716 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.37496716 = score(doc=973,freq=2.0), product of:
                0.33358997 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.039347667 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.02562646 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.02562646 = score(doc=973,freq=2.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.04508599 = weight(_text_:der in 973) [ClassicSimilarity], result of:
          0.04508599 = score(doc=973,freq=6.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.5129615 = fieldWeight in 973, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.02562646 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.02562646 = score(doc=973,freq=2.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(4/8)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
    Footnote
    Inauguraldissertation zur Erlangung der Doktorwürde Vorgelegt der Philosophischen Fakultät I der Humboldt-Universität zu Berlin.
  9. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.11
    0.109827265 = product of:
      0.17572363 = sum of:
        0.030799175 = weight(_text_:und in 548) [ClassicSimilarity], result of:
          0.030799175 = score(doc=548,freq=26.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3531656 = fieldWeight in 548, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.026030406 = weight(_text_:der in 548) [ClassicSimilarity], result of:
          0.026030406 = score(doc=548,freq=18.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.29615843 = fieldWeight in 548, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.08092225 = weight(_text_:sprach in 548) [ClassicSimilarity], result of:
          0.08092225 = score(doc=548,freq=2.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.30147895 = fieldWeight in 548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.030799175 = weight(_text_:und in 548) [ClassicSimilarity], result of:
          0.030799175 = score(doc=548,freq=26.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3531656 = fieldWeight in 548, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.00717261 = product of:
          0.02151783 = sum of:
            0.02151783 = weight(_text_:29 in 548) [ClassicSimilarity], result of:
              0.02151783 = score(doc=548,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.15546128 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    Enthält die Kapitel: 2: Wissensrepräsentation 2.1 Deklarative Wissensrepräsentation 2.2 Klassifikationen des BMM 2.3 Thesauri und Ontologien: existierende kommerzielle Software 2.4 Erstellung eines Thesaurus im Rahmen des LeWi-Projektes 3: Analysekomponenten 3.1 Sprachliche Phänomene in der maschinellen Textanalyse 3.2 Analysekomponenten: Lösungen und Forschungsansätze 3.3 Die Analysekomponenten im LeWi-Projekt 4: Information Retrieval 4.1 Grundlagen des Information Retrieval 4.2 Automatische Indexierungsmethoden und -verfahren 4.3 Automatische Indexierung des BMM im Rahmen des LeWi-Projektes 4.4 Suchstrategien und Suchablauf im LeWi-Kontext
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
    Date
    29. 3.2009 11:11:45
    Series
    Saarbrücker Beiträge zur Sprach- und Translationswissenschaft; Bd.8
  10. Jäger-Dengler-Harles, I.: Informationsvisualisierung und Retrieval im Fokus der Infromationspraxis (2013) 0.11
    0.10960193 = product of:
      0.1753631 = sum of:
        0.031385876 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.031385876 = score(doc=1709,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.35989314 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.070048586 = weight(_text_:methoden in 1709) [ClassicSimilarity], result of:
          0.070048586 = score(doc=1709,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 1709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.031880606 = weight(_text_:der in 1709) [ClassicSimilarity], result of:
          0.031880606 = score(doc=1709,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.36271852 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.031385876 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.031385876 = score(doc=1709,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.35989314 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.010662131 = product of:
          0.031986393 = sum of:
            0.031986393 = weight(_text_:22 in 1709) [ClassicSimilarity], result of:
              0.031986393 = score(doc=1709,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23214069 = fieldWeight in 1709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1709)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Methoden und Techniken der Informationsvisualisierung werden seit ungefähr zwanzig Jahren im Bereich der Informationssuche eingesetzt. In dieser Literaturstudie werden ausgewählte Visualisierungsanwendungen der letzten Jahre vorgestellt. Sie betreffen zum einen den Retrievalprozess, das Boolesche Retrieval, die facettierte Suche, Dokumentbeziehungen, die Zufallssuche und Ergebnisanzeige, zum anderen spezielle Anwendungen wie die kartenbasierte und adaptive Visualisierung, Zitationsnetzwerke und Wissensordnungen. Die Einsatzszenarien für Applikationen der Informationsvisualisierung sind vielfältig. Sie reichen von mobilen kleinformatigen Anwendungen bis zu großformatigen Darstellungen auf hochauflösenden Bildschirmen, von integrativen Arbeitsplätzen für den einzelnen Nutzer bis zur Nutzung interaktiver Oberflächen für das kollaborative Retrieval. Das Konzept der Blended Library wird vorgestellt. Die Übertragbarkeit von Visualisierungsanwendungen auf Bibliothekskataloge wird im Hinblick auf die Nutzung des Kataloginputs und des Angebots an Sucheinstiegen geprüft. Perspektivische Überlegungen zu zukünftigen Entwicklungsschritten von Bibliothekskatalogen sowie zum Einfluss von Visualisierungsanwendungen auf die Informationspraxis werden angestellt.
    Date
    4. 2.2015 9:22:39
  11. Senkbeil, T.: ¬Das Problem der Kategorienbildung und der Begriff des "Gegenstandes" in der inhaltlichen Erschließung Schöner Literatur : Analyse bestehender Erschließungssysteme und Diskussion möglicher Ansätze aus der Literaturwissenschaft (1988) 0.11
    0.10637585 = product of:
      0.2127517 = sum of:
        0.03624129 = weight(_text_:und in 5822) [ClassicSimilarity], result of:
          0.03624129 = score(doc=5822,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41556883 = fieldWeight in 5822, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5822)
        0.052060813 = weight(_text_:der in 5822) [ClassicSimilarity], result of:
          0.052060813 = score(doc=5822,freq=8.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.59231687 = fieldWeight in 5822, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5822)
        0.03624129 = weight(_text_:und in 5822) [ClassicSimilarity], result of:
          0.03624129 = score(doc=5822,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41556883 = fieldWeight in 5822, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5822)
        0.0882083 = product of:
          0.2646249 = sum of:
            0.2646249 = weight(_text_:literaturwissenschaft in 5822) [ClassicSimilarity], result of:
              0.2646249 = score(doc=5822,freq=2.0), product of:
                0.280241 = queryWeight, product of:
                  7.122176 = idf(docFreq=96, maxDocs=44218)
                  0.039347667 = queryNorm
                0.9442761 = fieldWeight in 5822, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.122176 = idf(docFreq=96, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5822)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
  12. Fromme, A.: Strukturierung facettierter Thesauri : Probleme und Methoden, dargestellt an ausgewählten Beispielen (1991) 0.11
    0.10628988 = product of:
      0.28343967 = sum of:
        0.048321716 = weight(_text_:und in 1107) [ClassicSimilarity], result of:
          0.048321716 = score(doc=1107,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.55409175 = fieldWeight in 1107, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=1107)
        0.18679623 = weight(_text_:methoden in 1107) [ClassicSimilarity], result of:
          0.18679623 = score(doc=1107,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.9160877 = fieldWeight in 1107, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.125 = fieldNorm(doc=1107)
        0.048321716 = weight(_text_:und in 1107) [ClassicSimilarity], result of:
          0.048321716 = score(doc=1107,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.55409175 = fieldWeight in 1107, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=1107)
      0.375 = coord(3/8)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  13. Paul, M.: Methoden zur Erstellung von Informationsdienstleistungen eines privatwirtschaftlichen Informationsbetriebes anhand konkreter Konkurrenzanalysen und Standarddienste (1991) 0.11
    0.10628988 = product of:
      0.28343967 = sum of:
        0.048321716 = weight(_text_:und in 2759) [ClassicSimilarity], result of:
          0.048321716 = score(doc=2759,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.55409175 = fieldWeight in 2759, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=2759)
        0.18679623 = weight(_text_:methoden in 2759) [ClassicSimilarity], result of:
          0.18679623 = score(doc=2759,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.9160877 = fieldWeight in 2759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.125 = fieldNorm(doc=2759)
        0.048321716 = weight(_text_:und in 2759) [ClassicSimilarity], result of:
          0.048321716 = score(doc=2759,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.55409175 = fieldWeight in 2759, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=2759)
      0.375 = coord(3/8)
    
    Imprint
    Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
  14. Lamparter, A.: Kompetenzprofil von Information Professionals in Unternehmen (2015) 0.11
    0.10514099 = product of:
      0.21028198 = sum of:
        0.036616858 = weight(_text_:und in 769) [ClassicSimilarity], result of:
          0.036616858 = score(doc=769,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41987535 = fieldWeight in 769, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=769)
        0.11557427 = weight(_text_:methoden in 769) [ClassicSimilarity], result of:
          0.11557427 = score(doc=769,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.56680036 = fieldWeight in 769, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=769)
        0.021473989 = weight(_text_:der in 769) [ClassicSimilarity], result of:
          0.021473989 = score(doc=769,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.24431825 = fieldWeight in 769, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=769)
        0.036616858 = weight(_text_:und in 769) [ClassicSimilarity], result of:
          0.036616858 = score(doc=769,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41987535 = fieldWeight in 769, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=769)
      0.5 = coord(4/8)
    
    Abstract
    Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der Masterarbeit eine Begriffsbestimmung unternommen. Mit Hilfe dreier Methoden, einer Auswertung von relevanter Fachliteratur, die Untersuchung von einschlägigen Stellenausschreibungen und das Führen von Experteninterviews, wird ein Kompetenzprofil für Information Professionals erstellt. 16 Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst.
    Content
    Masterarbeit an der Hochschule Hannover, Fakultät III - Medien, Information und Design. Trägerin des VFI-Förderpreises 2015, Vgl.: urn:nbn:de:bsz:960-opus4-5280. http://serwiss.bib.hs-hannover.de/frontdoor/index/index/docId/528. Vgl. auch: Knoll, A. (geb. Lamparter): Kompetenzprofil von Information Professionals in Unternehmen. In: Young information professionals. 1(2016) S.1-11.
    Imprint
    Hannover : Hochschule, Fakultät III - Medien, Information und Design
  15. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.10
    0.10331824 = product of:
      0.20663647 = sum of:
        0.047272157 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.047272157 = score(doc=782,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.08172335 = weight(_text_:methoden in 782) [ClassicSimilarity], result of:
          0.08172335 = score(doc=782,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.40078837 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.030368807 = weight(_text_:der in 782) [ClassicSimilarity], result of:
          0.030368807 = score(doc=782,freq=8.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.34551817 = fieldWeight in 782, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.047272157 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.047272157 = score(doc=782,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.5 = coord(4/8)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  16. Mair, M.: Increasing the value of meta data by using associative semantic networks (2002) 0.10
    0.10246315 = product of:
      0.16394104 = sum of:
        0.02562646 = weight(_text_:und in 4972) [ClassicSimilarity], result of:
          0.02562646 = score(doc=4972,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29385152 = fieldWeight in 4972, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.070048586 = weight(_text_:methoden in 4972) [ClassicSimilarity], result of:
          0.070048586 = score(doc=4972,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 4972, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.031880606 = weight(_text_:der in 4972) [ClassicSimilarity], result of:
          0.031880606 = score(doc=4972,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.36271852 = fieldWeight in 4972, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.02562646 = weight(_text_:und in 4972) [ClassicSimilarity], result of:
          0.02562646 = score(doc=4972,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29385152 = fieldWeight in 4972, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.010758916 = product of:
          0.032276746 = sum of:
            0.032276746 = weight(_text_:29 in 4972) [ClassicSimilarity], result of:
              0.032276746 = score(doc=4972,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23319192 = fieldWeight in 4972, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4972)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Momentan verbreitete Methoden zur Strukturierung von Information können ihre Aufgabe immer schlechter befriedigend erfüllen. Der Grund dafür ist das explosive Wachstum menschlichen Wissens. Diese Diplomarbeit schlägt als einen möglichen Ausweg die Verwendung assoziativer semantischer Netzwerke vor. Maschinelles Wissensmanagement kann wesentlich intuitiver und einfacher benutzbar werden, wenn man sich die Art und Weise zunutze macht, mit der das menschliche Gehirn Informationen verarbeitet (im Speziellen assoziative Verbindungen). Der theoretische Teil dieser Arbeit diskutiert verschiedene Aspekte eines möglichen Designs eines semantischen Netzwerks mit assoziativen Verbindungen. Außer den Grundelementen und Problemen der Visualisierung werden hauptsächlich Verbesserungen ausgearbeitet, welche ein leistungsstarkes Arbeiten mit einem solchen Netzwerk erlauben. Im praktischen Teil wird ein Netzwerk-Prototyp mit den wichtigsten herausgearbeiteten Merkmalen implementiert. Die Basis der Applikation bildet der Hyperwave Information Server. Dieser detailiiertere Design-Teil gewährt tieferen Einblick in Software Requirements, Use Cases und teilweise auch in Klassendetails. Am Ende wird eine kurze Einführung in die Benutzung des implementierten Prototypen gegeben.
    Date
    17. 3.2006 19:24:29
  17. Krieg, K.: Weniger ODER - mehr UND : aktuelle Entwicklung im strategischen Dokumentenmanagement aus informationswissenschaftlicher Sicht (2004) 0.10
    0.10081775 = product of:
      0.2016355 = sum of:
        0.041847836 = weight(_text_:und in 3716) [ClassicSimilarity], result of:
          0.041847836 = score(doc=3716,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.47985753 = fieldWeight in 3716, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3716)
        0.09339812 = weight(_text_:methoden in 3716) [ClassicSimilarity], result of:
          0.09339812 = score(doc=3716,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.45804384 = fieldWeight in 3716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=3716)
        0.024541702 = weight(_text_:der in 3716) [ClassicSimilarity], result of:
          0.024541702 = score(doc=3716,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.27922085 = fieldWeight in 3716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3716)
        0.041847836 = weight(_text_:und in 3716) [ClassicSimilarity], result of:
          0.041847836 = score(doc=3716,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.47985753 = fieldWeight in 3716, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3716)
      0.5 = coord(4/8)
    
    Abstract
    Mit der Digitalisierung von Dokumenten und damit verbundenen Integrationsbestrebungen von Abläufen und Funktionen ändern sich die Anforderungen an das Dokumentenmanagement, das in Enterprise Content Management (ECM) aufgeht. Untersucht wird das Dokumentenmanagement vor allem aus informationswissenschaftlicher Sicht: Methoden der Informationsgewinnung, Informationsverwaltung in Informationssystemen und Information als Produktionsfaktor. Ein Engpaß ist die Dokumentenerschließung, weil arbeitsintensiv und deshalb kostspielig. Professionelles Dokumentenmanagement erfordert jedoch strategische, zukunftssichernde Entscheidungen.
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  18. Glaser, W.R.: Soziales und instrumentales Handeln : Probleme der Technologie bei Arnold Gehlen und Jürgen Habermas (1972) 0.10
    0.1007011 = product of:
      0.2014022 = sum of:
        0.030201074 = weight(_text_:und in 1014) [ClassicSimilarity], result of:
          0.030201074 = score(doc=1014,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34630734 = fieldWeight in 1014, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1014)
        0.11674765 = weight(_text_:methoden in 1014) [ClassicSimilarity], result of:
          0.11674765 = score(doc=1014,freq=8.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.5725548 = fieldWeight in 1014, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1014)
        0.0242524 = weight(_text_:der in 1014) [ClassicSimilarity], result of:
          0.0242524 = score(doc=1014,freq=10.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.27592933 = fieldWeight in 1014, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1014)
        0.030201074 = weight(_text_:und in 1014) [ClassicSimilarity], result of:
          0.030201074 = score(doc=1014,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34630734 = fieldWeight in 1014, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1014)
      0.5 = coord(4/8)
    
    Classification
    MS 4850: MN-MS Soziologie / MS Spezielle Soziologien / Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    MN-MS Soziologie / MR Sozialwissenschaftliche Theorien und Methoden / Theorien des sozio-kulturellen Wandels (Innovation, Modernisierung, Postmoderne)
    MR 5150: MN-MS Soziologie / MR Sozialwissenschaftliche Theorien und Methoden / Allgemeine soziologische Handlungstheorien
    CI 2340: CA-CK Philosophie / CD-CK Geschichte der Philosophie / Gesamtausgaben, Werke, Gesammelte Werke
    CI 2277: CA-CK Philosophie / CD-CK Geschichte der Philosophie / Abhandlungen, Studien
    RVK
    MS 4850: MN-MS Soziologie / MS Spezielle Soziologien / Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    MN-MS Soziologie / MR Sozialwissenschaftliche Theorien und Methoden / Theorien des sozio-kulturellen Wandels (Innovation, Modernisierung, Postmoderne)
    MR 5150: MN-MS Soziologie / MR Sozialwissenschaftliche Theorien und Methoden / Allgemeine soziologische Handlungstheorien
    CI 2340: CA-CK Philosophie / CD-CK Geschichte der Philosophie / Gesamtausgaben, Werke, Gesammelte Werke
    CI 2277: CA-CK Philosophie / CD-CK Geschichte der Philosophie / Abhandlungen, Studien
  19. Hoffmann, R.: Entwicklung einer benutzerunterstützten automatisierten Klassifikation von Web - Dokumenten : Untersuchung gegenwärtiger Methoden zur automatisierten Dokumentklassifikation und Implementierung eines Prototyps zum verbesserten Information Retrieval für das xFIND System (2002) 0.10
    0.098652646 = product of:
      0.19730529 = sum of:
        0.030799175 = weight(_text_:und in 4197) [ClassicSimilarity], result of:
          0.030799175 = score(doc=4197,freq=26.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3531656 = fieldWeight in 4197, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
        0.10442227 = weight(_text_:methoden in 4197) [ClassicSimilarity], result of:
          0.10442227 = score(doc=4197,freq=10.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.5121086 = fieldWeight in 4197, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
        0.031284653 = weight(_text_:der in 4197) [ClassicSimilarity], result of:
          0.031284653 = score(doc=4197,freq=26.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.35593814 = fieldWeight in 4197, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
        0.030799175 = weight(_text_:und in 4197) [ClassicSimilarity], result of:
          0.030799175 = score(doc=4197,freq=26.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3531656 = fieldWeight in 4197, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
      0.5 = coord(4/8)
    
    Abstract
    Das unüberschaubare und permanent wachsende Angebot von Informationen im Internet ermöglicht es den Menschen nicht mehr, dieses inhaltlich zu erfassen oder gezielt nach Informationen zu suchen. Einen Lösungsweg zur verbesserten Informationsauffindung stellt hierbei die Kategorisierung bzw. Klassifikation der Informationen auf Basis ihres thematischen Inhaltes dar. Diese thematische Klassifikation kann sowohl anhand manueller (intellektueller) Methoden als auch durch automatisierte Verfahren erfolgen. Doch beide Ansätze für sich konnten die an sie gestellten Erwartungen bis zum heutigen Tag nur unzureichend erfüllen. Im Rahmen dieser Arbeit soll daher der naheliegende Ansatz, die beiden Methoden sinnvoll zu verknüpfen, untersucht werden. Im ersten Teil dieser Arbeit, dem Untersuchungsbereich, wird einleitend das Problem des Informationsüberangebots in unserer Gesellschaft erläutert und gezeigt, dass die Kategorisierung bzw. Klassifikation dieser Informationen speziell im Internet sinnvoll erscheint. Die prinzipiellen Möglichkeiten der Themenzuordnung von Dokumenten zur Verbesserung der Wissensverwaltung und Wissensauffindung werden beschrieben. Dabei werden unter anderem verschiedene Klassifikationsschemata, Topic Maps und semantische Netze vorgestellt. Schwerpunkt des Untersuchungsbereiches ist die Beschreibung automatisierter Methoden zur Themenzuordnung. Neben einem Überblick über die gebräuchlichsten Klassifikations-Algorithmen werden sowohl am Markt existierende Systeme sowie Forschungsansätze und frei verfügbare Module zur automatischen Klassifikation vorgestellt. Berücksichtigt werden auch Systeme, die zumindest teilweise den erwähnten Ansatz der Kombination von manuellen und automatischen Methoden unterstützen. Auch die in Zusammenhang mit der Klassifikation von Dokumenten im Internet auftretenden Probleme werden aufgezeigt. Die im Untersuchungsbereich gewonnenen Erkenntnisse fließen in die Entwicklung eines Moduls zur benutzerunterstützten, automatischen Dokumentklassifikation im Rahmen des xFIND Systems (extended Framework for Information Discovery) ein. Dieses an der technischen Universität Graz konzipierte Framework stellt die Basis für eine Vielzahl neuer Ideen zur Verbesserung des Information Retrieval dar. Der im Gestaltungsbereich entwickelte Lösungsansatz sieht zunächst die Verwendung bereits im System vorhandener, manuell klassifizierter Dokumente, Server oder Serverbereiche als Grundlage für die automatische Klassifikation vor. Nach erfolgter automatischer Klassifikation können in einem nächsten Schritt dann Autoren und Administratoren die Ergebnisse im Rahmen einer Benutzerunterstützung anpassen. Dabei kann das kollektive Benutzerverhalten durch die Möglichkeit eines Votings - mittels Zustimmung bzw. Ablehnung der Klassifikationsergebnisse - Einfluss finden. Das Wissen von Fachexperten und Benutzern trägt somit letztendlich zur Verbesserung der automatischen Klassifikation bei. Im Gestaltungsbereich werden die grundlegenden Konzepte, der Aufbau und die Funktionsweise des entwickelten Moduls beschrieben, sowie eine Reihe von Vorschlägen und Ideen zur Weiterentwicklung der benutzerunterstützten automatischen Dokumentklassifikation präsentiert.
    Footnote
    Diplomarbeit an der Technischen Universität Graz, Institut für Informationsverarbeitung und Computerunterstützte neue Medien (IICM)
    Imprint
    Graz : Technischen Universität, Institut für Informationsverarbeitung und Computerunterstützte neue Medien (IICM)
  20. Kreutzkam, E.: Neue Wege in alten Online-Katalogen : Catalog Enrichment als Methode der Sacherschließung? ; Stand, Entwicklung und Umsetzung in Bibliotheken Deutschlands (2007) 0.10
    0.09809982 = product of:
      0.19619964 = sum of:
        0.04249668 = weight(_text_:und in 4650) [ClassicSimilarity], result of:
          0.04249668 = score(doc=4650,freq=22.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.48729765 = fieldWeight in 4650, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4650)
        0.070048586 = weight(_text_:methoden in 4650) [ClassicSimilarity], result of:
          0.070048586 = score(doc=4650,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 4650, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4650)
        0.04115769 = weight(_text_:der in 4650) [ClassicSimilarity], result of:
          0.04115769 = score(doc=4650,freq=20.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.46826762 = fieldWeight in 4650, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4650)
        0.04249668 = weight(_text_:und in 4650) [ClassicSimilarity], result of:
          0.04249668 = score(doc=4650,freq=22.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.48729765 = fieldWeight in 4650, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4650)
      0.5 = coord(4/8)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit der aktuellen Situation der Bibliothekskataloge und stellt neue Ansätze von Bibliotheken zur Optimierung der OPACs vor, um sich neuen Nutzerbedürfnissen anzupassen. Der Fokus der Arbeit liegt auf Catalog Enrichment, welches den Nutzern mit Hilfe von Zusatzinformationen, wie z.B. Inhaltsverzeichnisse und Klappentexte, einen zusätzlichen Service bietet. Das Thema Sacherschließung und deren Methoden werden ausführlich behandelt. Die Diplomarbeit untersucht die Frage, ob Catalog Enrichment als Methode der Sacherschließung angesehen werden kann. Kataloganreicherung wird definiert, Anliegen und Ziele werden vorgestellt, rechtliche Rahmenbedingungen dargestellt und auf Voraussetzung und Realisierung von Kataloganreicherung eingegangen. Zur Beantwortung der Untersuchungsfrage wird neben der Literaturrecherche eine Befragung von Einrichtungen durchgeführt, die an Projekten bzgl. Kataloganreicherung beteiligt sind. Die Ergebnisse der Erhebung werden nach thematischen Kategorien ausgewertet und unter verschiedenen Gesichtspunkten diskutiert. Am Ende erfolgt ein Fazit, welches die Ergebnisse zusammenfasst und Ausblick auf weitere Bearbeitungsmöglichkeiten des Themas gibt.
    Content
    Leipzig, Hochsch. für Technik, Wirtschaft und Kultur (FH), Diplomarbeit, 2007.
    Imprint
    Leipzig : Hochsch. für Technik, Wirtschaft und Kultur

Years

Languages

  • d 634
  • e 19
  • f 2
  • a 1
  • hu 1
  • More… Less…

Types

Themes

Subjects

Classifications