Search (639 results, page 2 of 32)

  • × type_ss:"x"
  1. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.03
    0.026503077 = product of:
      0.13251539 = sum of:
        0.083322845 = weight(_text_:medien in 9) [ClassicSimilarity], result of:
          0.083322845 = score(doc=9,freq=2.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.62401694 = fieldWeight in 9, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.09375 = fieldNorm(doc=9)
        0.02613017 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.02613017 = score(doc=9,freq=4.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.41556883 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=9)
        0.023062365 = product of:
          0.04612473 = sum of:
            0.04612473 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.04612473 = score(doc=9,freq=2.0), product of:
                0.0993465 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028369885 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Date
    22. 2.1997 19:50:29
    Imprint
    Wien : Universität / Grund- und Integrativwissenschaftliche Fakultät
  2. Hoffmann, R.: Entwicklung einer benutzerunterstützten automatisierten Klassifikation von Web - Dokumenten : Untersuchung gegenwärtiger Methoden zur automatisierten Dokumentklassifikation und Implementierung eines Prototyps zum verbesserten Information Retrieval für das xFIND System (2002) 0.02
    0.024653152 = product of:
      0.092449315 = sum of:
        0.039278768 = weight(_text_:medien in 4197) [ClassicSimilarity], result of:
          0.039278768 = score(doc=4197,freq=4.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.29416442 = fieldWeight in 4197, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
        0.022206375 = weight(_text_:und in 4197) [ClassicSimilarity], result of:
          0.022206375 = score(doc=4197,freq=26.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.3531656 = fieldWeight in 4197, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
        0.021500573 = weight(_text_:des in 4197) [ClassicSimilarity], result of:
          0.021500573 = score(doc=4197,freq=10.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.27366623 = fieldWeight in 4197, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
        0.009463603 = product of:
          0.018927205 = sum of:
            0.018927205 = weight(_text_:internet in 4197) [ClassicSimilarity], result of:
              0.018927205 = score(doc=4197,freq=6.0), product of:
                0.0837547 = queryWeight, product of:
                  2.9522398 = idf(docFreq=6276, maxDocs=44218)
                  0.028369885 = queryNorm
                0.22598378 = fieldWeight in 4197, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.9522398 = idf(docFreq=6276, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4197)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Abstract
    Das unüberschaubare und permanent wachsende Angebot von Informationen im Internet ermöglicht es den Menschen nicht mehr, dieses inhaltlich zu erfassen oder gezielt nach Informationen zu suchen. Einen Lösungsweg zur verbesserten Informationsauffindung stellt hierbei die Kategorisierung bzw. Klassifikation der Informationen auf Basis ihres thematischen Inhaltes dar. Diese thematische Klassifikation kann sowohl anhand manueller (intellektueller) Methoden als auch durch automatisierte Verfahren erfolgen. Doch beide Ansätze für sich konnten die an sie gestellten Erwartungen bis zum heutigen Tag nur unzureichend erfüllen. Im Rahmen dieser Arbeit soll daher der naheliegende Ansatz, die beiden Methoden sinnvoll zu verknüpfen, untersucht werden. Im ersten Teil dieser Arbeit, dem Untersuchungsbereich, wird einleitend das Problem des Informationsüberangebots in unserer Gesellschaft erläutert und gezeigt, dass die Kategorisierung bzw. Klassifikation dieser Informationen speziell im Internet sinnvoll erscheint. Die prinzipiellen Möglichkeiten der Themenzuordnung von Dokumenten zur Verbesserung der Wissensverwaltung und Wissensauffindung werden beschrieben. Dabei werden unter anderem verschiedene Klassifikationsschemata, Topic Maps und semantische Netze vorgestellt. Schwerpunkt des Untersuchungsbereiches ist die Beschreibung automatisierter Methoden zur Themenzuordnung. Neben einem Überblick über die gebräuchlichsten Klassifikations-Algorithmen werden sowohl am Markt existierende Systeme sowie Forschungsansätze und frei verfügbare Module zur automatischen Klassifikation vorgestellt. Berücksichtigt werden auch Systeme, die zumindest teilweise den erwähnten Ansatz der Kombination von manuellen und automatischen Methoden unterstützen. Auch die in Zusammenhang mit der Klassifikation von Dokumenten im Internet auftretenden Probleme werden aufgezeigt. Die im Untersuchungsbereich gewonnenen Erkenntnisse fließen in die Entwicklung eines Moduls zur benutzerunterstützten, automatischen Dokumentklassifikation im Rahmen des xFIND Systems (extended Framework for Information Discovery) ein. Dieses an der technischen Universität Graz konzipierte Framework stellt die Basis für eine Vielzahl neuer Ideen zur Verbesserung des Information Retrieval dar. Der im Gestaltungsbereich entwickelte Lösungsansatz sieht zunächst die Verwendung bereits im System vorhandener, manuell klassifizierter Dokumente, Server oder Serverbereiche als Grundlage für die automatische Klassifikation vor. Nach erfolgter automatischer Klassifikation können in einem nächsten Schritt dann Autoren und Administratoren die Ergebnisse im Rahmen einer Benutzerunterstützung anpassen. Dabei kann das kollektive Benutzerverhalten durch die Möglichkeit eines Votings - mittels Zustimmung bzw. Ablehnung der Klassifikationsergebnisse - Einfluss finden. Das Wissen von Fachexperten und Benutzern trägt somit letztendlich zur Verbesserung der automatischen Klassifikation bei. Im Gestaltungsbereich werden die grundlegenden Konzepte, der Aufbau und die Funktionsweise des entwickelten Moduls beschrieben, sowie eine Reihe von Vorschlägen und Ideen zur Weiterentwicklung der benutzerunterstützten automatischen Dokumentklassifikation präsentiert.
    Footnote
    Diplomarbeit an der Technischen Universität Graz, Institut für Informationsverarbeitung und Computerunterstützte neue Medien (IICM)
    Imprint
    Graz : Technischen Universität, Institut für Informationsverarbeitung und Computerunterstützte neue Medien (IICM)
  3. Stelzenmüller, C.: Mashups in Bibliotheken : Untersuchung der Verbreitung von Mashups auf Webseiten wissenschaftlicher Bibliotheken und Erstellung eines praktischen Beispiels (2008) 0.02
    0.024484798 = product of:
      0.12242399 = sum of:
        0.078557536 = weight(_text_:medien in 3069) [ClassicSimilarity], result of:
          0.078557536 = score(doc=3069,freq=4.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.58832884 = fieldWeight in 3069, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0625 = fieldNorm(doc=3069)
        0.02463576 = weight(_text_:und in 3069) [ClassicSimilarity], result of:
          0.02463576 = score(doc=3069,freq=8.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.39180204 = fieldWeight in 3069, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3069)
        0.019230695 = weight(_text_:des in 3069) [ClassicSimilarity], result of:
          0.019230695 = score(doc=3069,freq=2.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.24477452 = fieldWeight in 3069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3069)
      0.2 = coord(3/15)
    
    Abstract
    Mashups können durch die Kombination von Daten einen Mehrwert gegenüber den ursprünglichen Informationsquellen bieten. Diese Arbeit stellt Mashups vor und zeigt, wie Bibliotheken Mashups bislang für sich nutzen. Des weiteren wird untersucht, wie verbreitet sie auf ausgewählten Websites wissenschaftlicher Bibliotheken sind. Abschließend wird anhand eines einfachen, praktischen Beispiels erläutert, wie ein Mashup realisiert werden kann, und welche Schritte dafür notwendig sind.
    Footnote
    Bachelor-Arbeit im Studiengang Bibliotheks- und Informationsmanagement an der Hochschule der Medien Stuttgart.
    Imprint
    Stuttgart : Hochschule der Medien
  4. Steiner, E.S.: OPAC 2.0 : Mit Web 2.0-Technologie zum Bibliothekskatalog der Zukunft? (2007) 0.02
    0.023824684 = product of:
      0.11912342 = sum of:
        0.078557536 = weight(_text_:medien in 678) [ClassicSimilarity], result of:
          0.078557536 = score(doc=678,freq=4.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.58832884 = fieldWeight in 678, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
        0.021335194 = weight(_text_:und in 678) [ClassicSimilarity], result of:
          0.021335194 = score(doc=678,freq=6.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.33931053 = fieldWeight in 678, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
        0.019230695 = weight(_text_:des in 678) [ClassicSimilarity], result of:
          0.019230695 = score(doc=678,freq=2.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.24477452 = fieldWeight in 678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
      0.2 = coord(3/15)
    
    Abstract
    Diese Arbeit besteht im Wesentlichen aus zwei Teilen: Der erste Teil beinhaltet eine Einführung in den Begriff Web 2.0 und in die allgemeinen Rahmenbedingungen der zugehörigen technischen Entwicklungen. Des Weiteren werden exemplarische Techniken vorgestellt, die Web 2.0 zugeschrieben werden können sowie einige beispielhafte Anwendungen. Im zweiten Teil wird die Diskussion um Bibliothek 2.0 aufgegriffen, um anschließend näher auf Web 2.0 Techniken in Bibliothekskatalogen bzw. den OPAC 2.0 einzugehen. Verschiedene Techniken, die im OPAC 2.0 Anwendung finden können, werden diskutiert und zuletzt werden einige beispielhafte OPACs vorgestellt.
    Content
    Bachelorarbeit im Studiengang Bibliotheks- und Informationsmanagementan der Hochschule der Medien
    Imprint
    Stuttgart : Hochschule der Medien
  5. Lennard, H.; Surkau, M.: Benutzerevaluation und Usability-Test zur neuen Suchoberfläche Primo (Ex Libris) (2011) 0.02
    0.023436302 = product of:
      0.11718151 = sum of:
        0.018857826 = weight(_text_:und in 4033) [ClassicSimilarity], result of:
          0.018857826 = score(doc=4033,freq=12.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.29991096 = fieldWeight in 4033, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4033)
        0.07428531 = weight(_text_:arten in 4033) [ClassicSimilarity], result of:
          0.07428531 = score(doc=4033,freq=2.0), product of:
            0.19531822 = queryWeight, product of:
              6.8847027 = idf(docFreq=122, maxDocs=44218)
              0.028369885 = queryNorm
            0.38032967 = fieldWeight in 4033, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.8847027 = idf(docFreq=122, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4033)
        0.02403837 = weight(_text_:des in 4033) [ClassicSimilarity], result of:
          0.02403837 = score(doc=4033,freq=8.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.30596817 = fieldWeight in 4033, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4033)
      0.2 = coord(3/15)
    
    Abstract
    Zum Wintersemester 2010/11 wurde von der Universitätsbibliothek der Freien Universität Berlin das neue Bibliotheksportal Primo eingeführt, das auf der gleichnamigen Software der Firma Ex Libris basiert. Zunächst in einem "soft launch" als Betaversion live geschaltet, soll es in naher Zukunft den derzeitigen Katalog und die Digitale Bibliothek als Suchoberflächen ersetzen. Diese Situation bot einen optimalen Ausgangspunkt für eine Studie zur Usability des neuen Portals, da deren Ergebnisse direkt in die Neugestaltung der Relaunch-Version einfließen können. Um verschiedene Arten von Usability-Problemen des Bibliotheksportal Primo zu identifizieren, haben sich die Autorinnen einer Methodenkombination bedient. Zum einen wurde eine Heuristische Evaluation und zum anderen 20 Usability-Tests der deutschsprachigen Oberfläche des Portals durchgeführt. Die detaillierte Darstellung der so festgestellten Usability-Probleme bildet den Kern der Arbeit. Als Basis für das Verständnis des Systems und der methodischen Vorgehensweise, wird außerdem Primo im Kontext der "Neuen Kataloge" und deren Funktionalitäten näher beleuchtet, sowie die theoretischen Grundlagen der in der Arbeit verwendeten Methoden der Usability-Evaluation dargestellt.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  6. Mönnich, M.W.: Personalcomputer in Bibliotheken : Arbeitsplätze für Benutzer (1991) 0.02
    0.0232532 = product of:
      0.17439899 = sum of:
        0.14995645 = weight(_text_:allgemeines in 5389) [ClassicSimilarity], result of:
          0.14995645 = score(doc=5389,freq=12.0), product of:
            0.1618622 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.028369885 = queryNorm
            0.9264452 = fieldWeight in 5389, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.046875 = fieldNorm(doc=5389)
        0.024442535 = weight(_text_:und in 5389) [ClassicSimilarity], result of:
          0.024442535 = score(doc=5389,freq=14.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.38872904 = fieldWeight in 5389, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5389)
      0.13333334 = coord(2/15)
    
    Classification
    AN 73600 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Einsatz in Benutzung und Ausleihe
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    RVK
    AN 73600 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Einsatz in Benutzung und Ausleihe
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Series
    Kölner Arbeiten zum Bibliotheks- und Dokumentationswesen; H.15
  7. Kowalewski, I.: Barockliteratur online im Internet : Das Verzeichnis der im deutschen Sprachraum erschienenen Drucke des 17. Jahrhunderts (VD 17) (1999) 0.02
    0.022421082 = product of:
      0.112105414 = sum of:
        0.02155629 = weight(_text_:und in 1637) [ClassicSimilarity], result of:
          0.02155629 = score(doc=1637,freq=8.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.34282678 = fieldWeight in 1637, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1637)
        0.044519685 = weight(_text_:des in 1637) [ClassicSimilarity], result of:
          0.044519685 = score(doc=1637,freq=14.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.56666094 = fieldWeight in 1637, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1637)
        0.04602944 = sum of:
          0.019123346 = weight(_text_:internet in 1637) [ClassicSimilarity], result of:
            0.019123346 = score(doc=1637,freq=2.0), product of:
              0.0837547 = queryWeight, product of:
                2.9522398 = idf(docFreq=6276, maxDocs=44218)
                0.028369885 = queryNorm
              0.22832564 = fieldWeight in 1637, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.9522398 = idf(docFreq=6276, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1637)
          0.026906094 = weight(_text_:22 in 1637) [ClassicSimilarity], result of:
            0.026906094 = score(doc=1637,freq=2.0), product of:
              0.0993465 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028369885 = queryNorm
              0.2708308 = fieldWeight in 1637, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1637)
      0.2 = coord(3/15)
    
    Abstract
    In dieser Arbeit wird das VD 17-Projekt vorgestellt. Der Erörterung des Themas ist zunächst ein kurzer Exkurs in die Entwicklungsgeschichte des Projekts vorangestellt, um einen Überblick über die Vorgeschichte und Planungsohasen des Projekts zu gewähren. Im Mittelpunkt stehen daher 4 Aspekte: zunächst wird der Inhalt des Verzeichnisses anhand des geographischen Umfangskonzeptes, der inhaltlichen Schwerpunkte der Teilnehmerbibliotheken sowie durch die inhaltlichen Erschließung und die dafür angeandten Regelwerke. Ein großes Gewicht wird anschließend der technischen Relaisierung des VD 17 sowie den Recherchemöglichkten in der multimedialen Datenbank zugeordnet
    Date
    22. 2.2000 10:31:39
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.21
  8. Lamparter, A.: Kompetenzprofil von Information Professionals in Unternehmen (2015) 0.02
    0.022393132 = product of:
      0.11196566 = sum of:
        0.06873784 = weight(_text_:medien in 769) [ClassicSimilarity], result of:
          0.06873784 = score(doc=769,freq=4.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.51478773 = fieldWeight in 769, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0546875 = fieldNorm(doc=769)
        0.026400955 = weight(_text_:und in 769) [ClassicSimilarity], result of:
          0.026400955 = score(doc=769,freq=12.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.41987535 = fieldWeight in 769, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=769)
        0.016826859 = weight(_text_:des in 769) [ClassicSimilarity], result of:
          0.016826859 = score(doc=769,freq=2.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.2141777 = fieldWeight in 769, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=769)
      0.2 = coord(3/15)
    
    Abstract
    Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der Masterarbeit eine Begriffsbestimmung unternommen. Mit Hilfe dreier Methoden, einer Auswertung von relevanter Fachliteratur, die Untersuchung von einschlägigen Stellenausschreibungen und das Führen von Experteninterviews, wird ein Kompetenzprofil für Information Professionals erstellt. 16 Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst.
    Content
    Masterarbeit an der Hochschule Hannover, Fakultät III - Medien, Information und Design. Trägerin des VFI-Förderpreises 2015, Vgl.: urn:nbn:de:bsz:960-opus4-5280. http://serwiss.bib.hs-hannover.de/frontdoor/index/index/docId/528. Vgl. auch: Knoll, A. (geb. Lamparter): Kompetenzprofil von Information Professionals in Unternehmen. In: Young information professionals. 1(2016) S.1-11.
    Imprint
    Hannover : Hochschule, Fakultät III - Medien, Information und Design
  9. Sommer, M.: Automatische Generierung von DDC-Notationen für Hochschulveröffentlichungen (2012) 0.02
    0.02108911 = product of:
      0.10544555 = sum of:
        0.058918152 = weight(_text_:medien in 587) [ClassicSimilarity], result of:
          0.058918152 = score(doc=587,freq=4.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.44124663 = fieldWeight in 587, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.02613017 = weight(_text_:und in 587) [ClassicSimilarity], result of:
          0.02613017 = score(doc=587,freq=16.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.41556883 = fieldWeight in 587, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.020397233 = weight(_text_:des in 587) [ClassicSimilarity], result of:
          0.020397233 = score(doc=587,freq=4.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.25962257 = fieldWeight in 587, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
      0.2 = coord(3/15)
    
    Abstract
    Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
    Content
    Vgl. unter: http://opus.bsz-bw.de/fhhv/volltexte/2012/397/pdf/Bachelorarbeit_final_Korrektur01.pdf. Bachelorarbeit, Hochschule Hannover, Fakultät III - Medien, Information und Design, Abteilung Information und Kommunikation, Studiengang Informationsmanagement
    Imprint
    Hannover : Hochschule Hannover, Fakultät III - Medien, Information und Design, Abteilung Information und Kommunikation
  10. Rautenberg, M.: Konzeption eines Internetangebots für Kinder über Buchautoren und -autorinnen im Rahmen der europäischen virtuellen Kinderbibliothek CHILIAS (1997) 0.02
    0.020444741 = product of:
      0.10222371 = sum of:
        0.021335194 = weight(_text_:und in 1491) [ClassicSimilarity], result of:
          0.021335194 = score(doc=1491,freq=6.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.33931053 = fieldWeight in 1491, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1491)
        0.019230695 = weight(_text_:des in 1491) [ClassicSimilarity], result of:
          0.019230695 = score(doc=1491,freq=2.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.24477452 = fieldWeight in 1491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=1491)
        0.061657816 = sum of:
          0.030907996 = weight(_text_:internet in 1491) [ClassicSimilarity], result of:
            0.030907996 = score(doc=1491,freq=4.0), product of:
              0.0837547 = queryWeight, product of:
                2.9522398 = idf(docFreq=6276, maxDocs=44218)
                0.028369885 = queryNorm
              0.36902997 = fieldWeight in 1491, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.9522398 = idf(docFreq=6276, maxDocs=44218)
                0.0625 = fieldNorm(doc=1491)
          0.030749822 = weight(_text_:22 in 1491) [ClassicSimilarity], result of:
            0.030749822 = score(doc=1491,freq=2.0), product of:
              0.0993465 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028369885 = queryNorm
              0.30952093 = fieldWeight in 1491, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1491)
      0.2 = coord(3/15)
    
    Abstract
    Unter dem Projektnamen CHILIAS entsteht in den Jahren 1996-1998 in Kooperation verschiedener europäischer Partner die virtuelle Simulation einer Kinderbibliothek auf dem Internet. Hintergrund ist das EU-Förderprogramm Telematik für Bibliotheken. Ein Konzept für ein Internetangebote über Autoren und Literatur für Kinder als Zielgruppe wird erarbeitet. Durch den beispielhaften Entwurf einer Internetseite über die Schriftstellerin Astrid Lindgren wird das Konzept konkretisiert und veranschaulicht. Eine visuelle Umsetzung des Konzepts liegt im HTML-Format auf Diskette bei
    Date
    22. 7.1998 18:00:49
    Theme
    Internet
  11. Rötzer, A.: ¬Die Einteilung der Wissenschaften : Analyse und Typologisierung von Wissenschaftsklassifikationen (2003) 0.02
    0.020304183 = product of:
      0.07614068 = sum of:
        0.03436892 = weight(_text_:medien in 684) [ClassicSimilarity], result of:
          0.03436892 = score(doc=684,freq=4.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.25739387 = fieldWeight in 684, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
        0.020164063 = weight(_text_:und in 684) [ClassicSimilarity], result of:
          0.020164063 = score(doc=684,freq=28.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.3206851 = fieldWeight in 684, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
        0.016826859 = weight(_text_:des in 684) [ClassicSimilarity], result of:
          0.016826859 = score(doc=684,freq=8.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.2141777 = fieldWeight in 684, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
        0.0047808364 = product of:
          0.009561673 = sum of:
            0.009561673 = weight(_text_:internet in 684) [ClassicSimilarity], result of:
              0.009561673 = score(doc=684,freq=2.0), product of:
                0.0837547 = queryWeight, product of:
                  2.9522398 = idf(docFreq=6276, maxDocs=44218)
                  0.028369885 = queryNorm
                0.11416282 = fieldWeight in 684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9522398 = idf(docFreq=6276, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=684)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Abstract
    In dem Maße, in dem sich die Wissenschaften partikularisieren und atomisieren, wird es immer schwieriger, Überblick zu gewinnen auch schon über nah verwandte Wissenschaften. Daher wächst die Bedeutung der Klassifizierung hinsichtlich ihrer pragmatischen Funktionen stark an. Zudem sind es heute besonders die Querschnittswissenschaften, die im Zentrum des Forschungsinteresses stehen. Dort werden derzeit die größten Fortschritte gemacht. Man denke dabei nur an die Krebsforschung, die sich im molekularen Bereich in einen Forschungsraum zwischen Chemie und Biologie bewegt. Gerade die Medizin bietet viele Beispiele dieser die Wissenschaftsgrenzen überschreitenden Forschungen: der ganze Bereich der Gentechnik, die Nanotechnik, aber auch die medizinische Informatik und Robotik. Aus diesem Grund sind es nicht nur pragmatische Funktionen, die von einer heutigen Wissenschaftsklassifikation bedient werden müssen, sondern auch epistemologische. Wissenschaftsklassifikationen bieten die Möglichkeit, Zusammenhänge zwischen den Wissenschaften erkennbar machen und eröffnen damit unter Umständen neue Wege der Forschung. Dennoch geriet die Wissenschaftsklassifikation gerade in den letzten Jahren in eine Krise. Die Absage an die Systemhaftigkeit des Ganzen der Wissenschaft, die sich im Zuge der postmodernen Theorie durchgesetzt hat, stellte die Wissenschaftsklassifikation vor Probleme, die sie mit den üblichen Ansätzen nicht lösen konnte. Neue Wege der Klassifikation vor dem Hintergrund der Erkenntnisse dieser neuen Theorieansätze galt es nun zu finden. Jede Zeit findet sich ihre Problemlösungswege, und so hat sich auch für die Wissenschaftsklassifikation der Gegenwart neue Möglichkeiten eröffnet, die sich mit Hilfe der neuen Medien verwirklichen lassen.
    Durch die rasche Vermehrung und erhöhte Verschränkung der Wissenschaften stoßen die klassischen zweidimensionalen und hierarchischen Klassifikationen heute an eine Grenze. Die eindeutige Hierarchisierung kann hier nur auf Kosten der potentiell auszubildenden Beziehungen zwischen den zu klassifizierenden Wissenschaften gehen, denn, um die Logik der Hierarchie zu bewahren, muss häufig auf die Logik der inhaltlichen Zusammenhänge verzichten werden. Eine Lösung in Form von mehrdimensionalen Verbindungen und In-Bezug-Setzungen bieten die Darstellungsmöglichkeiten der neuen Medien. Einen Schritt in diese Richtung unternahm ARTUR P. SCHMIDT mit seinem 1999 auch als CD-Rom erschienen 'Wissensnavigator'. Unter Bezugnahme auf Deleuzes und Guattaris 'Rhizom' fordert er eine ungehinderte Vernetzung des Wissens in alle Richtungen. Er sieht sich damit im Einklang mit den Entwicklungen seiner Zeit. Interaktive Benutzung soll diese totale Vernetzung des Wissens generieren, indem der Benutzer der Enzyklopädie durch seine Anfragen bei ihrer Evolution mitwirkt. Die Darstellbarkeit dieser Vernetzung soll mit Hilfe eines sich in einem 4-dimensionalen Raum befindlichen "Hyperkubus" ermöglicht werden, der "in einer Matrix ein neuronales Netzwerk" enthalten soll. Neben diesem wohl noch als utopisch zu bezeichnenden Projekt gibt es derzeit eine Anzahl konservativerer Ansätze der Klassifizierung im Internet, die größte Differenzierungen erlauben, aber auf ungeregelte 'Hyperverlinkung' verzichten. Sollten jedoch Projekte wie die ARTUR P. SCHMIDTS realisiert werden können, so ist damit vielleicht auch Nietzsches Forderung zu erfüllen, die er noch in weiter Ferne vermutete.
    Mit Hilfe mehrdimensionaler In-Bezug-Setzungen könnte auch einem wechselseitigen Prozess entgegnet werden, der sich seit gut einem Jahrhundert mehr und mehr dynamisierte: Gleichzeitig mit dem Differenzierungsprozess der Wissenschaften, der besonders in den letzten Jahrzehnten immer rascher fortschreitet und hybride Wissenschaftsbezeichnungen wie 'Physikochemie', 'Biophysik' oder 'Soziobiologie' entstehen ließ, geht ein Integrationsprozess einher, der diese Wissenschaften sich wieder annähern lässt. Diese Gleichzeitigkeit der entgegengesetzten Prozesse von Differenzierung und Integration könnte eine neue Form der Einheit der Wissenschaften schaffen, die eine Entwicklung der Wissenschaften zu einem einheitlichen Ganzes in Gang setzt. Damit könnten die großen Potentiale, die in diesem dialektischen Prozess von Differenzierung und Integration hinsichtlich neuer Forschungsergebnisse verwirklicht werden.
  12. Bös, K.: Aspektorientierte Inhaltserschließung von Romanen und Bildern : ein Vergleich der Ansätze von Annelise Mark Pejtersen und Sara Shatford (2012) 0.02
    0.019580914 = product of:
      0.09790456 = sum of:
        0.049098462 = weight(_text_:medien in 400) [ClassicSimilarity], result of:
          0.049098462 = score(doc=400,freq=4.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.36770552 = fieldWeight in 400, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=400)
        0.026668994 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.026668994 = score(doc=400,freq=24.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.42413816 = fieldWeight in 400, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=400)
        0.022137102 = product of:
          0.044274203 = sum of:
            0.044274203 = weight(_text_:kommunikationswissenschaften in 400) [ClassicSimilarity], result of:
              0.044274203 = score(doc=400,freq=2.0), product of:
                0.15078795 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.028369885 = queryNorm
                0.29361898 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=400)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Für die inhaltliche Erschließung von Sach- und Fachliteratur stehen heutzutage etablierte Verfahren und Standards zur Verfügung. Anders verhält es sich dagegen mit der Erschließung von Schöner Literatur und Bildern. Beide Medien sind sehr verschieden und haben doch eines gemeinsam. Sie lassen sich mit den Regeln für Sach- und Fachliteratur nicht zufriedenstellend inhaltlich erschließen. Dieses Problem erkannten in den 1970er und 80er Jahren beide Autoren, deren Methoden ich hier verglichen habe. Annelise Mark Pejtersen bemühte sich um eine Lösung für die Schöne Literatur und wählte dabei einen empirischen Ansatz. Sara Shatford versuchte durch theoretische Überlegungen eine Lösung für Bilder zu erarbeiten. Der empirische wie der theoretische Ansatz führten zu Methoden, die das jeweilige Medium unter verschiedenen Aspekten betrachten. Diese Aspekten basieren in beiden Fällen auf denselben Fragen. Dennoch unterscheiden sie sich stark voneinander sowohl im Hinblick auf die Inhalte, die sie aufnehmen können, als auch hinsichtlich ihrer Struktur. Eine Anwendung einer der Methoden auf das jeweils andere Medium erscheint daher nicht sinnvoll. In dieser Arbeit werden die Methoden von Pejtersen und Shatford zunächst einzeln erläutert. Im Anschluss werden die Aspekte beider Methoden vergleichend gegenübergestellt. Dazu werden ausgewählte Beispiele mit beiden Methoden erschlossen. Abschließend wird geprüft, ob die wechselseitige Erschließung, wie sie im Vergleich angewendet wurde, in der Praxis sinnvoll ist und ob es Medien gibt, deren Erschließung mit beiden Methoden interessant wäre.
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  13. Zander, B.: Umwelt, Wetter und Nachrichten in Btx : Darstellung und Vergleich mit anderen Medien (1992) 0.02
    0.019458314 = product of:
      0.14593735 = sum of:
        0.111097135 = weight(_text_:medien in 3777) [ClassicSimilarity], result of:
          0.111097135 = score(doc=3777,freq=2.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.8320226 = fieldWeight in 3777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.125 = fieldNorm(doc=3777)
        0.034840226 = weight(_text_:und in 3777) [ClassicSimilarity], result of:
          0.034840226 = score(doc=3777,freq=4.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.55409175 = fieldWeight in 3777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=3777)
      0.13333334 = coord(2/15)
    
  14. Mertens, N.: Formale und sachliche Erschließung von AV-Medien in Öffentlichen Bibliotheken der Bundesrepublik Deutschland : Untersuchung von Universalklassifikationen und Regelwerken (1987) 0.02
    0.019458314 = product of:
      0.14593735 = sum of:
        0.111097135 = weight(_text_:medien in 6806) [ClassicSimilarity], result of:
          0.111097135 = score(doc=6806,freq=2.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.8320226 = fieldWeight in 6806, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.125 = fieldNorm(doc=6806)
        0.034840226 = weight(_text_:und in 6806) [ClassicSimilarity], result of:
          0.034840226 = score(doc=6806,freq=4.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.55409175 = fieldWeight in 6806, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=6806)
      0.13333334 = coord(2/15)
    
  15. Wölfle, C.: Formale und sachliche Erschließung von AV-Medien in Öffentlichen Bibliotheken der Bundesrepublik Deutschland : Untersuchung von Universalklassifikationen und Regelwerken (1987) 0.02
    0.019458314 = product of:
      0.14593735 = sum of:
        0.111097135 = weight(_text_:medien in 6828) [ClassicSimilarity], result of:
          0.111097135 = score(doc=6828,freq=2.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.8320226 = fieldWeight in 6828, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.125 = fieldNorm(doc=6828)
        0.034840226 = weight(_text_:und in 6828) [ClassicSimilarity], result of:
          0.034840226 = score(doc=6828,freq=4.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.55409175 = fieldWeight in 6828, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=6828)
      0.13333334 = coord(2/15)
    
  16. Ammann, A.: Klassifikation dynamischer Wissensräume : multifaktorielle Wechselbeziehungen zur Generierung und Gestaltung konstellativer dynamischer und mehrdimensionaler Wissensräume mit einem Fokus der Anwendung in der Zahn-, Mund- und Kieferheilkunde am Beispiel der enossalen Implantologie (2012) 0.02
    0.01938688 = product of:
      0.0969344 = sum of:
        0.02262939 = weight(_text_:und in 1751) [ClassicSimilarity], result of:
          0.02262939 = score(doc=1751,freq=48.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.35989314 = fieldWeight in 1751, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.04457119 = weight(_text_:arten in 1751) [ClassicSimilarity], result of:
          0.04457119 = score(doc=1751,freq=2.0), product of:
            0.19531822 = queryWeight, product of:
              6.8847027 = idf(docFreq=122, maxDocs=44218)
              0.028369885 = queryNorm
            0.22819781 = fieldWeight in 1751, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.8847027 = idf(docFreq=122, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.029733824 = weight(_text_:des in 1751) [ClassicSimilarity], result of:
          0.029733824 = score(doc=1751,freq=34.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.37846172 = fieldWeight in 1751, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
      0.2 = coord(3/15)
    
    Abstract
    Das Thema der Wissensklassifikationen begleitet uns über alle vier epochalen Konvergenz-Zyklen im Wissenstransfer von der schriftlichen, der analogen über die digitalen bis zur künstlichen neuronalen Welt als Ordnungsprinzipien für eine Orientierung in unserer Wissenslandschaft. Die Explosion des Verfügungswissens wird geprägt durch eine immer weitere Fortschreitung zur Ausdifferenzierung der Wissenschaftsdisziplinen, die digitale Speicherung des "Weltwissens" mit ihren Web-Technologien und dem Ubiquitous Computing als Bestandteil des "Internets der Dinge". Die klassischen Konzepte der Wissensorganisation durch ihre Struktur der Dendrogramme und der orthogonalen Koordinatensysteme werden den Anforderungen für eine aufgaben- und problemorientierten Wissensnavigation nicht mehr gerecht, um die Qualität des Wissens aus der Quantität so zu selektieren, dass damit eine kompetente Unterstützung der Entscheidungsprozesse gewährleistet werden kann. Die Berechnung semantischer Relationen durch statistische, hierarchischagglomerative Algorithmen u.a. mit Cluster- und Vektorenmodellen stoßen an ihre Grenzen in der Modellierung von Wissensräumen.
    Eine Neuorientierung der Wissensarchitektur bei der Generierung und Gestaltung der konstellativen dynamischen und mehrdimensionalen Wissensräume wird eine zentrale Herausforderung in der digitalen Wissenswelt werden. Die <Einheit des Wissens> wird dabei nicht mehr als universeller interdisziplinärer Wissensraum mit dem Problem <lost within the space of knowledge> verstanden, sondern assistierende Netz- Avatare konfigurieren den erforderlichen Wissensraum durch die Orientierung des konstellativen Nutzerprofils selbstständig. Es wäre jedoch vermessen, hier den Anspruch eines neuen Ordnungsprinzips des Wissens zu erheben. Mit dieser Arbeit können aber Impulse für einen "semantischen Code des Wissens" gegeben werden, wie durch eine Klassifikation der Wissensräume ein neues Konzept zur "Einheit des Wissens" in einem Raum-Zeit-Gefüge entstehen kann. Dabei werden wir uns auch der fundamentalen Frage stellen müssen, wie sich eine neue Wissenskultur definiert, in der das Jahrtausende währende Kulturerbe der Schriftlichkeit des Wissens sich zu einer Flüchtigkeit des Wissens als Gebrauchsgut hin entwickelt. Es ist die gesellschaftliche Position der genuinen intellektuellen Leistung des Urhebers und Schöpfers einer Schriftlichkeit, die er an die "Wisdom of Community" abgibt. Parallel hierzu finden auch Divergenz-Prozesse statt, in der sich die Schriftlichkeit von dem Medium löst, um selbst laufend neue Konvergenz- Prozesse einzugehen, in denen nicht mehr der Inhalt das Medium bestimmt, sondern das Medium die charakteristischen Merkmale der Inhalte definiert.
    Eine Herausforderung dieser Arbeit lag in der Struktur der Wissensordnung zu dieser Thematik. Dabei sei erlaubt, mit dem erforderlichen Respekt sich auch in andere Fachgebiete hineinzuwagen, um diese Thematik in den historischen Kontext zur Entwicklung der Ordnungsprinzipien des Wissens zu stellen. Nur dadurch wird ersichtlich, wie diese Fragestellung in den jeweiligen Epochen sich immer wieder aufs Neue ergeben hat, altes und neues Wissen zu ordnen, um damit den Wissenstransfer zu fördern. Neue Erkenntnisse zu gewinnen bedeutet auch alte Erkenntnisse verstehen zu lernen. Da Wissen keine Grenzen hat, ist diese komplexe Thematik auch nicht fakultativ behandelt, sondern wurde interdisziplinär im Rahmen der Möglichkeiten in den jeweiligen Kontext gestellt. Für diese Arbeit ist die Methodik des deduktiven Prinzips der Wissensordnung gewählt worden.
    Im Teil A wird, neben dem menschlichen Urbedürfnis mit dem Streben nach dem Wissen, auf die vier epochalen Konvergenz-Zyklen mit ihren Kompetenzprofilen der Wissensordnungen im Wissenstransfer eingegangen. Insbesondere die Verschiebungen der Wissenschaftssprachen nehmen dabei einen erheblichen Einfluss auf die Abgrenzung der Klassifikationen zum impliziten, visuellen und explizitem Wissen. Daher werden den Äquivalenztypen im expliziten Wissensraum einer besonderen Aufmerksamkeit gewidmet, denn in unserer multilingualen Wissenslandschaft entstehen im Wissenstransfer zum Verfügungs-, Orientierungs- und Handlungswissen Artefakte, die auch auf die Gestaltung der Lernziel-Taxonomien einen Einfluss haben. Im Teil B werden zunächst die Arten, Merkmale und Klassifikationskonzepte des Wissens behandelt. Bei dem Versuch einer neuen Wissensordnung wird das kartesische / geodätische Koordinatensystem in ein Raum-Zeit-Gefüge gestellt, aus dem sich elf Wissensräume herauskristallisiert haben, die sowohl in ihren Definitionen, den damit verbundenen Ableitungen und Beispielen und einer Verortung im Wissensraum klassifiziert werden. Im Projekt <K-Space Visual Library in Dental Medicine> wird die problem- und aufgabenorientierte Navigation in den jeweiligen Wissensräumen erläutert und in der Diskussion die noch bevorstehenden Konvergenz-Forderungen der meist noch bestehenden proprietären digitalen Technologien und Programme skizziert, um diese bei der Modellierung der Wissensräume mit einzubeziehen.
    Im Teil C erfolgt zunächst auszugsweise die Beschreibung bestehender Dokumenten-Analysesysteme für die Bildung von aufgaben- und problemorientierten Wissensräumen, um dann in der Ableitung die Wissensmodelle nach dem Molekül- und Legoprinzip vorzustellen. Mit einer Diskussion zur gesamten Thematik und den Ergebnissen mit den sich aus der Arbeit ergebenden Thesen schließt diese Arbeit, die durch einen Rückblick, einen Einblick und einen Ausblick den Diskurs um die Genese einer neuen Ordnung des Wissens ein wenig beleben kann. Es ist dabei verständlich, dass diese Arbeit eine besondere Beziehung zur Zahn-, Mund- und Kieferheilkunde hat, da es die berufliche Wissenswelt ist, in der ich lebe.
    Content
    Dissertation zur Erlangung des Grades eines Doktors der Humanbiologie Doctor rerum biologicarum humanarum Vgl.: https://www.deutsche-digitale-bibliothek.de/binary/SKXBHJSDCMK7JOFRAVUCAMAU6UL5P5IR/full/1.pdf.
  17. Weber, M.: Virtuelle Fachbibliotheken : Genereller Entwicklungsstand und Entwurf einer Virtuellen Fachbibliothek Bibliothekswesen (2003) 0.02
    0.019130131 = product of:
      0.09565065 = sum of:
        0.02613017 = weight(_text_:und in 1884) [ClassicSimilarity], result of:
          0.02613017 = score(doc=1884,freq=4.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.41556883 = fieldWeight in 1884, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1884)
        0.05312904 = product of:
          0.10625808 = sum of:
            0.10625808 = weight(_text_:kommunikationswissenschaften in 1884) [ClassicSimilarity], result of:
              0.10625808 = score(doc=1884,freq=2.0), product of:
                0.15078795 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.028369885 = queryNorm
                0.7046855 = fieldWeight in 1884, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1884)
          0.5 = coord(1/2)
        0.01639144 = product of:
          0.03278288 = sum of:
            0.03278288 = weight(_text_:internet in 1884) [ClassicSimilarity], result of:
              0.03278288 = score(doc=1884,freq=2.0), product of:
                0.0837547 = queryWeight, product of:
                  2.9522398 = idf(docFreq=6276, maxDocs=44218)
                  0.028369885 = queryNorm
                0.3914154 = fieldWeight in 1884, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9522398 = idf(docFreq=6276, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1884)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Imprint
    Köln : FH / Fakultät für Informations- und Kommunikationswissenschaften, Institut für Informationswissenschaft
    Theme
    Internet
  18. Zedelmaier, H.: Bibliotheca universalis und bibliotheca selecta : das Problem der Ordnung des gelehrten Wissens in der frühen Neuzeit (1992) 0.02
    0.019102773 = product of:
      0.095513865 = sum of:
        0.057718266 = weight(_text_:allgemeines in 3932) [ClassicSimilarity], result of:
          0.057718266 = score(doc=3932,freq=4.0), product of:
            0.1618622 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.028369885 = queryNorm
            0.35658893 = fieldWeight in 3932, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=3932)
        0.016295023 = weight(_text_:und in 3932) [ClassicSimilarity], result of:
          0.016295023 = score(doc=3932,freq=14.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.25915268 = fieldWeight in 3932, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3932)
        0.021500573 = weight(_text_:des in 3932) [ClassicSimilarity], result of:
          0.021500573 = score(doc=3932,freq=10.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.27366623 = fieldWeight in 3932, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3932)
      0.2 = coord(3/15)
    
    Abstract
    Die beiden Leitbegriffe des Titels - Buchtitel zugleich einschlägiger Werke - bezeichnen eine Alternative in der frühneuzeitlichen Speicherung und Vermittlung von Wissen: die möglichst umfassende Thesaurierung überkommener Wissensbestände beziehungsweise ihre kritische Sichtung und Auswahl unter bestimmten Relevanzgesichtspunkten. Der eine Titel stammt von dem Zürcher Polyhistor Konrad Gessner, der andere von dem Jesuiten Antonio Possevino. Voraussetzung beider Unternehmen ist der Buchdruck, der etwa hundert Jahre nach seiner Erfindung in bis dahin unerhörtem Ausmaß Schrifttradition zugänglich gemacht hat, aber durch die schiere Quantität zunehmend Strategien zu ihrer Sicherung und Nutzbarmachung verlangt. Der Bibliotheca universalis wie der Bibliotheca selecta geht es um Orientierung in einem immer unübersichtlicheren Bestand schriftlich tradierten Wissens, der den Wissensfortschritt zu behindern droht. Beide haben also nicht wissenschaftliche Erkenntnis selbst, sondern ihre Vermittlung zum Ziel, und sie wollen kein System des Wißbaren entwerfen, sondern auf der Basis hergebrachter Ordnungen des Wissens den Leser dazu anleiten, sich in jenem Bestand zurechtzufinden. Es ist ein erster Vorzug dieser Münchner Dissertation, daß sie dieses Problem rekonstruiert, so daß das frühneuzeitliche Projekt der Bibliothek nicht mehr am falschen Maßstab der Enzyklopädie als Summe des Wißbaren gemessen wird.
    BK
    02.01 Geschichte der Wissenschaft und Kultur
    06.30 Bibliothekswesen Dokumentationswesen: Allgemeines
    Classification
    02.01 Geschichte der Wissenschaft und Kultur
    06.30 Bibliothekswesen Dokumentationswesen: Allgemeines
  19. Probstmeyer, J.: Analyse von maschinell generierten Korrelationen zwischen der Regensburger Verbundklassifikation (RVK) und der Schlagwortnormdatei (SWD) (2009) 0.02
    0.018799778 = product of:
      0.09399889 = sum of:
        0.058918152 = weight(_text_:medien in 3216) [ClassicSimilarity], result of:
          0.058918152 = score(doc=3216,freq=4.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.44124663 = fieldWeight in 3216, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
        0.020657713 = weight(_text_:und in 3216) [ClassicSimilarity], result of:
          0.020657713 = score(doc=3216,freq=10.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.328536 = fieldWeight in 3216, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
        0.014423022 = weight(_text_:des in 3216) [ClassicSimilarity], result of:
          0.014423022 = score(doc=3216,freq=2.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.18358089 = fieldWeight in 3216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
      0.2 = coord(3/15)
    
    Abstract
    Die Dokumente in Bibliothekskatalogen weisen neben den formalen meist auch inhaltliche Erschließungselemente auf. Im Katalog des Südwestverbunds besitzen zahlreiche Publikationen SWD-Schlagwörter und -ketten sowie Notationen der RVK. Im Anschluss an ein Projekt zur automatischen Vergabe von RVK-Notationen an der Universitätsbibliothek Mannheim wurden aus den SWD-Schlagwörtern und RVK-Notationen der Datensätze im Verbund automatische Korrelationen generiert. Die vorliegende Arbeit beinhaltet die Ergebnisse der Analyse dieser Korrelationen. Dabei wird sowohl auf die Konkordanz der beiden Dokumentationssprachen eingegangen, die über die SWD-gerechten Registerbegriffe der RVK ermöglicht wird, als auch auf Unterschiede, die etwa über Heterogenität entstehen. Nachdem zunächst nur die automatischen Korrelationen näher betrachtet wurden, konnten diese zudem mit den Notationen und Registerbegriffen der RVK-Online-Konkordanz verglichen werden. Abschließend werden verschiedene Möglichkeiten aufgezeigt, wie die RVK-SWD-Korrelationen in der Praxis angewandt werden können.
    Content
    Bachelorarbeit im Fach Wissensmanagement Studiengang Bibliotheks- und Informationsmanagement der Hochschule der Medien
    Imprint
    Stuttgart : Hochschule der Medien
  20. Walther, T.: Erschließung historischer Bestände mit RDA (2015) 0.02
    0.018553032 = product of:
      0.09276515 = sum of:
        0.049098462 = weight(_text_:medien in 2437) [ClassicSimilarity], result of:
          0.049098462 = score(doc=2437,freq=4.0), product of:
            0.13352658 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.028369885 = queryNorm
            0.36770552 = fieldWeight in 2437, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2437)
        0.026668994 = weight(_text_:und in 2437) [ClassicSimilarity], result of:
          0.026668994 = score(doc=2437,freq=24.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.42413816 = fieldWeight in 2437, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2437)
        0.016997695 = weight(_text_:des in 2437) [ClassicSimilarity], result of:
          0.016997695 = score(doc=2437,freq=4.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.21635216 = fieldWeight in 2437, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2437)
      0.2 = coord(3/15)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. "cataloger's judgement" haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet? Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung "Formalerschließung historischer Bestände" an der Hochschule Hannover getroffen.
    Content
    Bachelorarbeit, Hannover: Hochschule Hannover; Fakultät III: Medien, Information und Design, im Studiengang Informationsmanagement, 2015. Vgl.: http://serwiss.bib.hs-hannover.de/frontdoor/index/index/docId/673.
    Imprint
    Hannover : Hochschule Hannover; Fakultät III: Medien, Information und Design, Abteilung Information und Kommunikation

Years

Languages

  • d 610
  • e 21
  • f 3
  • a 1
  • hu 1
  • More… Less…

Types

Themes

Subjects

Classifications