Search (67 results, page 1 of 4)

  • × language_ss:"d"
  • × type_ss:"x"
  • × year_i:[2010 TO 2020}
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.23
    0.23272519 = product of:
      0.88435566 = sum of:
        0.052577253 = product of:
          0.15773176 = sum of:
            0.15773176 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.15773176 = score(doc=973,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.2631579 = coord(10/38)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.10
    0.10042999 = product of:
      0.38163394 = sum of:
        0.021907192 = product of:
          0.06572157 = sum of:
            0.06572157 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.06572157 = score(doc=4388,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.2631579 = coord(10/38)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Mattmann, B.: ¬Die Möglichkeiten von RDA bei der Erschliessung historischer Sondermaterialien : Analyse der Beschreibungs- und Erschließungsmöglicjkeiten von Resource Description and Access für die historischen Sondermaterialien Brief und Fotografie (2014) 0.02
    0.017894212 = product of:
      0.13599601 = sum of:
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.04975686 = weight(_text_:einzelner in 1651) [ClassicSimilarity], result of:
          0.04975686 = score(doc=1651,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.44640818 = fieldWeight in 1651, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
      0.13157895 = coord(5/38)
    
    Abstract
    Der neue Erschliessungsstandard RDA beschäftigt aktuell unzählige Arbeitsgruppen und Einzelpersonen aus verschiedenen Ländern. Dabei geht es vor allem um die Anpassung einzelner Regeln und Konzepte an lokale Gegebenheiten und spezifische Medientypen. Das erklärte Ziel, den Standard auch für nicht-bibliothekarische Communities attraktiv zu machen, stand jedoch bislang im Hintergrund. Es ist unklar, ob und wie sich RDA beispielsweise in Archiven und Sondersammlungen anwenden lässt. Diese Bachelorarbeit widmet sich dieser Unsicherheit und untersucht die Möglichkeiten der Katalogisierung von ausgewählten archivalischen Ressourcen. Mittels einer Literaturanalyse werden die von Nutzern und Erschliessenden als essenziell erachteten Merkmale von Briefen und Fotografien erhoben und auf die Beschreibungsmöglichkeiten mit RDA hin untersucht. Dabei zeigt sich, dass der Standard grundsätzlich aufgeschlossen gegenüber archivalischen und historischen Ressourcen ist und sich lediglich vereinzelte Anpassungen von Begriffslisten und An- wendungsregeln empfehlen. Entscheidende Fragestellungen, wie die Abbildung von Kontextualität und Hierarchien, müssen jedoch noch geklärt werden, um die Attraktivität des Standards für nicht-bibliothekarische Communities weiter zu verbessern.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft
  4. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.02
    0.01782473 = product of:
      0.09676282 = sum of:
        0.029431203 = weight(_text_:medizin in 897) [ClassicSimilarity], result of:
          0.029431203 = score(doc=897,freq=4.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.3333662 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.029431203 = weight(_text_:medizin in 897) [ClassicSimilarity], result of:
          0.029431203 = score(doc=897,freq=4.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.3333662 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.002693414 = product of:
          0.005386828 = sum of:
            0.005386828 = weight(_text_:4 in 897) [ClassicSimilarity], result of:
              0.005386828 = score(doc=897,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.11992966 = fieldWeight in 897, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.03125 = fieldNorm(doc=897)
          0.5 = coord(1/2)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
      0.18421052 = coord(7/38)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
    Date
    4. 6.2013 14:03:39
    Field
    Medizin
  5. Treue, L.: ¬Das Konzept Informationskompetenz : ein Beitrag zur theoretischen und praxisbezogenen Begriffsklärung (2011) 0.02
    0.016735246 = product of:
      0.09084848 = sum of:
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
        0.012621979 = product of:
          0.025243958 = sum of:
            0.025243958 = weight(_text_:allgemein in 214) [ClassicSimilarity], result of:
              0.025243958 = score(doc=214,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.2902644 = fieldWeight in 214, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=214)
          0.5 = coord(1/2)
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
        0.0033667674 = product of:
          0.006733535 = sum of:
            0.006733535 = weight(_text_:4 in 214) [ClassicSimilarity], result of:
              0.006733535 = score(doc=214,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.14991207 = fieldWeight in 214, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=214)
          0.5 = coord(1/2)
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
        0.012621979 = product of:
          0.025243958 = sum of:
            0.025243958 = weight(_text_:allgemein in 214) [ClassicSimilarity], result of:
              0.025243958 = score(doc=214,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.2902644 = fieldWeight in 214, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=214)
          0.5 = coord(1/2)
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
      0.18421052 = coord(7/38)
    
    Abstract
    Das Konzept Informationskompetenz entwickelt sich im deutschsprachigen Raum seit den 1990er-Jahren zu einem Schlüsselbegriff des Bildungs- und Bibliothekswesens. Es handelt sich um einen Transfer des Konzepts "information literacy", welches im angloamerikanischen Raum bereits seit den 1980er-Jahren etabliert ist und allgemein für eine Fähigkeit im Umgang mit Information benutzt wird. Der Informationsbegriff als Bezugspunkt der Fähigkeit im Umgang mit Information wird in dieser Arbeit etymologisch, nachrichtentechnisch, zeichentheoretisch und als Grundbegriff der Informationswissenschaft betrachtet. Der medienhistorische Zusammenhang wird in einer Untersuchung zum Begriffsaufkommen nachgewiesen und analysiert. Die Entwicklung des Konzepts wird von seinem ersten Aufkommen bis zu neueren zielgruppenfokussierten Anwendungen wie der Informationskompetenz in Unternehmen (IKU) nachgezeichnet. Als Beispiel aus der Praxis wird das Berliner Projekt "Informationskompetenz als Schlüsselqualifikation für lebenslanges Lernen von Hochschulabsolventen in kleinen und mittleren Unternehmen" (2005-2008) betrachtet. Die Untersuchung der Verwendung des Begriffes sowie seiner praktischen Wirkungen sollen im Sinne der Pragmatischen Maxime einen Beitrag zur Begriffsklärung leisten. Trotz der starken Verbreitung dieses Konzepts zeichnet es sich durch terminologische Unklarheit und einen permanenten Diskurs zu dessen Inhalten und Bedeutungen dieses Begriffs aus. Die Arbeit dokumentiert die Lücke zwischen der theoretischen informationswissenschaftlichen Konzeption und der Anwendung im Bildungs- und Bibliotheksbereich und formuliert in diesem Kontext Desiderate für die Informationswissenschaft.
    Date
    4. 6.2012 17:39:26
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  6. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.01
    0.013291921 = product of:
      0.084182166 = sum of:
        0.013202622 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4408,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.013202622 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4408,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.009600651 = product of:
          0.019201303 = sum of:
            0.019201303 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.019201303 = score(doc=4408,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
        0.013202622 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4408,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.013202622 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4408,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.021771025 = product of:
          0.032656536 = sum of:
            0.019201303 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.019201303 = score(doc=4408,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
            0.013455234 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.013455234 = score(doc=4408,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.6666667 = coord(2/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Imprint
    Innsbruck : Universitäts- und Landesbibliothek Tirol
    Pages
    22 S
  7. Bertram, J.: Informationen verzweifelt gesucht : Enterprise Search in österreichischen Großunternehmen (2011) 0.01
    0.013162067 = product of:
      0.08335976 = sum of:
        0.014897029 = weight(_text_:und in 2657) [ClassicSimilarity], result of:
          0.014897029 = score(doc=2657,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40608138 = fieldWeight in 2657, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2657)
        0.014897029 = weight(_text_:und in 2657) [ClassicSimilarity], result of:
          0.014897029 = score(doc=2657,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40608138 = fieldWeight in 2657, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2657)
        0.005657238 = product of:
          0.011314476 = sum of:
            0.011314476 = weight(_text_:29 in 2657) [ClassicSimilarity], result of:
              0.011314476 = score(doc=2657,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.19432661 = fieldWeight in 2657, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
          0.5 = coord(1/2)
        0.014897029 = weight(_text_:und in 2657) [ClassicSimilarity], result of:
          0.014897029 = score(doc=2657,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40608138 = fieldWeight in 2657, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2657)
        0.014897029 = weight(_text_:und in 2657) [ClassicSimilarity], result of:
          0.014897029 = score(doc=2657,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40608138 = fieldWeight in 2657, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2657)
        0.018114414 = product of:
          0.027171621 = sum of:
            0.011314476 = weight(_text_:29 in 2657) [ClassicSimilarity], result of:
              0.011314476 = score(doc=2657,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.19432661 = fieldWeight in 2657, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
            0.015857145 = weight(_text_:22 in 2657) [ClassicSimilarity], result of:
              0.015857145 = score(doc=2657,freq=4.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27358043 = fieldWeight in 2657, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
          0.6666667 = coord(2/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Die Arbeit geht dem Status quo der unternehmensweiten Suche in österreichischen Großunternehmen nach und beleuchtet Faktoren, die darauf Einfluss haben. Aus der Analyse des Ist-Zustands wird der Bedarf an Enterprise-Search-Software abgeleitet und es werden Rahmenbedingungen für deren erfolgreiche Einführung skizziert. Die Untersuchung stützt sich auf eine im Jahr 2009 durchgeführte Onlinebefragung von 469 österreichischen Großunternehmen (Rücklauf 22 %) und daran anschließende Leitfadeninterviews mit zwölf Teilnehmern der Onlinebefragung. Der theoretische Teil verortet die Arbeit im Kontext des Informations- und Wissensmanagements. Der Fokus liegt auf dem Ansatz der Enterprise Search, ihrer Abgrenzung gegenüber der Suche im Internet und ihrem Leistungsspektrum. Im empirischen Teil wird zunächst aufgezeigt, wie die Unternehmen ihre Informationen organisieren und welche Probleme dabei auftreten. Es folgt eine Analyse des Status quo der Informati-onssuche im Unternehmen. Abschließend werden Bekanntheit und Einsatz von Enterprise-Search-Software in der Zielgruppe untersucht sowie für die Einführung dieser Software nötige Rahmenbedingungen benannt. Defizite machen die Befragten insbesondere im Hinblick auf die übergreifende Suche im Unternehmen und die Suche nach Kompetenzträgern aus. Hier werden Lücken im Wissensmanagement offenbar. 29 % der Respondenten der Onlinebefragung geben zu-dem an, dass es in ihren Unternehmen gelegentlich bis häufig zu Fehlentscheidungen infolge defizitärer Informationslagen kommt. Enterprise-Search-Software kommt in 17 % der Unternehmen, die sich an der Onlinebefragung beteiligten, zum Einsatz. Die durch Enterprise-Search-Software bewirkten Veränderungen werden grundsätzlich posi-tiv beurteilt. Alles in allem zeigen die Ergebnisse, dass Enterprise-Search-Strategien nur Erfolg haben können, wenn man sie in umfassende Maßnahmen des Informations- und Wissensmanagements einbettet.
    Content
    Dissertation am Institut für Bibliotheks- und Informationswissenschaft der Philosophische Fakultät I an der Humboldt-Universität zu Berlin. Vgl.: http://edoc.hu-berlin.de/dissertationen/bertram-jutta-2011-06-30/PDF/bertram.pdf.
    Date
    22. 1.2016 20:40:31
    Imprint
    Berlin : Humboldt-Universität, Institut für Bibliotheks- und Informationswissenschaft
  8. Younansardaroud, H.: Inhaltliche Anpassung der RVK als Aufstellungsklassifikation : Projekt Bibliotheksneubau Kleine Fächer der FU Berlin, Islamwissenschaft (2010) 0.01
    0.011746194 = product of:
      0.074392565 = sum of:
        0.01205229 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.01205229 = score(doc=218,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 218, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.01205229 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.01205229 = score(doc=218,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 218, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.021657612 = sum of:
          0.008080241 = weight(_text_:4 in 218) [ClassicSimilarity], result of:
            0.008080241 = score(doc=218,freq=2.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.17989448 = fieldWeight in 218, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.046875 = fieldNorm(doc=218)
          0.013577371 = weight(_text_:29 in 218) [ClassicSimilarity], result of:
            0.013577371 = score(doc=218,freq=2.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.23319192 = fieldWeight in 218, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=218)
        0.01205229 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.01205229 = score(doc=218,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 218, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.01205229 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.01205229 = score(doc=218,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 218, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 218) [ClassicSimilarity], result of:
              0.013577371 = score(doc=218,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=218)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Im Zusammenhang mit der Bibliotheksstrukturreform der Freien Universität Berlin soll für die sog. "Kleinen Fächer" des Fachbereichs Geschichts- und Kulturwissenschaften eine integrierte Bibliothek mit einem gemeinsamen Standort entstehen. Die Bestände der Fachbibliotheken der "Kleinen Fächer" sollen retrokatalogisiert und für eine Freihandaufstellung schrittweise nach der Regensburger Verbundklassifikation (= RVK) einheitlich erschlossen werden. Im Rahmen dieser Masterarbeit soll untersucht werden, inwieweit die RVK den Bedürfnissen der Fachbibliothek der Islamwissenschaft entspricht. Dabei soll beantwortet werden, ob die RVK für die nach der Haussystematik aufgestellten islamwissenschaftlichen Bibliotheksbestände ausreicht bzw. aussagekräftig ist. Die Haussystematik ist veraltet und leidet vor allem unter einer inkonsistenten Anwendung. Die Mängel werden anhand von ausgewählten Beispielen aufgezeigt. Durch Anwendung der Crosskonkordanz-Methodik werden Verknüpfungen zwischen den beiden Systematiken herausgearbeitet und Erweiterungsmöglichkeiten der RVK für die islamwissenschaftlichen Bestände aufgezeigt.
    Date
    4. 6.2012 17:54:29
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  9. Walz, J.: Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme (2018) 0.01
    0.01159142 = product of:
      0.07341233 = sum of:
        0.010779895 = weight(_text_:und in 5744) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5744,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 5744) [ClassicSimilarity], result of:
              0.030292748 = score(doc=5744,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 5744, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5744)
          0.5 = coord(1/2)
        0.010779895 = weight(_text_:und in 5744) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5744,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.010779895 = weight(_text_:und in 5744) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5744,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 5744) [ClassicSimilarity], result of:
              0.030292748 = score(doc=5744,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 5744, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5744)
          0.5 = coord(1/2)
        0.010779895 = weight(_text_:und in 5744) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5744,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
      0.15789473 = coord(6/38)
    
    Abstract
    Ziel: Ziel dieser Bachelorarbeit war es, die Übertragbarkeit der allgemeinen Rankingfaktoren, wie sie von Web-Suchmaschinen verwendet werden, auf Discovery-Systeme zu analysieren. Dadurch könnte das bisher hauptsächlich auf dem textuellen Abgleich zwischen Suchanfrage und Dokumenten basierende bibliothekarische Ranking verbessert werden. Methode: Hierfür wurden Faktoren aus den Gruppen Popularität, Aktualität, Lokalität, Technische Faktoren, sowie dem personalisierten Ranking diskutiert. Die entsprechenden Rankingfaktoren wurden nach ihrer Vorkommenshäufigkeit in der analysierten Literatur und der daraus abgeleiteten Wichtigkeit, ausgewählt. Ergebnis: Von den 23 untersuchten Rankingfaktoren sind 14 (61 %) direkt vom Ranking der Web-Suchmaschinen auf das Ranking der Discovery-Systeme übertragbar. Zu diesen zählen unter anderem das Klickverhalten, das Erstellungsdatum, der Nutzerstandort, sowie die Sprache. Sechs (26%) der untersuchten Faktoren sind dagegen nicht übertragbar (z.B. Aktualisierungsfrequenz und Ladegeschwindigkeit). Die Linktopologie, die Nutzungshäufigkeit, sowie die Aktualisierungsfrequenz sind mit entsprechenden Modifikationen übertragbar.
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
    Theme
    Katalogfragen allgemein
  10. Sommer, M.: Automatische Generierung von DDC-Notationen für Hochschulveröffentlichungen (2012) 0.01
    0.011414964 = product of:
      0.07229477 = sum of:
        0.015245074 = weight(_text_:und in 587) [ClassicSimilarity], result of:
          0.015245074 = score(doc=587,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 587, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.015245074 = weight(_text_:und in 587) [ClassicSimilarity], result of:
          0.015245074 = score(doc=587,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 587, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.0067886855 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 587) [ClassicSimilarity], result of:
              0.013577371 = score(doc=587,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 587, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=587)
          0.5 = coord(1/2)
        0.015245074 = weight(_text_:und in 587) [ClassicSimilarity], result of:
          0.015245074 = score(doc=587,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 587, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.015245074 = weight(_text_:und in 587) [ClassicSimilarity], result of:
          0.015245074 = score(doc=587,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 587, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 587) [ClassicSimilarity], result of:
              0.013577371 = score(doc=587,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 587, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=587)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
    Content
    Vgl. unter: http://opus.bsz-bw.de/fhhv/volltexte/2012/397/pdf/Bachelorarbeit_final_Korrektur01.pdf. Bachelorarbeit, Hochschule Hannover, Fakultät III - Medien, Information und Design, Abteilung Information und Kommunikation, Studiengang Informationsmanagement
    Date
    29. 1.2013 15:44:43
    Imprint
    Hannover : Hochschule Hannover, Fakultät III - Medien, Information und Design, Abteilung Information und Kommunikation
  11. Csákány, B.: Vom Zettelkatalog zum Volltext : über die Entwicklung und Funktion des Kataloges am Beispiel der Österreichischen Nationalbibliothek (2012) 0.01
    0.010715631 = product of:
      0.06786566 = sum of:
        0.011917624 = weight(_text_:und in 600) [ClassicSimilarity], result of:
          0.011917624 = score(doc=600,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 600, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=600)
        0.010097583 = product of:
          0.020195166 = sum of:
            0.020195166 = weight(_text_:allgemein in 600) [ClassicSimilarity], result of:
              0.020195166 = score(doc=600,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23221152 = fieldWeight in 600, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=600)
          0.5 = coord(1/2)
        0.011917624 = weight(_text_:und in 600) [ClassicSimilarity], result of:
          0.011917624 = score(doc=600,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 600, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=600)
        0.011917624 = weight(_text_:und in 600) [ClassicSimilarity], result of:
          0.011917624 = score(doc=600,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 600, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=600)
        0.010097583 = product of:
          0.020195166 = sum of:
            0.020195166 = weight(_text_:allgemein in 600) [ClassicSimilarity], result of:
              0.020195166 = score(doc=600,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23221152 = fieldWeight in 600, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=600)
          0.5 = coord(1/2)
        0.011917624 = weight(_text_:und in 600) [ClassicSimilarity], result of:
          0.011917624 = score(doc=600,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 600, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=600)
      0.15789473 = coord(6/38)
    
    Abstract
    Der Katalog der Österreichischen Nationalbibliothek (ÖNB) hat, seit seiner ersten Erscheinungsform als Bandkatalog 1576, eine lange Entwicklung durchgemacht. Zu Beginn dieser Arbeit, im Historischen Abriss, wird kurz auf die Kataloggeschichte der ÖNB eingegangen, danach folgt die Darstellung der verschiedenen Retrokatalogisierungs- sowie den Katalogoptimierungsprojekten. Im Jahr 1997 stand die Retrokatalogisierung im Vordergrund, bei der die maschinengetippten Katalogzettel gescannt, OCR gelesen und über den KatZoom (eine Software-Eigenentwicklung) online zur Verfügung gestellt wurden. 1992 begann man mit der EDV-unterstützen Katalogisierung im Bibliothekssystem BIBOS. Mit der Umstellung 1999 auf das neue Bibliothekssystem Aleph500 wurden die Daten aus BIBOS als ONB01 in das neue System konvertiert. Im Jahr 2000 wurden der alte Nominalkatalog (1501-1929) und der dazugehörige Schlagwortkatalog konvertiert und als ONB02 nach Aleph500 migriert. Im darauffolgenden Jahr wurden auch der neue Nominalkatalog (1930-1991, sog. PI-Katalog) und der dazugehörende Schlagwortkatalog konvertiert und als ONB03 nach Aleph500 migriert. Parallel dazu wurden auch andere Sammlungskataloge, wie z.B. der Katalog in der Musiksammlung oder der Kartensammlung, bearbeitet. Für die Jahre 2007-2011 wurde ein Strategieplan zur Katalogoptimierung erarbeitet, der zum Ziel hatte, dass in Zukunft der Bestand über eine integrierte Gesamtsuche zugänglich sein soll. Dafür war die Implementierung von Suchmaschinen-Technologie für den OPAC geplant. Deswegen mussten in Folge die damals noch getrennten drei Druckschriftenkataloge (ONB01, ONB02 und ONB03) zusammengeführt werden. Zu diesem Zweck wurden zuerst in der ONB03 die Impressen aus dem Textblock herausgelöst. Dasselbe galt für die Impressen aus der ONB02. Danach wurden in beiden Katalogen die Verweisungen mit den dazugehörigen Hauptaufnahmen zusammengeführt. Schließlich wurden die beiden historischen Kataloge in die ONB01 migriert. Darauf folgte der Abgleich der Schlagworte aus der ONB03 mit der Schlagwortnormdatei. In Folge wurden auch die Schlagworte der ONB02 mit der Normdatei abgeglichen. Im April 2011 wurde dann die einheitliche Suchoberfläche Quick Search implementiert. Doch auch wichtige Projekte zur Kataloganreicherung (wie z.B. IV-Scan) und Projekte zur Massendigitalisierung, wie ANNO (Austrian Newspaper Online) und ALEX (Historische österreichische Rechts- und Gesetzestexte), werden in meiner Arbeit behandelt. Diese Master-These soll eine kompakte Zusammenfassung aller wichtigen Retro- und Katalogoptimierungsprojekte der ÖNB bieten.
    Theme
    Katalogfragen allgemein
  12. Brumm, A.: Modellierung eines Informationssystems zum Bühnentanz als semantisches Wiki (2010) 0.01
    0.010027325 = product of:
      0.063506395 = sum of:
        0.012576545 = weight(_text_:und in 4025) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4025,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4025)
        0.012576545 = weight(_text_:und in 4025) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4025,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4025)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 4025) [ClassicSimilarity], result of:
              0.015840266 = score(doc=4025,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 4025, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4025)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 4025) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4025,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4025)
        0.012576545 = weight(_text_:und in 4025) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4025,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4025)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 4025) [ClassicSimilarity], result of:
              0.015840266 = score(doc=4025,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 4025, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4025)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Es wurde ein Informationssystem zum Bühnentanz modelliert, das der Informierung über konkrete Individuen des Gegenstandsbereichs (insbesondere choreographische Werke und Personen) dienen soll. Dabei wurde auch insbesondere das Ziel verfolgt, Beziehungen zwischen Werken, Personen, Organisationen etc. aufzuzeigen und abfragbar zu machen. Konzipiert wurde das Informationssystem als semantisches Wiki. Neben der Entwicklung eines Inventars an Kategorien und Attributen wurde anhand konkreter Beispiele gezeigt, wie Informationen in einem semantischen Wiki sowohl maschinenverständlich erfasst, als auch dem Benutzer anschaulich präsentiert werden können. Denkbar wäre ein Einsatzbereich des im Grunde eigenständigen Informationssystems auch im Bereich der Erschließung von Tanzsammlungen.
    Date
    18.10.2010 21:05:29
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  13. Jäger-Dengler-Harles, I.: Informationsvisualisierung und Retrieval im Fokus der Infromationspraxis (2013) 0.01
    0.009684581 = product of:
      0.061335687 = sum of:
        0.013202622 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.013202622 = score(doc=1709,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.013202622 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.013202622 = score(doc=1709,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.0040401206 = product of:
          0.008080241 = sum of:
            0.008080241 = weight(_text_:4 in 1709) [ClassicSimilarity], result of:
              0.008080241 = score(doc=1709,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17989448 = fieldWeight in 1709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1709)
          0.5 = coord(1/2)
        0.013202622 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.013202622 = score(doc=1709,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.013202622 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.013202622 = score(doc=1709,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.004485078 = product of:
          0.013455234 = sum of:
            0.013455234 = weight(_text_:22 in 1709) [ClassicSimilarity], result of:
              0.013455234 = score(doc=1709,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23214069 = fieldWeight in 1709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1709)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Methoden und Techniken der Informationsvisualisierung werden seit ungefähr zwanzig Jahren im Bereich der Informationssuche eingesetzt. In dieser Literaturstudie werden ausgewählte Visualisierungsanwendungen der letzten Jahre vorgestellt. Sie betreffen zum einen den Retrievalprozess, das Boolesche Retrieval, die facettierte Suche, Dokumentbeziehungen, die Zufallssuche und Ergebnisanzeige, zum anderen spezielle Anwendungen wie die kartenbasierte und adaptive Visualisierung, Zitationsnetzwerke und Wissensordnungen. Die Einsatzszenarien für Applikationen der Informationsvisualisierung sind vielfältig. Sie reichen von mobilen kleinformatigen Anwendungen bis zu großformatigen Darstellungen auf hochauflösenden Bildschirmen, von integrativen Arbeitsplätzen für den einzelnen Nutzer bis zur Nutzung interaktiver Oberflächen für das kollaborative Retrieval. Das Konzept der Blended Library wird vorgestellt. Die Übertragbarkeit von Visualisierungsanwendungen auf Bibliothekskataloge wird im Hinblick auf die Nutzung des Kataloginputs und des Angebots an Sucheinstiegen geprüft. Perspektivische Überlegungen zu zukünftigen Entwicklungsschritten von Bibliothekskatalogen sowie zum Einfluss von Visualisierungsanwendungen auf die Informationspraxis werden angestellt.
    Date
    4. 2.2015 9:22:39
  14. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.01
    0.009244603 = product of:
      0.07025898 = sum of:
        0.01606972 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.01606972 = score(doc=401,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.01606972 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.01606972 = score(doc=401,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.01606972 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.01606972 = score(doc=401,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.01606972 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.01606972 = score(doc=401,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.0059801037 = product of:
          0.01794031 = sum of:
            0.01794031 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.01794031 = score(doc=401,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.33333334 = coord(1/3)
      0.13157895 = coord(5/38)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Content
    Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
    Date
    11. 9.2012 19:43:22
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  15. Becker, T.: Potentielle Funktionen von Wissensmanagement in Öffentlichen Bibliotheken : eine szenariobasierte Delphi-Studie mit Wissensexperten aus britischen und deutschen Großstadtbibliotheken (2014) 0.01
    0.008717918 = product of:
      0.05521348 = sum of:
        0.011917624 = weight(_text_:und in 2093) [ClassicSimilarity], result of:
          0.011917624 = score(doc=2093,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 2093, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2093)
        0.011917624 = weight(_text_:und in 2093) [ClassicSimilarity], result of:
          0.011917624 = score(doc=2093,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 2093, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2093)
        0.0045257905 = product of:
          0.009051581 = sum of:
            0.009051581 = weight(_text_:29 in 2093) [ClassicSimilarity], result of:
              0.009051581 = score(doc=2093,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.15546128 = fieldWeight in 2093, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2093)
          0.5 = coord(1/2)
        0.011917624 = weight(_text_:und in 2093) [ClassicSimilarity], result of:
          0.011917624 = score(doc=2093,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 2093, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2093)
        0.011917624 = weight(_text_:und in 2093) [ClassicSimilarity], result of:
          0.011917624 = score(doc=2093,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3248651 = fieldWeight in 2093, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2093)
        0.0030171936 = product of:
          0.009051581 = sum of:
            0.009051581 = weight(_text_:29 in 2093) [ClassicSimilarity], result of:
              0.009051581 = score(doc=2093,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.15546128 = fieldWeight in 2093, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2093)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Nach der Herleitung und Skizzierung der 'szenariobasierten Delphi-Studie' als Untersuchungsmethode und Präsentation des Forschungsdesigns werden Konzepte von Wissensmanagement über einen Literatur- Review in den Kontext des aktuellen Forschungsstandes gestellt. Diese Bestandsaufnahme der Gegenwart ist in erster Linie abgeleitet aus Fachveröffentlichungen zum Wissensmanagement im Allgemeinen und denen der BID-Community im Besonderen. Welche Rolle spielt Wissensmanagement gegenwärtig in der bibliothekarischen Praxis Öffentlicher Bibliotheken der im Untersuchungsfokus stehenden Nationen? Was verbindet die Arbeit mit Wissensmanagement in den Öffentlichen Bibliotheken der beiden Nationen und (wo) sind Unterschiede zu finden? Diese Verifizierung des Status quo ist nur ein Teil der vorliegenden Arbeit, Schwerpunkt bildet der Blick in die kommende Zeit. Hat Wissensmanagement eine Zukunft in der Öffentlichen Bibliothek? Wenn ja, wie sieht diese aus und in welcher Intention wird Wissensmanagement eingesetzt? Stellt es mehr als nur ein Instrument der innerbetrieblichen Organisationsoptimierung dar? Wird Wissensmanagement im Sinne des Erwerbs von Demokratiekompetenz an den Endkunden quasi als Werkzeugkoffer weitergegeben? Hilft es den Öffentlichen Bibliotheken im Sinne einer systemischen kommunalen Legitimierung? Mit den Methoden Szenariotechnik und Delphi-Studie werden auf Basis der Aussagen ausgewählter Wissensexperten aus den Großstadtbibliotheken beider Länder Trendprojektionen erstellt, die ihrerseits in einem die Studie abschließenden konsensualen Szenario münden. Auf dem Weg dorthin werden im Laufe von iterativen Befragungen zudem für die Praxis adaptierbare Handlungsoptionen für die Öffentliche Bibliothek der Zukunft generiert und anhand ausgewählter Expertenaussagen im Sinne von Best-Practise-Beispielen und -Ideen in die Arbeit integriert. Wissensmanagement, so das Ergebnis der Untersuchung, der professionelle Umgang mit der Ressource Wissen in den Dimensionen Individuelles, Internes, Externes und Systemisches Wissensmanagement, findet bereits gegenwärtig in Öffentliche Bibliotheken statt; Wissensmanagement wird, so konstatieren die Wissensexperten weiter, zudem sowohl in Großbritannien als auch in Deutschland zukünftig als andauernde Querschnittsaufgabe jeder Öffentlichen Bibliothek angesehen und mit unterschiedlicher Intensität, unter heterogenen Rahmenbedingungen, aber immer mit vielversprechendem Erfolg betrieben werden.
    Content
    Vgl. auch: http://edoc.hu-berlin.de/dissertationen/becker-thomas-2014-04-29/PDF/becker.pdf.
  16. Waldhör, A.: Erstellung einer Konkordanz zwischen Basisklassifikation (BK) und Regensburger Verbundklassifikation (RVK) für den Fachbereich Recht (2012) 0.01
    0.008437494 = product of:
      0.053437464 = sum of:
        0.011002185 = weight(_text_:und in 596) [ClassicSimilarity], result of:
          0.011002185 = score(doc=596,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29991096 = fieldWeight in 596, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=596)
        0.011002185 = weight(_text_:und in 596) [ClassicSimilarity], result of:
          0.011002185 = score(doc=596,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29991096 = fieldWeight in 596, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=596)
        0.005657238 = product of:
          0.011314476 = sum of:
            0.011314476 = weight(_text_:29 in 596) [ClassicSimilarity], result of:
              0.011314476 = score(doc=596,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.19432661 = fieldWeight in 596, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=596)
          0.5 = coord(1/2)
        0.011002185 = weight(_text_:und in 596) [ClassicSimilarity], result of:
          0.011002185 = score(doc=596,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29991096 = fieldWeight in 596, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=596)
        0.011002185 = weight(_text_:und in 596) [ClassicSimilarity], result of:
          0.011002185 = score(doc=596,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29991096 = fieldWeight in 596, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=596)
        0.003771492 = product of:
          0.011314476 = sum of:
            0.011314476 = weight(_text_:29 in 596) [ClassicSimilarity], result of:
              0.011314476 = score(doc=596,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.19432661 = fieldWeight in 596, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=596)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Ziel der vorliegenden Arbeit war die Erstellung einer Konkordanz zwischen der Regensburger Verbundklassifikation (RVK) und der Basisklassifikation (BK) für den Fachbereich Recht. Die Erstellung von Konkordanzen ist im bibliothekarischen Bereichmehrfach von Interesse, da einerseits Notationen verschiedener Klassifikationssysteme zusammengeführt werden und somit eine höhere Datendichte erreicht werden kann. Zum anderen können Konkordanzen in der Suchmaschinentechnologie Primo als "Werkzeug" bei der facettierten Suche eingesetzt werden. Die Arbeit gliedert sich in zwei Teile. Der erste (theoretische) Teil beschäftigt sich mit Klassifikationen als Hilfsmittel für die Freihandaufstellung und als Teil der klassifikatorischen Sacherschließung. Im Anschluss daran werden drei große Klassifikationssysteme, die im Rahmen der Sacherschließung in Österreich eine wesentliche Rolle spielen (Verbundklassifikationen des OBV), dargestellt. Die Basisklassifikation und die Regensburger Verbundklassifikation werden kurz beschrieben, es wird untersucht wie juristische Medien in diesen Klassifikationen abgebildet werden. In diesem Zusammenhang wird auch der aktuelle Stand der RVK Erweiterung betreffend österreichisches Recht erörtert. Die Dewey - Dezimal - Klassifikation (DDC) wird auf ihre generelle Eignung als Klassifikation für juristische Medien genauer, anhand mehrerer praktischer Beispiele, untersucht. Insbesondere wird die "Konkordanzfähigkeit" der DDC im Hinblick auf die beiden anderen Systeme betreffend den Fachbereich Recht ermittelt. Ein kurzer Ausblick auf Unterschiede zwischen der angloamerikanischen Rechtsordnung und dem europäischen Civil Law ergänzt die Ausführungen zur DDC. Der zweite (praktische) Teil beinhaltet die Konkordanztabelle in Form einer Microsoft Excel Tabelle mit einem ausführlichen Kommentar. Diese Tabelle liegt auch in einer verkürzten Form vor, die für die praktische Umsetzung in der Verbunddatenbank vorgesehen ist.
    Date
    3. 2.2013 17:25:29
  17. Bender, B.: Digitale Mündigkeit? : Definition und Dimensionen: eine theoretische Fundierung zwischen Medienbildung und Medienkompetenz (2016) 0.01
    0.00837812 = product of:
      0.06367371 = sum of:
        0.015245074 = weight(_text_:und in 4089) [ClassicSimilarity], result of:
          0.015245074 = score(doc=4089,freq=36.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 4089, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
        0.015245074 = weight(_text_:und in 4089) [ClassicSimilarity], result of:
          0.015245074 = score(doc=4089,freq=36.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 4089, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
        0.002693414 = product of:
          0.005386828 = sum of:
            0.005386828 = weight(_text_:4 in 4089) [ClassicSimilarity], result of:
              0.005386828 = score(doc=4089,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.11992966 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.5 = coord(1/2)
        0.015245074 = weight(_text_:und in 4089) [ClassicSimilarity], result of:
          0.015245074 = score(doc=4089,freq=36.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 4089, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
        0.015245074 = weight(_text_:und in 4089) [ClassicSimilarity], result of:
          0.015245074 = score(doc=4089,freq=36.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 4089, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
      0.13157895 = coord(5/38)
    
    Abstract
    In der vorliegenden Arbeit wurde die Frage »Was ist digitale Mündigkeit?« untersucht. Dabei war das Ziel, die Merkmale und Dimensionen von digitaler Mündigkeit literaturbasiert aufzudecken und die Erkenntnisse in eine erste Definition zu überführen. Dies geschah wie folgt: In der Einleitung wurde zunächst umrissen, wie es zur Wahl des Forschungsthemas kam, inwiefern digitale Mündigkeit die Gesellschaft verändert und welche Bereiche der Lebenswelt mit diesem Begriff angesprochen sind. Daraus erfolgte die Herleitung der Forschungsfrage. Im zweiten Kapitel folgte sodann die Darlegung der theoretisch angelegten Forschungsmethode, die in diesem Fall auf einer zunächst breiten, dann enger gefassten Literaturrecherche basierte. Ergänzend wurde auf die Methode der philosophischen Begriffsanalyse hingewiesen, die für die spätere Definition zum Einsatz kommen sollte. Mit Kapitel 3 wurde sodann in Fachtermini und relevante Begriffe eingeführt, gefolgt von einer Darlegung der Bedeutung von Big Data, Codes und Algorithmen für Individuum und Gesellschaft. Dies geschah anhand exemplarisch aus redaktionellen Beiträgen herausgegriffener Themen. Anschließend wurde der aktuelle Forschungsstand zum Thema präsentiert. Dies erfolgte jedoch vornehmlich aus Gründen eines empirischen Überblicks, nicht, weil aus diesen Studien Daten gewonnen werden sollten (denn die Datengewinnung erfolgte aus der Literatur). Danach wurde digitale Mündigkeit als medienpädagogisches Feld erörtert. In Kapitel 4 wurden relevante Theorien zur Mündigkeit präsentiert. Die Extrakte aus den verschiedenen Ansätzen wurden in einem abschließenden Unterkapitel für die spätere Definition von digitaler Mündigkeit zusammengefasst. Inwiefern digitale Mündigkeit mit den Konzepten der Medienkompetenz und Medienbildung in Verbindung gebracht werden kann, wurde in Kapitel 5 untersucht. Zu diesem Zweck wurden zunächst Entwicklung und Ansätze des Medienkompetenzbegriffs erläutert, gleiches geschah anschließend mit dem Medienbildungsbegriff. Nach einer Darstellung des langjährigen bildungswissenschaftlichen Diskurses um Medienkompetenz und/oder Medienbildung, wurden schließlich die Verhältnisse zwischen digitaler Mündigkeit, Medienkompetenz und Medienbildung betrachtet. Alle Vorarbeiten mündeten hiernach im sechsten Kapitel, in welchem zunächst der Begriff der allgemeinen Mündigkeit analysiert und sodann die Begriffskomponente 'digital' betrachtet wurde. Die in den vorangegangenen Kapiteln geknüpften Fäden liefen schlussendlich in einer fundierten Definition von digitaler Mündigkeit zusammen. Der Hauptteil endete mit einem Blick auf verwandte Begriffe.
    Content
    Bachelorarbeit, angefertigt im Studiengang B.A. Bildungswissenschaft an der FernUniversität in Hagen - Fakultät Kultur- und Sozialwissenschaften - Institut für Bildungswissenschaft und Medienforschung Lehrgebiet Bildungstheorie und Medienpädagogik. Vgl.: https://lesen-schreiben-bilden.net/wp-content/uploads/2017/02/BA_BB_ohnePr%C3%A4si_public.pdf.
    Imprint
    Hagen : FernUniversität / Fakultät Kultur- und Sozialwissenschaften / Institut für Bildungswissenschaft und Medienforschung
  18. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.01
    0.008021829 = product of:
      0.060965896 = sum of:
        0.014408242 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.014408242 = score(doc=4658,freq=42.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.014408242 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.014408242 = score(doc=4658,freq=42.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.0033329297 = product of:
          0.0066658594 = sum of:
            0.0066658594 = weight(_text_:4 in 4658) [ClassicSimilarity], result of:
              0.0066658594 = score(doc=4658,freq=4.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.14840537 = fieldWeight in 4658, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4658)
          0.5 = coord(1/2)
        0.014408242 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.014408242 = score(doc=4658,freq=42.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.014408242 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.014408242 = score(doc=4658,freq=42.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
      0.13157895 = coord(5/38)
    
    Abstract
    In der heutigen Zeit sind Informationen jeglicher Art über das World Wide Web (WWW) für eine breite Bevölkerungsschicht zugänglich. Dabei ist es jedoch schwierig die existierenden Dokumente auch so aufzubereiten, dass die Inhalte für Maschinen inhaltlich interpretierbar sind. Das Semantic Web, eine Weiterentwicklung des WWWs, möchte dies ändern, indem es Webinhalte in maschinenverständlichen Formaten anbietet. Dadurch können Automatisierungsprozesse für die Suchanfragenoptimierung und für die Wissensbasenvernetzung eingesetzt werden. Die Web Ontology Language (OWL) ist eine mögliche Sprache, in der Wissen beschrieben und gespeichert werden kann (siehe Kapitel 4 OWL). Das Softwareprodukt Protégé unterstützt den Standard OWL, weshalb ein Großteil der Modellierungsarbeiten in Protégé durchgeführt wurde. Momentan erhält der Nutzer in den meisten Fällen bei der Informationsfindung im Internet lediglich Unterstützung durch eine von Suchmaschinenbetreibern vorgenommene Verschlagwortung des Dokumentinhaltes, d.h. Dokumente können nur nach einem bestimmten Wort oder einer bestimmten Wortgruppe durchsucht werden. Die Ausgabeliste der Suchergebnisse muss dann durch den Nutzer selbst gesichtet und nach Relevanz geordnet werden. Das kann ein sehr zeit- und arbeitsintensiver Prozess sein. Genau hier kann das Semantic Web einen erheblichen Beitrag in der Informationsaufbereitung für den Nutzer leisten, da die Ausgabe der Suchergebnisse bereits einer semantischen Überprüfung und Verknüpfung unterliegt. Deshalb fallen hier nicht relevante Informationsquellen von vornherein bei der Ausgabe heraus, was das Finden von gesuchten Dokumenten und Informationen in einem bestimmten Wissensbereich beschleunigt.
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
    Content
    Zum Erlangen des akademischen Grades "Master of Engineering" (M.Eng.) im Studiengang Geoinformatik Vgl.: http://digibib.hs-nb.de/file/dbhsnb_derivate_0000000780/Masterarbeit-Pfeiffer-2010.pdf Vgl. auch: urn:nbn:de:gbv:519-thesis2010-0139-4
  19. Pohl, O.: Konzept und prototypische Erstellung eines Informationssystems auf VuFind-Basis für die Bibliotheks- und Informationswissenschaft (2012) 0.01
    0.008005872 = product of:
      0.07605579 = sum of:
        0.019013947 = weight(_text_:und in 1564) [ClassicSimilarity], result of:
          0.019013947 = score(doc=1564,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 1564, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1564)
        0.019013947 = weight(_text_:und in 1564) [ClassicSimilarity], result of:
          0.019013947 = score(doc=1564,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 1564, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1564)
        0.019013947 = weight(_text_:und in 1564) [ClassicSimilarity], result of:
          0.019013947 = score(doc=1564,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 1564, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1564)
        0.019013947 = weight(_text_:und in 1564) [ClassicSimilarity], result of:
          0.019013947 = score(doc=1564,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 1564, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1564)
      0.10526316 = coord(4/38)
    
    Abstract
    In dieser Arbeit wurde ein Fachinformationssystem auf der Basis von VuFind für die Bibliotheks- und Informationswissenschaft konzeptionalisiert und implementiert. Dabei wurden Metadaten von verschiedenen Ressourcen gesammelt und normalisiert. Für die Indexierung wurden die entsprechenden Parameter eingestellt sowie das Layout des entstehenden Systems angepasst. Schlussendlich wurden über 38.000 Datensätze indexiert und Zusatzfunktionen für Nutzer des Systems freigeschaltet.
    Imprint
    Berlin : Humboldt-Universität zu Berlin, Institut für Bibliotheks- und Informationswissenschaft
  20. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.01
    0.007564839 = product of:
      0.07186597 = sum of:
        0.017966492 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.017966492 = score(doc=1081,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.017966492 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.017966492 = score(doc=1081,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.017966492 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.017966492 = score(doc=1081,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.017966492 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.017966492 = score(doc=1081,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
      0.10526316 = coord(4/38)
    
    Abstract
    Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
    Footnote
    Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien

Types