Search (20 results, page 1 of 1)

  • × year_i:[2010 TO 2020}
  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.56
    0.56333405 = product of:
      1.1266681 = sum of:
        0.112666816 = product of:
          0.33800045 = sum of:
            0.33800045 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.33800045 = score(doc=973,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.33800045 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.33800045 = score(doc=973,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.33800045 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.33800045 = score(doc=973,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.33800045 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.33800045 = score(doc=973,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(4/8)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.26
    0.26070857 = product of:
      0.52141714 = sum of:
        0.16900022 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16900022 = score(doc=563,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.16900022 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16900022 = score(doc=563,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.16900022 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16900022 = score(doc=563,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.014416483 = product of:
          0.028832966 = sum of:
            0.028832966 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.028832966 = score(doc=563,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  3. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.26
    0.25778022 = product of:
      0.51556045 = sum of:
        0.037555605 = product of:
          0.112666816 = sum of:
            0.112666816 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.112666816 = score(doc=5820,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.15933494 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15933494 = score(doc=5820,freq=4.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.15933494 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15933494 = score(doc=5820,freq=4.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.15933494 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15933494 = score(doc=5820,freq=4.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.5 = coord(4/8)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  4. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.23
    0.23472254 = product of:
      0.46944508 = sum of:
        0.04694451 = product of:
          0.14083353 = sum of:
            0.14083353 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.14083353 = score(doc=4997,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.14083353 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.14083353 = score(doc=4997,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.14083353 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.14083353 = score(doc=4997,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.14083353 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.14083353 = score(doc=4997,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.5 = coord(4/8)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.23
    0.23472254 = product of:
      0.46944508 = sum of:
        0.04694451 = product of:
          0.14083353 = sum of:
            0.14083353 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.14083353 = score(doc=4388,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.14083353 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.14083353 = score(doc=4388,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.14083353 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.14083353 = score(doc=4388,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.14083353 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.14083353 = score(doc=4388,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(4/8)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.23
    0.23472254 = product of:
      0.46944508 = sum of:
        0.04694451 = product of:
          0.14083353 = sum of:
            0.14083353 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.14083353 = score(doc=855,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.14083353 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.14083353 = score(doc=855,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.14083353 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.14083353 = score(doc=855,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.14083353 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.14083353 = score(doc=855,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.5 = coord(4/8)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  7. Jäger-Dengler-Harles, I.: Informationsvisualisierung und Retrieval im Fokus der Infromationspraxis (2013) 0.02
    0.018583145 = product of:
      0.14866516 = sum of:
        0.14866516 = sum of:
          0.11983219 = weight(_text_:visualisierung in 1709) [ClassicSimilarity], result of:
            0.11983219 = score(doc=1709,freq=4.0), product of:
              0.21292302 = queryWeight, product of:
                6.003155 = idf(docFreq=296, maxDocs=44218)
                0.03546852 = queryNorm
              0.5627958 = fieldWeight in 1709, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                6.003155 = idf(docFreq=296, maxDocs=44218)
                0.046875 = fieldNorm(doc=1709)
          0.028832966 = weight(_text_:22 in 1709) [ClassicSimilarity], result of:
            0.028832966 = score(doc=1709,freq=2.0), product of:
              0.12420471 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03546852 = queryNorm
              0.23214069 = fieldWeight in 1709, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1709)
      0.125 = coord(1/8)
    
    Abstract
    Methoden und Techniken der Informationsvisualisierung werden seit ungefähr zwanzig Jahren im Bereich der Informationssuche eingesetzt. In dieser Literaturstudie werden ausgewählte Visualisierungsanwendungen der letzten Jahre vorgestellt. Sie betreffen zum einen den Retrievalprozess, das Boolesche Retrieval, die facettierte Suche, Dokumentbeziehungen, die Zufallssuche und Ergebnisanzeige, zum anderen spezielle Anwendungen wie die kartenbasierte und adaptive Visualisierung, Zitationsnetzwerke und Wissensordnungen. Die Einsatzszenarien für Applikationen der Informationsvisualisierung sind vielfältig. Sie reichen von mobilen kleinformatigen Anwendungen bis zu großformatigen Darstellungen auf hochauflösenden Bildschirmen, von integrativen Arbeitsplätzen für den einzelnen Nutzer bis zur Nutzung interaktiver Oberflächen für das kollaborative Retrieval. Das Konzept der Blended Library wird vorgestellt. Die Übertragbarkeit von Visualisierungsanwendungen auf Bibliothekskataloge wird im Hinblick auf die Nutzung des Kataloginputs und des Angebots an Sucheinstiegen geprüft. Perspektivische Überlegungen zu zukünftigen Entwicklungsschritten von Bibliothekskatalogen sowie zum Einfluss von Visualisierungsanwendungen auf die Informationspraxis werden angestellt.
    Date
    4. 2.2015 9:22:39
    Theme
    Visualisierung
  8. Geisriegler, E.: Enriching electronic texts with semantic metadata : a use case for the historical Newspaper Collection ANNO (Austrian Newspapers Online) of the Austrian National Libraryhek (2012) 0.02
    0.018048555 = product of:
      0.07219422 = sum of:
        0.060180478 = weight(_text_:darstellung in 595) [ClassicSimilarity], result of:
          0.060180478 = score(doc=595,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 595, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=595)
        0.012013737 = product of:
          0.024027474 = sum of:
            0.024027474 = weight(_text_:22 in 595) [ClassicSimilarity], result of:
              0.024027474 = score(doc=595,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.19345059 = fieldWeight in 595, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=595)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Die vorliegende Master Thesis setzt sich mit der Frage nach Möglichkeiten der Anreicherung historischer Zeitungen mit semantischen Metadaten auseinander. Sie möchte außerdem analysieren, welcher Nutzen für vor allem geisteswissenschaftlich Forschende, durch die Anreicherung mit zusätzlichen Informationsquellen entsteht. Nach der Darstellung der Entwicklung der interdisziplinären 'Digital Humanities', wurde für die digitale Sammlung historischer Zeitungen (ANNO AustriaN Newspapers Online) der Österreichischen Nationalbibliothek ein Use Case entwickelt, bei dem 'Named Entities' (Personen, Orte, Organisationen und Daten) in ausgewählten Zeitungsausgaben manuell annotiert wurden. Methodisch wurde das Kodieren mit 'TEI', einem Dokumentenformat zur Kodierung und zum Austausch von Texten durchgeführt. Zusätzlich wurden zu allen annotierten 'Named Entities' Einträge in externen Datenbanken wie Wikipedia, Wikipedia Personensuche, der ehemaligen Personennamen- und Schlagwortnormdatei (jetzt Gemeinsame Normdatei GND), VIAF und dem Bildarchiv Austria gesucht und gegebenenfalls verlinkt. Eine Beschreibung der Ergebnisse des manuellen Annotierens der Zeitungsseiten schließt diesen Teil der Arbeit ab. In einem weiteren Abschnitt werden die Ergebnisse des manuellen Annotierens mit jenen Ergebnissen, die automatisch mit dem German NER (Named Entity Recognition) generiert wurden, verglichen und in ihrer Genauigkeit analysiert. Abschließend präsentiert die Arbeit einige Best Practice-Beispiele kodierter und angereicherter Zeitungsseiten, um den zusätzlichen Nutzen durch die Auszeichnung der 'Named Entities' und durch die Verlinkung mit externen Informationsquellen für die BenützerInnen darzustellen.
    Date
    3. 2.2013 18:00:22
  9. Tiebeke, N.: ¬Eine Verbundsystematik für die Berliner Öffentlichen Bibliotheken : Analyse und Auswertung der SfB-Einführung am Beispiel des Bezirkes Mitte (2015) 0.01
    0.010531584 = product of:
      0.08425267 = sum of:
        0.08425267 = weight(_text_:darstellung in 2510) [ClassicSimilarity], result of:
          0.08425267 = score(doc=2510,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.4286194 = fieldWeight in 2510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2510)
      0.125 = coord(1/8)
    
    Abstract
    Die Berliner Öffentlichen Bibliotheken haben sich im Jahr 2010 entschieden eine für alle Bezirke einheitliche Klassifikation einzuführen. Als Hauptbestandteil dieser sogenannten Verbundsystematik zählt die Systematik für Bibliotheken (SfB), die schwerpunktmäßig berücksichtigt wird. Gegenstand der hier vorgestellten Arbeit ist zum einen die Darstellung der Einführung der Verbundsystematik für die Öffentlichen Bibliotheken Berlins und zum anderen die Analyse und Auswertung der Organisation dieses Projektes am Beispiel des Bezirkes Berlin-Mitte. Ziel ist es zu erörtern, wie die Umsetzung im Bezirk gestaltet wurde und ob Verbesserungspotentiale festgestellt werden können. Anschließend werden Vorschläge zur Optimierung des Verfahrens dargestellt.
  10. Lennard, H.; Surkau, M.: Benutzerevaluation und Usability-Test zur neuen Suchoberfläche Primo (Ex Libris) (2011) 0.01
    0.0075225597 = product of:
      0.060180478 = sum of:
        0.060180478 = weight(_text_:darstellung in 4033) [ClassicSimilarity], result of:
          0.060180478 = score(doc=4033,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 4033, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4033)
      0.125 = coord(1/8)
    
    Abstract
    Zum Wintersemester 2010/11 wurde von der Universitätsbibliothek der Freien Universität Berlin das neue Bibliotheksportal Primo eingeführt, das auf der gleichnamigen Software der Firma Ex Libris basiert. Zunächst in einem "soft launch" als Betaversion live geschaltet, soll es in naher Zukunft den derzeitigen Katalog und die Digitale Bibliothek als Suchoberflächen ersetzen. Diese Situation bot einen optimalen Ausgangspunkt für eine Studie zur Usability des neuen Portals, da deren Ergebnisse direkt in die Neugestaltung der Relaunch-Version einfließen können. Um verschiedene Arten von Usability-Problemen des Bibliotheksportal Primo zu identifizieren, haben sich die Autorinnen einer Methodenkombination bedient. Zum einen wurde eine Heuristische Evaluation und zum anderen 20 Usability-Tests der deutschsprachigen Oberfläche des Portals durchgeführt. Die detaillierte Darstellung der so festgestellten Usability-Probleme bildet den Kern der Arbeit. Als Basis für das Verständnis des Systems und der methodischen Vorgehensweise, wird außerdem Primo im Kontext der "Neuen Kataloge" und deren Funktionalitäten näher beleuchtet, sowie die theoretischen Grundlagen der in der Arbeit verwendeten Methoden der Usability-Evaluation dargestellt.
  11. Maas, J.F.: SWD-Explorer : Design und Implementation eines Software-Tools zur erweiterten Suche und grafischen Navigation in der Schlagwortnormdatei (2010) 0.01
    0.006241259 = product of:
      0.049930073 = sum of:
        0.049930073 = product of:
          0.09986015 = sum of:
            0.09986015 = weight(_text_:visualisierung in 4035) [ClassicSimilarity], result of:
              0.09986015 = score(doc=4035,freq=4.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.4689965 = fieldWeight in 4035, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4035)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    Die Schlagwortnormdatei (SWD) stellt als kooperativ erstelltes, kontrolliertes Vokabular ein aus dem deutschsprachigen Raum nicht mehr wegzudenkendes Mittel zur Verschlagwortung von Medien dar. Die SWD dient primär der Vereinheitlichung der Verschlagwortung. Darüber hinaus sind in der Struktur der SWD Relationen zwischen Schlagwörtern definiert, die eine gut vorbereitete Suche stark erleichtern können. Beispiel für solche Relationen sind die Unterbegriff-/Oberbegriffrelationen (Hyponym/Hyperonym) oder die Relation der Ähnlichkeit von Begriffen. Diese Arbeit unternimmt den Versuch, durch die Erstellung eines Such- und Visualisierungstools den Umgang mit der SWD zu erleichtern. Im Fokus der Arbeit steht dabei zum einen die Aufgabe des Fachreferenten, ein Medium geeignet zu verschlagworten. Diese Aufgabe soll durch die Optimierung der technischen Suchmöglichkeiten mit Hilfe von Schlagwörtern geschehen, z.B. durch die Suche mit Hilfe Regulärer Ausdrücke oder durch die Suche entlang der hierarchischen Relationen. Zum anderen sind die beschriebenen Relationen innerhalb der SWD oft unsauber spezifiziert, was ein negativer Seiteneffekt der interdisziplinären und kooperativen Erstellung der SWD ist. Es wird gezeigt, dass durch geeignete Visualisierung viele Fehler schnell auffindbar und korrigierbar sind, was die Aufgabe der Datenpflege um ein Vielfaches vereinfacht. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Theme
    Visualisierung
  12. Csákány, B.: Vom Zettelkatalog zum Volltext : über die Entwicklung und Funktion des Kataloges am Beispiel der Österreichischen Nationalbibliothek (2012) 0.01
    0.0060180477 = product of:
      0.04814438 = sum of:
        0.04814438 = weight(_text_:darstellung in 600) [ClassicSimilarity], result of:
          0.04814438 = score(doc=600,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.24492538 = fieldWeight in 600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=600)
      0.125 = coord(1/8)
    
    Abstract
    Der Katalog der Österreichischen Nationalbibliothek (ÖNB) hat, seit seiner ersten Erscheinungsform als Bandkatalog 1576, eine lange Entwicklung durchgemacht. Zu Beginn dieser Arbeit, im Historischen Abriss, wird kurz auf die Kataloggeschichte der ÖNB eingegangen, danach folgt die Darstellung der verschiedenen Retrokatalogisierungs- sowie den Katalogoptimierungsprojekten. Im Jahr 1997 stand die Retrokatalogisierung im Vordergrund, bei der die maschinengetippten Katalogzettel gescannt, OCR gelesen und über den KatZoom (eine Software-Eigenentwicklung) online zur Verfügung gestellt wurden. 1992 begann man mit der EDV-unterstützen Katalogisierung im Bibliothekssystem BIBOS. Mit der Umstellung 1999 auf das neue Bibliothekssystem Aleph500 wurden die Daten aus BIBOS als ONB01 in das neue System konvertiert. Im Jahr 2000 wurden der alte Nominalkatalog (1501-1929) und der dazugehörige Schlagwortkatalog konvertiert und als ONB02 nach Aleph500 migriert. Im darauffolgenden Jahr wurden auch der neue Nominalkatalog (1930-1991, sog. PI-Katalog) und der dazugehörende Schlagwortkatalog konvertiert und als ONB03 nach Aleph500 migriert. Parallel dazu wurden auch andere Sammlungskataloge, wie z.B. der Katalog in der Musiksammlung oder der Kartensammlung, bearbeitet. Für die Jahre 2007-2011 wurde ein Strategieplan zur Katalogoptimierung erarbeitet, der zum Ziel hatte, dass in Zukunft der Bestand über eine integrierte Gesamtsuche zugänglich sein soll. Dafür war die Implementierung von Suchmaschinen-Technologie für den OPAC geplant. Deswegen mussten in Folge die damals noch getrennten drei Druckschriftenkataloge (ONB01, ONB02 und ONB03) zusammengeführt werden. Zu diesem Zweck wurden zuerst in der ONB03 die Impressen aus dem Textblock herausgelöst. Dasselbe galt für die Impressen aus der ONB02. Danach wurden in beiden Katalogen die Verweisungen mit den dazugehörigen Hauptaufnahmen zusammengeführt. Schließlich wurden die beiden historischen Kataloge in die ONB01 migriert. Darauf folgte der Abgleich der Schlagworte aus der ONB03 mit der Schlagwortnormdatei. In Folge wurden auch die Schlagworte der ONB02 mit der Normdatei abgeglichen. Im April 2011 wurde dann die einheitliche Suchoberfläche Quick Search implementiert. Doch auch wichtige Projekte zur Kataloganreicherung (wie z.B. IV-Scan) und Projekte zur Massendigitalisierung, wie ANNO (Austrian Newspaper Online) und ALEX (Historische österreichische Rechts- und Gesetzestexte), werden in meiner Arbeit behandelt. Diese Master-These soll eine kompakte Zusammenfassung aller wichtigen Retro- und Katalogoptimierungsprojekte der ÖNB bieten.
  13. Bender, B.: Digitale Mündigkeit? : Definition und Dimensionen: eine theoretische Fundierung zwischen Medienbildung und Medienkompetenz (2016) 0.01
    0.0060180477 = product of:
      0.04814438 = sum of:
        0.04814438 = weight(_text_:darstellung in 4089) [ClassicSimilarity], result of:
          0.04814438 = score(doc=4089,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.24492538 = fieldWeight in 4089, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
      0.125 = coord(1/8)
    
    Abstract
    In der vorliegenden Arbeit wurde die Frage »Was ist digitale Mündigkeit?« untersucht. Dabei war das Ziel, die Merkmale und Dimensionen von digitaler Mündigkeit literaturbasiert aufzudecken und die Erkenntnisse in eine erste Definition zu überführen. Dies geschah wie folgt: In der Einleitung wurde zunächst umrissen, wie es zur Wahl des Forschungsthemas kam, inwiefern digitale Mündigkeit die Gesellschaft verändert und welche Bereiche der Lebenswelt mit diesem Begriff angesprochen sind. Daraus erfolgte die Herleitung der Forschungsfrage. Im zweiten Kapitel folgte sodann die Darlegung der theoretisch angelegten Forschungsmethode, die in diesem Fall auf einer zunächst breiten, dann enger gefassten Literaturrecherche basierte. Ergänzend wurde auf die Methode der philosophischen Begriffsanalyse hingewiesen, die für die spätere Definition zum Einsatz kommen sollte. Mit Kapitel 3 wurde sodann in Fachtermini und relevante Begriffe eingeführt, gefolgt von einer Darlegung der Bedeutung von Big Data, Codes und Algorithmen für Individuum und Gesellschaft. Dies geschah anhand exemplarisch aus redaktionellen Beiträgen herausgegriffener Themen. Anschließend wurde der aktuelle Forschungsstand zum Thema präsentiert. Dies erfolgte jedoch vornehmlich aus Gründen eines empirischen Überblicks, nicht, weil aus diesen Studien Daten gewonnen werden sollten (denn die Datengewinnung erfolgte aus der Literatur). Danach wurde digitale Mündigkeit als medienpädagogisches Feld erörtert. In Kapitel 4 wurden relevante Theorien zur Mündigkeit präsentiert. Die Extrakte aus den verschiedenen Ansätzen wurden in einem abschließenden Unterkapitel für die spätere Definition von digitaler Mündigkeit zusammengefasst. Inwiefern digitale Mündigkeit mit den Konzepten der Medienkompetenz und Medienbildung in Verbindung gebracht werden kann, wurde in Kapitel 5 untersucht. Zu diesem Zweck wurden zunächst Entwicklung und Ansätze des Medienkompetenzbegriffs erläutert, gleiches geschah anschließend mit dem Medienbildungsbegriff. Nach einer Darstellung des langjährigen bildungswissenschaftlichen Diskurses um Medienkompetenz und/oder Medienbildung, wurden schließlich die Verhältnisse zwischen digitaler Mündigkeit, Medienkompetenz und Medienbildung betrachtet. Alle Vorarbeiten mündeten hiernach im sechsten Kapitel, in welchem zunächst der Begriff der allgemeinen Mündigkeit analysiert und sodann die Begriffskomponente 'digital' betrachtet wurde. Die in den vorangegangenen Kapiteln geknüpften Fäden liefen schlussendlich in einer fundierten Definition von digitaler Mündigkeit zusammen. Der Hauptteil endete mit einem Blick auf verwandte Begriffe.
  14. Rohner, M.: Betrachtung der Data Visualization Literacy in der angestrebten Schweizer Informationsgesellschaft (2018) 0.01
    0.0052958843 = product of:
      0.042367075 = sum of:
        0.042367075 = product of:
          0.08473415 = sum of:
            0.08473415 = weight(_text_:visualisierung in 4585) [ClassicSimilarity], result of:
              0.08473415 = score(doc=4585,freq=2.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.39795673 = fieldWeight in 4585, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4585)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Theme
    Visualisierung
  15. Dietiker, S.: Cognitive Map einer Bibliothek : eine Überprüfung der Methodentauglichkeit im Bereich Bibliothekswissenschaft - am Beispiel der Kantonsbibliothek Graubünden (2016) 0.00
    0.004413237 = product of:
      0.035305895 = sum of:
        0.035305895 = product of:
          0.07061179 = sum of:
            0.07061179 = weight(_text_:visualisierung in 4570) [ClassicSimilarity], result of:
              0.07061179 = score(doc=4570,freq=2.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.3316306 = fieldWeight in 4570, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4570)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    Cognitive Maps sind mentale Karten, welche jeder Mensch besitzt. Es handelt sich dabei um eine Reflexion der jeweiligen Umwelt. Cognitive Mapping ist eine Methode, welche diese mentale Karte sichtbar macht. Aufgrund dieser Visualisierung können Erkenntnisse darüber gewonnen werden, was Menschen an einem Ort oder in einem Raum tun und wahrnehmen. Die Methode hat verschiede Anwendungstechniken, welche sich in sechs Kategorien teilen: Aufgabenlösung, Elemente orten, Sketch Map erstellen, Zonen und Gebiete einzeichnen, Weg- und Ortsbeschreibung sowie Kognitive Befragung. Anhand dieser lassen sich Untersuchungen beliebig kombinieren. Die Anwendung von Cognitive Mapping sowie eine einfache Befragung in der Kantonsbibliothek Graubünden hat ergeben, dass die Methode für Bibliotheken sinnvoll ist. Allerdings sollte bei zukünftigen Anwendungen die Punkte Gesamtaufwand, Untersuchungsaufbau, Teilnehmer-Zusammensetzung und Auswertungs-Aufwand angepasst werden.
  16. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.00
    0.0030892657 = product of:
      0.024714125 = sum of:
        0.024714125 = product of:
          0.04942825 = sum of:
            0.04942825 = weight(_text_:visualisierung in 4658) [ClassicSimilarity], result of:
              0.04942825 = score(doc=4658,freq=2.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.23214142 = fieldWeight in 4658, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4658)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
  17. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.00
    0.0024027473 = product of:
      0.019221978 = sum of:
        0.019221978 = product of:
          0.038443957 = sum of:
            0.038443957 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.038443957 = score(doc=401,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    11. 9.2012 19:43:22
  18. Bertram, J.: Informationen verzweifelt gesucht : Enterprise Search in österreichischen Großunternehmen (2011) 0.00
    0.0021237487 = product of:
      0.01698999 = sum of:
        0.01698999 = product of:
          0.03397998 = sum of:
            0.03397998 = weight(_text_:22 in 2657) [ClassicSimilarity], result of:
              0.03397998 = score(doc=2657,freq=4.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.27358043 = fieldWeight in 2657, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    Die Arbeit geht dem Status quo der unternehmensweiten Suche in österreichischen Großunternehmen nach und beleuchtet Faktoren, die darauf Einfluss haben. Aus der Analyse des Ist-Zustands wird der Bedarf an Enterprise-Search-Software abgeleitet und es werden Rahmenbedingungen für deren erfolgreiche Einführung skizziert. Die Untersuchung stützt sich auf eine im Jahr 2009 durchgeführte Onlinebefragung von 469 österreichischen Großunternehmen (Rücklauf 22 %) und daran anschließende Leitfadeninterviews mit zwölf Teilnehmern der Onlinebefragung. Der theoretische Teil verortet die Arbeit im Kontext des Informations- und Wissensmanagements. Der Fokus liegt auf dem Ansatz der Enterprise Search, ihrer Abgrenzung gegenüber der Suche im Internet und ihrem Leistungsspektrum. Im empirischen Teil wird zunächst aufgezeigt, wie die Unternehmen ihre Informationen organisieren und welche Probleme dabei auftreten. Es folgt eine Analyse des Status quo der Informati-onssuche im Unternehmen. Abschließend werden Bekanntheit und Einsatz von Enterprise-Search-Software in der Zielgruppe untersucht sowie für die Einführung dieser Software nötige Rahmenbedingungen benannt. Defizite machen die Befragten insbesondere im Hinblick auf die übergreifende Suche im Unternehmen und die Suche nach Kompetenzträgern aus. Hier werden Lücken im Wissensmanagement offenbar. 29 % der Respondenten der Onlinebefragung geben zu-dem an, dass es in ihren Unternehmen gelegentlich bis häufig zu Fehlentscheidungen infolge defizitärer Informationslagen kommt. Enterprise-Search-Software kommt in 17 % der Unternehmen, die sich an der Onlinebefragung beteiligten, zum Einsatz. Die durch Enterprise-Search-Software bewirkten Veränderungen werden grundsätzlich posi-tiv beurteilt. Alles in allem zeigen die Ergebnisse, dass Enterprise-Search-Strategien nur Erfolg haben können, wenn man sie in umfassende Maßnahmen des Informations- und Wissensmanagements einbettet.
    Date
    22. 1.2016 20:40:31
  19. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.00
    0.0018020604 = product of:
      0.014416483 = sum of:
        0.014416483 = product of:
          0.028832966 = sum of:
            0.028832966 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.028832966 = score(doc=4408,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Pages
    22 S
  20. Kiren, T.: ¬A clustering based indexing technique of modularized ontologies for information retrieval (2017) 0.00
    0.0012013736 = product of:
      0.009610989 = sum of:
        0.009610989 = product of:
          0.019221978 = sum of:
            0.019221978 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
              0.019221978 = score(doc=4399,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.15476047 = fieldWeight in 4399, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4399)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    20. 1.2015 18:30:22