Search (446 results, page 1 of 23)

  • × year_i:[2010 TO 2020}
  • × type_ss:"el"
  1. Eckert, K: ¬The ICE-map visualization (2011) 0.28
    0.2765202 = product of:
      0.33182424 = sum of:
        0.0205157 = weight(_text_:und in 4743) [ClassicSimilarity], result of:
          0.0205157 = score(doc=4743,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.19590102 = fieldWeight in 4743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4743)
        0.097894646 = weight(_text_:anwendung in 4743) [ClassicSimilarity], result of:
          0.097894646 = score(doc=4743,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.42793027 = fieldWeight in 4743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0625 = fieldNorm(doc=4743)
        0.03202915 = weight(_text_:des in 4743) [ClassicSimilarity], result of:
          0.03202915 = score(doc=4743,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 4743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4743)
        0.1367925 = weight(_text_:prinzips in 4743) [ClassicSimilarity], result of:
          0.1367925 = score(doc=4743,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.50585335 = fieldWeight in 4743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0625 = fieldNorm(doc=4743)
        0.044592276 = product of:
          0.08918455 = sum of:
            0.08918455 = weight(_text_:thesaurus in 4743) [ClassicSimilarity], result of:
              0.08918455 = score(doc=4743,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.40844947 = fieldWeight in 4743, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4743)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010) 0.24
    0.24195519 = product of:
      0.29034624 = sum of:
        0.017951237 = weight(_text_:und in 604) [ClassicSimilarity], result of:
          0.017951237 = score(doc=604,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.17141339 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=604)
        0.08565781 = weight(_text_:anwendung in 604) [ClassicSimilarity], result of:
          0.08565781 = score(doc=604,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=604)
        0.028025504 = weight(_text_:des in 604) [ClassicSimilarity], result of:
          0.028025504 = score(doc=604,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=604)
        0.11969343 = weight(_text_:prinzips in 604) [ClassicSimilarity], result of:
          0.11969343 = score(doc=604,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.44262168 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=604)
        0.039018244 = product of:
          0.07803649 = sum of:
            0.07803649 = weight(_text_:thesaurus in 604) [ClassicSimilarity], result of:
              0.07803649 = score(doc=604,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.3573933 = fieldWeight in 604, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=604)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Busch, D.: Organisation eines Thesaurus für die Unterstützung der mehrsprachigen Suche in einer bibliographischen Datenbank im Bereich Planen und Bauen (2016) 0.24
    0.23932831 = product of:
      0.28719398 = sum of:
        0.038466934 = weight(_text_:und in 3308) [ClassicSimilarity], result of:
          0.038466934 = score(doc=3308,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3673144 = fieldWeight in 3308, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
        0.061184157 = weight(_text_:anwendung in 3308) [ClassicSimilarity], result of:
          0.061184157 = score(doc=3308,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 3308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
        0.028310036 = weight(_text_:des in 3308) [ClassicSimilarity], result of:
          0.028310036 = score(doc=3308,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 3308, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
        0.08549531 = weight(_text_:prinzips in 3308) [ClassicSimilarity], result of:
          0.08549531 = score(doc=3308,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 3308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
        0.073737554 = product of:
          0.14747511 = sum of:
            0.14747511 = weight(_text_:thesaurus in 3308) [ClassicSimilarity], result of:
              0.14747511 = score(doc=3308,freq=14.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.6754099 = fieldWeight in 3308, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3308)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Das Problem der mehrsprachigen Suche gewinnt in der letzten Zeit immer mehr an Bedeutung, da viele nützliche Fachinformationen in der Welt in verschiedenen Sprachen publiziert werden. RSWBPlus ist eine bibliographische Datenbank zum Nachweis der Fachliteratur im Bereich Planen und Bauen, welche deutsch- und englischsprachige Metadaten-Einträge enthält. Bis vor Kurzem war es problematisch Einträge zu finden, deren Sprache sich von der Anfragesprache unterschied. Zum Beispiel fand man auf deutschsprachige Anfragen nur deutschsprachige Einträge, obwohl die Datenbank auch potenziell nützliche englischsprachige Einträge enthielt. Um das Problem zu lösen, wurde nach einer Untersuchung bestehender Ansätze, die RSWBPlus weiterentwickelt, um eine mehrsprachige (sprachübergreifende) Suche zu unterstützen, welche unter Einbeziehung eines zweisprachigen begriffbasierten Thesaurus erfolgt. Der Thesaurus wurde aus bereits bestehenden Thesauri automatisch gebildet. Die Einträge der Quell-Thesauri wurden in SKOS-Format (Simple Knowledge Organisation System) umgewandelt, automatisch miteinander vereinigt und schließlich in einen Ziel-Thesaurus eingespielt, der ebenfalls in SKOS geführt wird. Für den Zugriff zum Ziel-Thesaurus werden Apache Jena und MS SQL Server verwendet. Bei der mehrsprachigen Suche werden Terme der Anfrage durch entsprechende Übersetzungen und Synonyme in Deutsch und Englisch erweitert. Die Erweiterung der Suchterme kann sowohl in der Laufzeit, als auch halbautomatisch erfolgen. Das verbesserte Recherchesystem kann insbesondere deutschsprachigen Benutzern helfen, relevante englischsprachige Einträge zu finden. Die Verwendung vom SKOS erhöht die Interoperabilität der Thesauri, vereinfacht das Bilden des Ziel-Thesaurus und den Zugriff zu seinen Einträgen.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.19
    0.19344495 = product of:
      0.23213395 = sum of:
        0.03243817 = weight(_text_:und in 3081) [ClassicSimilarity], result of:
          0.03243817 = score(doc=3081,freq=20.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3097467 = fieldWeight in 3081, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.048947323 = weight(_text_:anwendung in 3081) [ClassicSimilarity], result of:
          0.048947323 = score(doc=3081,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.21396513 = fieldWeight in 3081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.027738057 = weight(_text_:des in 3081) [ClassicSimilarity], result of:
          0.027738057 = score(doc=3081,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21198097 = fieldWeight in 3081, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.06839625 = weight(_text_:prinzips in 3081) [ClassicSimilarity], result of:
          0.06839625 = score(doc=3081,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.25292668 = fieldWeight in 3081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.054614164 = product of:
          0.10922833 = sum of:
            0.10922833 = weight(_text_:thesaurus in 3081) [ClassicSimilarity], result of:
              0.10922833 = score(doc=3081,freq=12.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5002464 = fieldWeight in 3081, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3081)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
    Footnote
    Dissertation, Humboldt-Universität zu Berlin - Institut für Bibliotheks- und Informationswissenschaft.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  5. Martínez-González, M.M.; Alvite-Díez, M.L.: Thesauri and Semantic Web : discussion of the evolution of thesauri toward their integration with the Semantic Web (2019) 0.19
    0.18982713 = product of:
      0.22779256 = sum of:
        0.012822312 = weight(_text_:und in 5997) [ClassicSimilarity], result of:
          0.012822312 = score(doc=5997,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.12243814 = fieldWeight in 5997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5997)
        0.061184157 = weight(_text_:anwendung in 5997) [ClassicSimilarity], result of:
          0.061184157 = score(doc=5997,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 5997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5997)
        0.020018218 = weight(_text_:des in 5997) [ClassicSimilarity], result of:
          0.020018218 = score(doc=5997,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 5997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5997)
        0.08549531 = weight(_text_:prinzips in 5997) [ClassicSimilarity], result of:
          0.08549531 = score(doc=5997,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 5997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5997)
        0.048272558 = product of:
          0.096545115 = sum of:
            0.096545115 = weight(_text_:thesaurus in 5997) [ClassicSimilarity], result of:
              0.096545115 = score(doc=5997,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.44215953 = fieldWeight in 5997, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5997)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Thesauri are Knowledge Organization Systems (KOS), that arise from the consensus of wide communities. They have been in use for many years and are regularly updated. Whereas in the past thesauri were designed for information professionals for indexing and searching, today there is a demand for conceptual vocabularies that enable inferencing by machines. The development of the Semantic Web has brought a new opportunity for thesauri, but thesauri also face the challenge of proving that they add value to it. The evolution of thesauri toward their integration with the Semantic Web is examined. Elements and structures in the thesaurus standard, ISO 25964, and SKOS (Simple Knowledge Organization System), the Semantic Web standard for representing KOS, are reviewed and compared. Moreover, the integrity rules of thesauri are contrasted with the axioms of SKOS. How SKOS has been applied to represent some real thesauri is taken into account. Three thesauri are chosen for this aim: AGROVOC, EuroVoc and the UNESCO Thesaurus. Based on the results of this comparison and analysis, the benefits that Semantic Web technologies offer to thesauri, how thesauri can contribute to the Semantic Web, and the challenges that would help to improve their integration with the Semantic Web are discussed.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Assem, M. van: Converting and integrating vocabularies for the Semantic Web (2010) 0.15
    0.14595625 = product of:
      0.1751475 = sum of:
        0.01025785 = weight(_text_:und in 4639) [ClassicSimilarity], result of:
          0.01025785 = score(doc=4639,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.09795051 = fieldWeight in 4639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4639)
        0.048947323 = weight(_text_:anwendung in 4639) [ClassicSimilarity], result of:
          0.048947323 = score(doc=4639,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.21396513 = fieldWeight in 4639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=4639)
        0.016014574 = weight(_text_:des in 4639) [ClassicSimilarity], result of:
          0.016014574 = score(doc=4639,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.12238726 = fieldWeight in 4639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4639)
        0.06839625 = weight(_text_:prinzips in 4639) [ClassicSimilarity], result of:
          0.06839625 = score(doc=4639,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.25292668 = fieldWeight in 4639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.03125 = fieldNorm(doc=4639)
        0.031531505 = product of:
          0.06306301 = sum of:
            0.06306301 = weight(_text_:thesaurus in 4639) [ClassicSimilarity], result of:
              0.06306301 = score(doc=4639,freq=4.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.2888174 = fieldWeight in 4639, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4639)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Object
    Art and architecture thesaurus
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Geuter, J.: Nein, Ethik kann man nicht programmieren (2018) 0.09
    0.090128206 = product of:
      0.18025641 = sum of:
        0.031092454 = weight(_text_:und in 4428) [ClassicSimilarity], result of:
          0.031092454 = score(doc=4428,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.2968967 = fieldWeight in 4428, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4428)
        0.12113845 = weight(_text_:anwendung in 4428) [ClassicSimilarity], result of:
          0.12113845 = score(doc=4428,freq=4.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.5295367 = fieldWeight in 4428, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4428)
        0.028025504 = weight(_text_:des in 4428) [ClassicSimilarity], result of:
          0.028025504 = score(doc=4428,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 4428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4428)
      0.5 = coord(3/6)
    
    Abstract
    Ethik kann man in Code festschreiben und künstliche Intelligenz ist in 20 Jahren besser als der Mensch? Nein. Sechs Digitalisierungsmythen, über die wir reden müssen.
    Content
    Irrtum 1: Die Anwendung von Ethik kann man in Computerprogrammen formulieren - Irrtum 2: Daten erzeugen Wahrheit, und falls nicht, braucht man einfach mehr Daten - Irrtum 3: In 20 Jahren gibt es eine künstliche Intelligenz, die genauso gut wie oder besser ist als menschliche - Irrtum 4: Diskriminierung durch Algorithmen ist schlimmer als Diskriminierung durch Menschen - Irrtum 5: Gesetze und Verträge können in Code ausgedrückt werden, um ihre Anwendung zu standardisieren - Irrtum 6: Digitale Freiheit drückt sich in der vollständigen Autonomie des Individuums aus.
  8. Unkhoff-Giske, B.: Umfrage zur RDA-Einführung in der Universitätsbibliothek Trier (2018) 0.09
    0.08940569 = product of:
      0.17881139 = sum of:
        0.031092454 = weight(_text_:und in 4343) [ClassicSimilarity], result of:
          0.031092454 = score(doc=4343,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.2968967 = fieldWeight in 4343, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4343)
        0.028025504 = weight(_text_:des in 4343) [ClassicSimilarity], result of:
          0.028025504 = score(doc=4343,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 4343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4343)
        0.11969343 = weight(_text_:prinzips in 4343) [ClassicSimilarity], result of:
          0.11969343 = score(doc=4343,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.44262168 = fieldWeight in 4343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4343)
      0.5 = coord(3/6)
    
    Abstract
    Nach fast einem Jahr praktischer Erfahrung mit dem neuen Regelwerk wurde in der Universitätsbibliothek Trier eine Umfrage zur Einführung von "Resource Description and Access (RDA)" durchgeführt. Dabei ging es um den Katalogisierungsalltag: die Sicherheit im Umgang mit RDA und dem Toolkit, die Informationsversorgung, Änderungen beim Arbeitsaufwand, die Bewertung der RDA-Regelungen, insbesondere des neuen Prinzips "Cataloguer's judgement" und die persönliche Einstellung gegenüber dem Regelwerksumstieg. Die Ergebnisse der 20 Fragen werden im folgenden Beitrag vorgestellt und analysiert. Die Umfrage führte zu überraschend positiven Erkenntnissen, deckte aber auch Problemfelder auf, die der Nachbearbeitung bedürfen.
  9. Heller, L.: Ordnung des Thesaurus, Anarchie des Taggens : im Bibliothekskatalog glücklich vereint? (2011) 0.08
    0.082803026 = product of:
      0.16560605 = sum of:
        0.030773548 = weight(_text_:und in 2957) [ClassicSimilarity], result of:
          0.030773548 = score(doc=2957,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 2957, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2957)
        0.06794408 = weight(_text_:des in 2957) [ClassicSimilarity], result of:
          0.06794408 = score(doc=2957,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.51924515 = fieldWeight in 2957, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=2957)
        0.06688842 = product of:
          0.13377684 = sum of:
            0.13377684 = weight(_text_:thesaurus in 2957) [ClassicSimilarity], result of:
              0.13377684 = score(doc=2957,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.61267424 = fieldWeight in 2957, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2957)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Neue Webdienste vereinen die Vorteile von Thesauri und durch privates "Tagging" gewonnenen "Ego-Daten".
  10. Gillitzer, B.: Yewno (2017) 0.08
    0.08092279 = product of:
      0.12138418 = sum of:
        0.036985204 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.036985204 = score(doc=3447,freq=26.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.048947323 = weight(_text_:anwendung in 3447) [ClassicSimilarity], result of:
          0.048947323 = score(doc=3447,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.21396513 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.022648027 = weight(_text_:des in 3447) [ClassicSimilarity], result of:
          0.022648027 = score(doc=3447,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.17308173 = fieldWeight in 3447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.012803626 = product of:
          0.025607252 = sum of:
            0.025607252 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.025607252 = score(doc=3447,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
  11. Peters-Kottig, W.: Anwendung von OPUS für Forschungsdaten : das Beispiel eines außeruniversitären Forschungsinstituts (2018) 0.07
    0.07238789 = product of:
      0.14477578 = sum of:
        0.031092454 = weight(_text_:und in 4351) [ClassicSimilarity], result of:
          0.031092454 = score(doc=4351,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.2968967 = fieldWeight in 4351, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4351)
        0.08565781 = weight(_text_:anwendung in 4351) [ClassicSimilarity], result of:
          0.08565781 = score(doc=4351,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 4351, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4351)
        0.028025504 = weight(_text_:des in 4351) [ClassicSimilarity], result of:
          0.028025504 = score(doc=4351,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 4351, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4351)
      0.5 = coord(3/6)
    
    Abstract
    OPUS wurde als Dokumentenserver konzipiert und ursprünglich nicht für den Nachweis von Forschungsdaten angelegt. Mit vergleichsweise geringem Aufwand können dennoch Forschungsdaten als Supplementary Material zu Zeitschriftenbeiträgen publiziert werden. Auch reine Forschungsdatenpublikationen können via OPUS veröffentlicht werden, selbst wenn die gegenwärtig auf Textpublikationen zugeschnittene Metadatenerfassung weniger gut für die Beschreibung reiner Forschungsdaten geeignet ist. Ein Unterschied zu anderen Systemen und Anwendungsszenarien besteht in der Beschränkung, großvolumige Daten nicht innerhalb von OPUS selbst vorzuhalten. Der für das institutionelle Repository des Zuse-Instituts Berlin konzipierte pragmatische Lösungsansatz ist in OPUS ohne zusätzliche Programmierung umsetzbar und skaliert für beliebig große Forschungsdatensätze.
  12. Helbig, K.; Biernacka, K.; Buchholz, P.; Dolzycka, D.; Hartmann, N.; Hartmann, T.; Hiemenz, B.M.; Jacob, B.; Kuberek, M.; Weiß, N.; Dreyer, M.: Lösungen und Leitfäden für das institutionelle Forschungsdatenmanagement (2019) 0.07
    0.07180159 = product of:
      0.14360318 = sum of:
        0.046160325 = weight(_text_:und in 5595) [ClassicSimilarity], result of:
          0.046160325 = score(doc=5595,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4407773 = fieldWeight in 5595, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5595)
        0.07342099 = weight(_text_:anwendung in 5595) [ClassicSimilarity], result of:
          0.07342099 = score(doc=5595,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 5595, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=5595)
        0.02402186 = weight(_text_:des in 5595) [ClassicSimilarity], result of:
          0.02402186 = score(doc=5595,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 5595, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5595)
      0.5 = coord(3/6)
    
    Abstract
    Hochschulen und deren Zentraleinrichtungen beschäftigen sich zunehmend mit dem Thema Forschungsdatenmanagement (FDM), um ihre Forschenden adäquat zu unterstützen. Nicht zuletzt aufgrund neuer Verlags- und Förderanforderungen wünschen sich Forschende Beratung und Orientierung, wie sie mit ihren Forschungsdaten umgehen sollen. Damit Hochschulen schnell und nachhaltig Lösungen zum institutionellen FDM etablieren können, haben fünf Berliner und Brandenburger Universitäten im gemeinsamen Verbundvorhaben FDMentor mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) entsprechende Leitfäden und Werkzeuge erarbeitet. Die innerhalb von zwei Jahren (2017-2019) entstandenen Ergebnisse in den Bereichen Strategieentwicklung, Forschungsdaten-Policy, rechtliche Aspekte und Kompetenzausbau finden über das Verbundprojekt hinaus ihre Anwendung.
  13. Sünkler, S.: Prototypische Entwicklung einer Software für die Erfassung und Analyse explorativer Suchen in Verbindung mit Tests zur Retrievaleffektivität (2012) 0.07
    0.06984376 = product of:
      0.13968752 = sum of:
        0.038466934 = weight(_text_:und in 479) [ClassicSimilarity], result of:
          0.038466934 = score(doc=479,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3673144 = fieldWeight in 479, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
        0.061184157 = weight(_text_:anwendung in 479) [ClassicSimilarity], result of:
          0.061184157 = score(doc=479,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 479, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
        0.040036436 = weight(_text_:des in 479) [ClassicSimilarity], result of:
          0.040036436 = score(doc=479,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.30596817 = fieldWeight in 479, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
      0.5 = coord(3/6)
    
    Abstract
    Gegenstand dieser Arbeit ist die Entwicklung eines funktionalen Prototyps einer Webanwendung für die Verknüpfung der Evaluierung von explorativen Suchen in Verbindung mit der Durchführung klassisches Retrievaltests. Als Grundlage für die Programmierung des Prototyps werden benutzerorientierte und systemorientierte Evalulierungsmethoden für Suchmaschinen analysiert und in einem theoretischen Modell zur Untersuchung von Informationssysteme und Suchmaschinen kombiniert. Bei der Gestaltung des Modells und des Prototyps wird gezeigt, wie sich aufgezeichnete Aktionsdaten praktisch für die Suchmaschinenevaluierung verwenden lassen, um auf der einen Seite eine Datengrundlage für Retrievaltests zu gewinnen und andererseits, um für die Auswertung von Relevanzbewertungen auch das implizierte Feedback durch Handlungen der Anwender zu berücksichtigen. Retrievaltests sind das gängige und erprobte Mittel zur Messung der Retrievaleffektiviät von Informationssystemen und Suchmaschinen, verzichten aber auf eine Berücksichtigung des tatsächlichen Nutzerverhaltens. Eine Methode für die Erfassung der Interaktionen von Suchmaschinennutzern sind protokollbasierte Tests, mit denen sich Logdateien über Benutzer einer Anwendung generieren lassen. Die im Rahmen der Arbeit umgesetzte Software bietet einen Ansatz, Retrievaltests auf Basis protokollierter Nutzerdaten in Verbindung mit kontrollierten Suchaufgaben, durchzuführen. Das Ergebnis dieser Arbeit ist ein fertiger funktionaler Prototyp, der in seinem Umfang bereits innerhalb von Suchmaschinenstudien nutzbar ist.
    Content
    Masterarbeit im Studiengang Informationswissenschaft und -management.
  14. Hinrichs, I.; Milmeister, G.; Schäuble, P.; Steenweg, H.: Computerunterstützte Sacherschließung mit dem Digitalen Assistenten (DA-2) (2016) 0.07
    0.0695351 = product of:
      0.1390702 = sum of:
        0.025386883 = weight(_text_:und in 3563) [ClassicSimilarity], result of:
          0.025386883 = score(doc=3563,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.24241515 = fieldWeight in 3563, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3563)
        0.08565781 = weight(_text_:anwendung in 3563) [ClassicSimilarity], result of:
          0.08565781 = score(doc=3563,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 3563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3563)
        0.028025504 = weight(_text_:des in 3563) [ClassicSimilarity], result of:
          0.028025504 = score(doc=3563,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 3563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3563)
      0.5 = coord(3/6)
    
    Abstract
    Wir beschreiben den Digitalen Assistenten DA-2, den wir zur Unterstützung der Sacherschliessung im IBS-Verbund implementiert haben. Diese webbasierte Anwendung ist eine vollständige Neuimplementierung, welche die Erkenntnisse des Vorgängersystems bei der Zentralbibliothek Zürich berücksichtigt. Wir stellen Überlegungen zur Zukunft der Sacherschliessung an und geben eine Übersicht über Projekte mit ähnlichen Zielsetzungen, die Sacherschließung mit Computerunterstützung effizienter und besser zu gestalten.
  15. Neudecker, C.; Rehm, G,: Digitale Kuratierungstechnologien für Bibliotheken (2016) 0.07
    0.06907622 = product of:
      0.13815244 = sum of:
        0.04070958 = weight(_text_:und in 3208) [ClassicSimilarity], result of:
          0.04070958 = score(doc=3208,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.38872904 = fieldWeight in 3208, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3208)
        0.07342099 = weight(_text_:anwendung in 3208) [ClassicSimilarity], result of:
          0.07342099 = score(doc=3208,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 3208, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=3208)
        0.02402186 = weight(_text_:des in 3208) [ClassicSimilarity], result of:
          0.02402186 = score(doc=3208,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 3208, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3208)
      0.5 = coord(3/6)
    
    Abstract
    In diesem Artikel werden digitale Kuratierungstechnologien vorgestellt, wie sie aktuell im Rahmen eines vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Verbundprojekts unter der Leitung des DFKI für die Anwendung in verschiedenen Branchen und Domänen entwickelt werden. Der besondere Augenmerk liegt dabei auf deren Anwendungsszenarien in Bibliotheken - nach einer Einführung in die Herausforderungen, die sich durch die Massendigitalisierung in Bibliotheken stellen, werden exemplarisch Einsatzmöglichkeiten von Kuratierungstechnologien im Kontext von Bibliotheken vorgestellt. Anhand von Beispielen aus der bibliothekarischen Arbeit im 21. Jahrhundert, sowie der Nachnutzung digitaler Bibliotheksdaten in Wissenschaft und Kreativwirtschaft, werden die vielfältigen Möglichkeiten und Potenziale der Nutzung von Kuratierungstechnologien zur Datenaufbereitung, -anreicherung und Bereitstellung von attraktiven Diensten in Bibliotheken sowie für die Entwicklung neuartiger Forschungs- und Geschäftsfelder in deren Umfeld aufgezeigt.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/158/356.
  16. RDA Toolkit (3) : Oktober 2017 (2017) 0.07
    0.06579544 = product of:
      0.13159087 = sum of:
        0.025644625 = weight(_text_:und in 3994) [ClassicSimilarity], result of:
          0.025644625 = score(doc=3994,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.24487628 = fieldWeight in 3994, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3994)
        0.061184157 = weight(_text_:anwendung in 3994) [ClassicSimilarity], result of:
          0.061184157 = score(doc=3994,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 3994, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3994)
        0.044762097 = weight(_text_:des in 3994) [ClassicSimilarity], result of:
          0.044762097 = score(doc=3994,freq=10.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.3420828 = fieldWeight in 3994, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3994)
      0.5 = coord(3/6)
    
    Abstract
    Am 10. Oktober 2017 ist das neue Release des RDA Toolkits erschienen. Aufgrund des 3R-Projekts (RDA Toolkit Restruction and Redesign Project) gab es keine inhaltlichen Änderungen am Regelwerkstext. Es wurden ausschließlich Änderungen an den D-A-CH vorgenommen, die in der Änderungsdokumentation im RDA-Info-Wiki<https://wiki.dnb.de/x/1hLSBg> aufgelistet sind. Die Gesamtübersicht der D-A-CH nach Kapiteln finden Sie im RDA Toolkit unter dem Reiter "Ressourcen". Wir möchten daran erinnern, dass für die Anwendung von RDA im deutschsprachigen Raum jeweils der deutsche Text maßgeblich ist. Im Juni 2018 wird das RDA Toolkit einen Relaunch erfahren und mit einer neuen Oberfläche erscheinen. Dieser beinhaltet ein Redesign der Toolkit-Oberfläche und die inhaltliche Anpassung des Standards RDA an das Library Reference Model (IFLA LRM) sowie die künftige stärkere Ausrichtung auf die aktuellen technischen Möglichkeiten durch den sogenannten 4-Fold-Path. Zunächst wird im Juni 2018 die englische Originalausgabe der RDA in der neuen Form erscheinen. Alle Übersetzungen werden in einer Übergangszeit angepasst. Hierfür wird die alte Version des RDA Toolkit für ein weiteres Jahr zur Verfügung gestellt. Der Stand Oktober 2017 der deutschen Ausgabe und die D-A-CH-Anwendungsrichtlinien bleiben bis zur Anpassung eingefroren. Im geplanten Dezember-Release des RDA Toolkit wird es keine Änderungen für die deutsche Ausgabe und die D-A-CH-Anwendungsrichtlinien geben. [Inetbib vom 11.10.2017]
  17. Räwel, J.: Können Maschinen denken? : der Turing-Test aus systemtheoretischer Perspektive (2018) 0.06
    0.06343261 = product of:
      0.12686522 = sum of:
        0.025644625 = weight(_text_:und in 4383) [ClassicSimilarity], result of:
          0.025644625 = score(doc=4383,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.24487628 = fieldWeight in 4383, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4383)
        0.061184157 = weight(_text_:anwendung in 4383) [ClassicSimilarity], result of:
          0.061184157 = score(doc=4383,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 4383, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4383)
        0.040036436 = weight(_text_:des in 4383) [ClassicSimilarity], result of:
          0.040036436 = score(doc=4383,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.30596817 = fieldWeight in 4383, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4383)
      0.5 = coord(3/6)
    
    Abstract
    Alan Turing beantwortete diese Frage nicht unmittelbar, sondern indirekt über das mittlerweile praktisch durchführbare Gedankenexperiment eines "imitation game". Seine Antwort lautete, es könne zumindest nicht ausgeschlossen werden, dass Maschinen (Computer) denken können, wenn sie Kommunikation, etwa als Wechselspiel von Fragen und Antworten, derart gut imitieren, dass (durch Menschen) mit hoher Wahrscheinlichkeit nicht entschieden werden kann, ob fragliche Kommunikation maschinell oder durch eine menschliche Person erfolgt. Dies zumal angesichts (damals zukünftiger) selbstlernender Maschinen bzw. Algorithmen, denen es in ihrer Anwendung möglich ist, eigene Strukturen zu verändern und damit potentiell die Simulation (?) der Kommunikation - bzw. des damit zusammenhängenden Denkens (?) - des "imitation game" fortlaufend zu verbessern. Wir werden die eingangs gestellte Frage, bezugnehmend auf die Luhmannsche Systemtheorie und damit unter einem radikal anderen Blickwinkel als sonst üblich, relativ umstandslos und direkt beantworten können. Allerdings werden wir feststellen müssen, dass die schlichte, umstandslose Beantwortung der Frage durch die komplexen theoretischen Voraussetzungen der Systemtheorie erkauft sind. So ist etwa aus systemtheoretischer Perspektive keineswegs selbstverständlich, obgleich die eingangs gestellte Frage dies nahelegt, welche Instanz im Unterschied zum fraglichen maschinellen Denken fraglos Denken erlaubt.
    Content
    "Womit sich die Frage stellt, welcher Instanz die Systemtheorie die Fähigkeit des Denkens zurechnet. Die Antwort lautet, dass der Ort des Denkens das Denken ist."
  18. Mayr, P.; Zapilko, B.; Sure, Y.: ¬Ein Mehr-Thesauri-Szenario auf Basis von SKOS und Crosskonkordanzen (2010) 0.06
    0.062734656 = product of:
      0.12546931 = sum of:
        0.043520372 = weight(_text_:und in 3392) [ClassicSimilarity], result of:
          0.043520372 = score(doc=3392,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 3392, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
        0.02402186 = weight(_text_:des in 3392) [ClassicSimilarity], result of:
          0.02402186 = score(doc=3392,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 3392, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
        0.057927076 = product of:
          0.11585415 = sum of:
            0.11585415 = weight(_text_:thesaurus in 3392) [ClassicSimilarity], result of:
              0.11585415 = score(doc=3392,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5305915 = fieldWeight in 3392, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3392)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Im August 2009 wurde SKOS "Simple Knowledge Organization System" als neuer Standard für web-basierte kontrollierte Vokabulare durch das W3C veröffentlicht1. SKOS dient als Datenmodell, um kontrollierte Vokabulare über das Web anzubieten sowie technisch und semantisch interoperabel zu machen. Perspektivisch kann die heterogene Landschaft der Erschließungsvokabulare über SKOS vereinheitlicht und vor allem die Inhalte der klassischen Datenbanken (Bereich Fachinformation) für Anwendungen des Semantic Web, beispielsweise als Linked Open Data2 (LOD), zugänglich und stär-ker miteinander vernetzt werden. Vokabulare im SKOS-Format können dabei eine relevante Funktion einnehmen, indem sie als standardisiertes Brückenvokabular dienen und semantische Verlinkung zwischen erschlossenen, veröffentlichten Daten herstellen. Die folgende Fallstudie skizziert ein Szenario mit drei thematisch verwandten Thesauri, die ins SKOS-Format übertragen und inhaltlich über Crosskonkordanzen aus dem Projekt KoMoHe verbunden werden. Die Mapping Properties von SKOS bieten dazu standardisierte Relationen, die denen der Crosskonkordanzen entsprechen. Die beteiligten Thesauri der Fallstudie sind a) TheSoz (Thesaurus Sozialwissenschaften, GESIS), b) STW (Standard-Thesaurus Wirtschaft, ZBW) und c) IBLK-Thesaurus (SWP).
    Footnote
    Beitrag für: 25. Oberhofer Kolloquium 2010: Recherche im Google-Zeitalter - Vollständig und präzise!?.
  19. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.06
    0.059710152 = product of:
      0.119420305 = sum of:
        0.06253883 = product of:
          0.18761648 = sum of:
            0.18761648 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.18761648 = score(doc=4388,freq=2.0), product of:
                0.4005917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04725067 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.022208897 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.022208897 = score(doc=4388,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.03467257 = weight(_text_:des in 4388) [ClassicSimilarity], result of:
          0.03467257 = score(doc=4388,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2649762 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(3/6)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  20. Eversberg, B.: Zum Thema "Migration" - Beispiel USA (2018) 0.06
    0.056305252 = product of:
      0.112610504 = sum of:
        0.031408124 = weight(_text_:und in 4386) [ClassicSimilarity], result of:
          0.031408124 = score(doc=4386,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29991096 = fieldWeight in 4386, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4386)
        0.061184157 = weight(_text_:anwendung in 4386) [ClassicSimilarity], result of:
          0.061184157 = score(doc=4386,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 4386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4386)
        0.020018218 = weight(_text_:des in 4386) [ClassicSimilarity], result of:
          0.020018218 = score(doc=4386,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 4386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4386)
      0.5 = coord(3/6)
    
    Abstract
    Wir leiden an einer bedauerlichen Knappheit von Information über die Marktlage und Erfahrungen bei den bibliothekarischen DV-Systemen. Das ist jenseits des "Teiches" anders: Jedes Jahr veröffentlicht der Konsultant Marshall Breeding eine umfangreiche Marktübersicht und hält auf seiner Website eine Menge andere Berichte und interessante Übersichten bereit, z.B. "Migration Reports": https://librarytechnology.org/Library Technology Guides. Da sieht man in Tabellen, z.B. auch für Koha, wieviele Anwender von welchen Systemen insgesamt schon zu Koha gewandert sind, die Gesamtzahl ist 3.547! Zu Alma dagegen nur 1151, zu WMS 464, zu Aleph 1036. ("allegro-C" ist nicht dabei, aber es gab ja auch nie irgendwelche Anwender in USA, außer Goethe-Institute, aber die sind wohl nicht erfaßt.) Breedings neueste Marktübersicht für 2018 ist im Journal "American Libraries" veröffentlicht: https://americanlibrariesmagazine.org/2018/05/01/library-systems-report-2018/
    Zu den Systemen KOHA und FOLIO gibt es folgende aktuelle Demos, die man mit allen Funktionen ausprobieren kann: KOHA Komplette Demo-Anwendung von Bywater Solutions: https://bywatersolutions.com/koha-demo user = bywater / password = bywater Empfohlen: Cataloguing, mit den MARC-Formularen und Direkt-Datenabruf per Z39 FOLIO (GBV: "The Next-Generation Library System") Demo: https://folio-demo.gbv.de/ user = diku_admin / password = admin Empfohlen: "Inventory" und dann Button "New" zum Katalogisieren Dann "Title Data" für neuen Datensatz. Das ist wohl aber noch in einem Beta-Zustand. Ferner: FOLIO-Präsentation Göttingen April 2018: https://www.zbw-mediatalk.eu/de/2018/05/folio-info-day-a-look-at-the-next-generation-library-system/

Authors

Languages

  • d 382
  • e 58
  • a 1
  • More… Less…

Types

  • a 308
  • r 9
  • m 7
  • n 5
  • s 5
  • x 5
  • p 2
  • i 1
  • l 1
  • More… Less…