Search (666 results, page 2 of 34)

  • × type_ss:"a"
  • × year_i:[2010 TO 2020}
  1. Behnert, C.; Borst, T.: Neue Formen der Relevanz-Sortierung in bibliothekarischen Informationssystemen : das DFG-Projekt LibRank (2015) 0.03
    0.028191041 = product of:
      0.056382082 = sum of:
        0.056382082 = product of:
          0.112764165 = sum of:
            0.112764165 = weight(_text_:z in 5392) [ClassicSimilarity], result of:
              0.112764165 = score(doc=5392,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.47175628 = fieldWeight in 5392, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5392)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das von der DFG geförderte Projekt LibRank erforscht neue Rankingverfahren für bibliothekarische Informationssysteme, die aufbauend auf Erkenntnissen aus dem Bereich Websuche qualitätsinduzierende Faktoren wie z. B. Aktualität, Popularität und Verfügbarkeit von einzelnen Medien berücksichtigen. Die konzipierten Verfahren werden im Kontext eines in den Wirtschaftswissenschaften häufig genutzten Rechercheportals (EconBiz) entwickelt und in einem Testsystem systematisch evaluiert. Es werden Rankingfaktoren, die für den Bibliotheksbereich von besonderem Interesse sind, vorgestellt und exemplarisch Probleme und Herausforderungen aufgezeigt.
  2. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.03
    0.026673805 = product of:
      0.05334761 = sum of:
        0.05334761 = product of:
          0.21339044 = sum of:
            0.21339044 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.21339044 = score(doc=400,freq=2.0), product of:
                0.37968612 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04478481 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.25 = coord(1/4)
      0.5 = coord(1/2)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  3. Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019) 0.03
    0.026673805 = product of:
      0.05334761 = sum of:
        0.05334761 = product of:
          0.21339044 = sum of:
            0.21339044 = weight(_text_:3a in 484) [ClassicSimilarity], result of:
              0.21339044 = score(doc=484,freq=2.0), product of:
                0.37968612 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04478481 = queryNorm
                0.56201804 = fieldWeight in 484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=484)
          0.25 = coord(1/4)
      0.5 = coord(1/2)
    
    Footnote
    https%3A%2F%2Fjournals.univie.ac.at%2Findex.php%2Fvoebm%2Farticle%2Fdownload%2F5332%2F5271%2F&usg=AOvVaw2yQdFGHlmOwVls7ANCpTii.
  4. Öttl, S.; Streiff, D.; Stettler, N.; Studer, M.: Aufbau einer Testumgebung zur Ermittlung signifikanter Parameter bei der Ontologieabfrage (2010) 0.02
    0.024917595 = product of:
      0.04983519 = sum of:
        0.04983519 = product of:
          0.09967038 = sum of:
            0.09967038 = weight(_text_:z in 4257) [ClassicSimilarity], result of:
              0.09967038 = score(doc=4257,freq=4.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41697758 = fieldWeight in 4257, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4257)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Einsatz von semantischen Technologien ist mittlerweile ein etabliertes Mittel zur Optimierung von Information-Retrieval-Systemen. Obwohl der Einsatz von Ontologien für verschiedene Anwendungsbereiche wie beispielsweise zur Query-Expansion (Bhogal et al. 2007), zur Strukturierung von Benutzeroberflächen bzw. zur Dialoggestaltung (z. B. Garcia & Sicilia 2003; Liu et al. 2005; Lopez et al. 2006; Paulheim 2009; Paulheim & Probst 2010), in Recommendersystemen (z. B. Taehee et al. 2006; Cantador et al. 2008; Middleton et al. 2001; Middleton et al. 2009) usw. rege erforscht wird, gibt es noch kaum Bestrebungen, die einzelnen Abfragemethodiken für Ontologien systematisch zu untersuchen. Bei der Abfrage von Ontologien geht es in erster Linie darum, Zusammenhänge zwischen Begriffen zu ermitteln, indem hierarchische (Classes und Individuals), semantische (Object Properties) und ergänzende (Datatype Properties) Beziehungen abgefragt oder logische Verknüpfungen abgeleitet werden. Hierbei werden sogenannte Reasoner für die Ableitungen und als Abfragesprache SPARQL (seltener auch XPath) eingesetzt. Ein weiterer, weniger oft eingesetzter, vielversprechender Ansatz findet sich bei Hoser et al. (2006) und Weng & Chang (2008), die Techniken der Sozialen Netzwerkanalyse zur Auswertung von Ontologien miteinsetzen (Semantic Network Analysis). Um die Abfrage von Ontologien sowie Kombinationen der unterschiedlichen Abfragemöglichkeiten systematisch untersuchen zu können, wurde am SII eine entsprechende Testumgebung entwickelt, die in diesem Beitrag genauer vorgestellt werden soll.
  5. Jansen, B.J.; Liu, Z.; Simon, Z.: ¬The effect of ad rank on the performance of keyword advertising campaigns (2013) 0.02
    0.024917595 = product of:
      0.04983519 = sum of:
        0.04983519 = product of:
          0.09967038 = sum of:
            0.09967038 = weight(_text_:z in 1095) [ClassicSimilarity], result of:
              0.09967038 = score(doc=1095,freq=4.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41697758 = fieldWeight in 1095, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1095)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  6. Ye, F.Y.; Leydesdorff, L.: ¬The "academic trace" of the performance matrix : a mathematical synthesis of the h-index and the integrated impact indicator (I3) (2014) 0.02
    0.024917595 = product of:
      0.04983519 = sum of:
        0.04983519 = product of:
          0.09967038 = sum of:
            0.09967038 = weight(_text_:z in 1237) [ClassicSimilarity], result of:
              0.09967038 = score(doc=1237,freq=4.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41697758 = fieldWeight in 1237, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1237)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    The h-index provides us with 9 natural classes which can be written as a matrix of 3 vectors. The 3 vectors are: X = (X1, X2, X3) and indicates publication distribution in the h-core, the h-tail, and the uncited ones, respectively; Y = (Y1, Y2, Y3) denotes the citation distribution of the h-core, the h-tail and the so-called "excess" citations (above the h-threshold), respectively; and Z = (Z1, Z2, Z3) = (Y1-X1, Y2-X2, Y3-X3). The matrix V = (X,Y,Z)T constructs a measure of academic performance, in which the 9 numbers can all be provided with meanings in different dimensions. The "academic trace" tr(V) of this matrix follows naturally, and contributes a unique indicator for total academic achievements by summarizing and weighting the accumulation of publications and citations. This measure can also be used to combine the advantages of the h-index and the integrated impact indicator (I3) into a single number with a meaningful interpretation of the values. We illustrate the use of tr(V) for the cases of 2 journal sets, 2 universities, and ourselves as 2 individual authors.
  7. Savoy, J.: Text representation strategies : an example with the State of the union addresses (2016) 0.02
    0.024917595 = product of:
      0.04983519 = sum of:
        0.04983519 = product of:
          0.09967038 = sum of:
            0.09967038 = weight(_text_:z in 3042) [ClassicSimilarity], result of:
              0.09967038 = score(doc=3042,freq=4.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41697758 = fieldWeight in 3042, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3042)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Based on State of the Union addresses from 1790 to 2014 (225 speeches delivered by 42 presidents), this paper describes and evaluates different text representation strategies. To determine the most important words of a given text, the term frequencies (tf) or the tf?idf weighting scheme can be applied. Recently, latent Dirichlet allocation (LDA) has been proposed to define the topics included in a corpus. As another strategy, this study proposes to apply a vocabulary specificity measure (Z?score) to determine the most significantly overused word-types or short sequences of them. Our experiments show that the simple term frequency measure is not able to discriminate between specific terms associated with a document or a set of texts. Using the tf idf or LDA approach, the selection requires some arbitrary decisions. Based on the term-specific measure (Z?score), the term selection has a clear theoretical basis. Moreover, the most significant sentences for each presidency can be determined. As another facet, we can visualize the dynamic evolution of usage of some terms associated with their specificity measures. Finally, this technique can be employed to define the most important lexical leaders introducing terms overused by the k following presidencies.
  8. Li, D.; Luo, Z.; Ding, Y.; Tang, J.; Sun, G.G.-Z.; Dai, X.; Du, J.; Zhang, J.; Kong, S.: User-level microblogging recommendation incorporating social influence (2017) 0.02
    0.024917595 = product of:
      0.04983519 = sum of:
        0.04983519 = product of:
          0.09967038 = sum of:
            0.09967038 = weight(_text_:z in 3426) [ClassicSimilarity], result of:
              0.09967038 = score(doc=3426,freq=4.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41697758 = fieldWeight in 3426, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3426)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  9. Chen, L.; Holsapple, C.W.; Hsiao, S.-H.; Ke, Z.; Oh, J.-Y.; Yang, Z.: Knowledge-dissemination channels : analytics of stature evaluation (2017) 0.02
    0.024917595 = product of:
      0.04983519 = sum of:
        0.04983519 = product of:
          0.09967038 = sum of:
            0.09967038 = weight(_text_:z in 3531) [ClassicSimilarity], result of:
              0.09967038 = score(doc=3531,freq=4.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41697758 = fieldWeight in 3531, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3531)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  10. Pohl, A.; Ostrowski, F.: Zur Konzeption und Implementierung einer Infrastruktur für freie bibliografische Daten (2010) 0.02
    0.024667162 = product of:
      0.049334325 = sum of:
        0.049334325 = product of:
          0.09866865 = sum of:
            0.09866865 = weight(_text_:z in 4274) [ClassicSimilarity], result of:
              0.09866865 = score(doc=4274,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41278675 = fieldWeight in 4274, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4274)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das zunehmende Bewusstsein für "Open Data" in der Bibliothekswelt eröffnet wichtige Fragen bezüglich des Umgangs mit freien Daten. Der vorliegende Text diskutiert die konzeptionellen Grundlinien einer technischen Open-Data-Infrastruktur und arbeitet die vielschichtigen Anforderungen an eine solche Infrastruktur heraus. Die behandelten Gesichtspunkte reichen von der Datenpublikation über ihre Beschreibung bis hin zur Änderungsverwaltung. Für einige Aspekte werden viel versprechende Anknüpfungspunkte identifiziert, z. B. in Gestalt von Versionsverwaltungstools aus der OpenSource-Community oder in Form von laufenden Projekten der Open Knowledge Foundation oder des W3C.
  11. Schwens, U.: Chancen und Risiken der Deutschen Digtitalen Bibliothek (2011) 0.02
    0.024667162 = product of:
      0.049334325 = sum of:
        0.049334325 = product of:
          0.09866865 = sum of:
            0.09866865 = weight(_text_:z in 196) [ClassicSimilarity], result of:
              0.09866865 = score(doc=196,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41278675 = fieldWeight in 196, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=196)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Erstmals in Deutschland wird ein Portal aufgebaut, das eine Suche nicht nur innerhalb gleicher Institutionen (z. B. Bibliotheken oder Archive) erlaubt, sondern über Institutionstypen, Medienarten und lokale / regionale Gegebenheiten hinweg möglich macht. Was ist das Ziel eines solchen Vorhabens, welche Überlegungen stecken dahinter und welche Voraussetzungen müssen erfüllt sein, dass es erfolgreich wird? Wer sind die Beteiligten und wie sieht die Finanzierung aus? Der Artikel informiert über den Stand der Planungen, wirbt für die Schaffung einer breiten Basis zur Digitalisierung unserer kulturellen und wissenschaftlichen »Schätze« und lädt zur weiteren Diskussion ein.
  12. Kong, S.; Ye, F.; Feng, L.; Zhao, Z.: Towards the prediction problems of bursting hashtags on Twitter (2015) 0.02
    0.024667162 = product of:
      0.049334325 = sum of:
        0.049334325 = product of:
          0.09866865 = sum of:
            0.09866865 = weight(_text_:z in 2338) [ClassicSimilarity], result of:
              0.09866865 = score(doc=2338,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41278675 = fieldWeight in 2338, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2338)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  13. Puschmann, C.; Peters, I.: Informationsverbreitung in sozialen Medien (2017) 0.02
    0.024667162 = product of:
      0.049334325 = sum of:
        0.049334325 = product of:
          0.09866865 = sum of:
            0.09866865 = weight(_text_:z in 3718) [ClassicSimilarity], result of:
              0.09866865 = score(doc=3718,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41278675 = fieldWeight in 3718, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3718)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Weitergabe und Verbreitung von Informationen zählen zu den beliebtesten Aktivitäten in den sozialen Medien. Zahlreiche Nutzungsoptionen (z. B. Posting, Sharing, Retweeting, Reblogging) ermöglichen das schnelle Teilen von Neuigkeiten in unterschiedlichen Formaten. Dabei erfüllen Weitergabe und Verbreitung von Informationen für die User wichtige soziale und kommunikative Funktionen, die über den Kerneffekt der Informationsdiffusion häufig hinausgehen. In unserem Beitrag geben wir auf Basis aktueller Literatur einen Überblick über typische Erklärungsmodelle für Informationsdiffusion einerseits und beschreiben andererseits Motive für die Weitergabe und Verbreitung von Informationen in und mithilfe von sozialen Medien. Wir skizzieren zudem den Einfluss von Netzwerkstrukturen und Informationstypen auf und Barrieren bei der Informationsdiffusion.
  14. Alex, H.: ¬Die Dewey-Dezimalklassifikation (DDC) (2018) 0.02
    0.024667162 = product of:
      0.049334325 = sum of:
        0.049334325 = product of:
          0.09866865 = sum of:
            0.09866865 = weight(_text_:z in 4338) [ClassicSimilarity], result of:
              0.09866865 = score(doc=4338,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41278675 = fieldWeight in 4338, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4338)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Dewey-Dezimalklassifikation (DDC) ist die international am weitesten verbreitete bibliothekarische Klassifikation. Ursprünglich vor allem im anglo-amerikanischen Raum eingesetzt, ist sie heute aufgrund vieler Übersetzungen unter anderem auch in Europa - seit Erscheinen der deutschen Ausgabe auch im deutschsprachigen Raum - weit verbreitet. Die Schwerpunkte dieses Beitrags liegen zum einen auf dem Klassifikationssystem selbst, indem z. B. sein Aufbau und die Notationsvergabe erklärt werden, und zum anderen auf der DDC-Anwendung im deutschsprachigen Raum (u. a. Projekt DDC Deutsch, WebDewey Deutsch, Anwendung der DDC in der Deutschen Nationalbibliothek).
  15. Krüger, N.; Burblies, C.; Pianos, T.: Hands on : Tools für aktivierende Methoden in Informationskompetenz-Schulungen (2018) 0.02
    0.024667162 = product of:
      0.049334325 = sum of:
        0.049334325 = product of:
          0.09866865 = sum of:
            0.09866865 = weight(_text_:z in 4587) [ClassicSimilarity], result of:
              0.09866865 = score(doc=4587,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41278675 = fieldWeight in 4587, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4587)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Neuere didaktische Ansätze legen häufig einen Fokus auf die aktive Beteiligung der Lernenden. Zu nennen sind hier z. B. das Learner Centered Teaching, der Flipped Classroom oder Gamification. Es stellt sich die Frage, wie diese Techniken in Informationskompetenz-Kursen von kurzer Dauer oder mit größeren Gruppen eingesetzt werden können und ob dies in Hinblick auf den Lernerfolg sinnvoll ist. Der Artikel beleuchtet Gründe für den Einsatz aktivierender Methoden in Informationskompetenz-Schulungen und stellt verschiedene kostenlose Online-Tools und Gruppenübungen vor, die zur Aktivierung der Lernenden in Schulungen eingesetzt werden können. Die vorgestellten Tools eignen sich für Schulungen in öffentlichen und in wissenschaftlichen Bibliotheken.
  16. Hora, M.: Methoden für das Ranking in Discovery-Systemen (2018) 0.02
    0.024667162 = product of:
      0.049334325 = sum of:
        0.049334325 = product of:
          0.09866865 = sum of:
            0.09866865 = weight(_text_:z in 4968) [ClassicSimilarity], result of:
              0.09866865 = score(doc=4968,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41278675 = fieldWeight in 4968, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4968)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Discovery-Systeme bieten meist als Standardeinstellung eine Sortierung nach Relevanz an. Wie die Relevanz ermittelt wird, ist häufig intransparent. Dabei wären Kenntnisse darüber aus Nutzersicht ein wichtiger Faktor in der Informationskompetenz, während Bibliotheken sicherstellen sollten, dass das Ranking zum eigenen Bestand und Publikum passt. In diesem Aufsatz wird dargestellt, wie Discovery-Systeme Treffer auswählen und bewerten. Dazu gehören Indexierung, Prozessierung, Text-Matching und weitere Relevanzkriterien, z. B. Popularität oder Verfügbarkeit. Schließlich müssen alle betrachteten Kriterien zu einem zentralen Score zusammengefasst werden. Ein besonderer Fokus wird auf das Ranking von EBSCO Discovery Service, Primo und Summon gelegt.
  17. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.02
    0.024667162 = product of:
      0.049334325 = sum of:
        0.049334325 = product of:
          0.09866865 = sum of:
            0.09866865 = weight(_text_:z in 5023) [ClassicSimilarity], result of:
              0.09866865 = score(doc=5023,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41278675 = fieldWeight in 5023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5023)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieser Beitrag beschreibt eine Studie zur Entwicklung und Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme. Dazu wurden mögliche Faktoren für das Relevanzranking ausgehend von den Verfahren in Websuchmaschinen identifiziert, auf den Bibliothekskontext übertragen und systematisch evaluiert. Mithilfe eines Testsystems, das auf dem ZBW-Informationsportal EconBiz und einer web-basierten Software zur Evaluierung von Suchsystemen aufsetzt, wurden verschiedene Relevanzfaktoren (z. B. Popularität in Verbindung mit Aktualität) getestet. Obwohl die getesteten Rankingverfahren auf einer theoretischen Ebene divers sind, konnten keine einheitlichen Verbesserungen gegenüber den Baseline-Rankings gemessen werden. Die Ergebnisse deuten darauf hin, dass eine Adaptierung des Rankings auf individuelle Nutzer bzw. Nutzungskontexte notwendig sein könnte, um eine höhere Performance zu erzielen.
  18. Dandan, Z.; Zheng, D.; Dongfeng, Q.: ¬A survey of RDA in Asia and a vision for future development (2019) 0.02
    0.024667162 = product of:
      0.049334325 = sum of:
        0.049334325 = product of:
          0.09866865 = sum of:
            0.09866865 = weight(_text_:z in 5341) [ClassicSimilarity], result of:
              0.09866865 = score(doc=5341,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41278675 = fieldWeight in 5341, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5341)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  19. Lai, M.-S.; Fan, Z.; Zhang, L.: ¬The development, current state, and effects of community informatization in mainland China : dreaming scientific order at the fin de siècle (2013) 0.02
    0.024667162 = product of:
      0.049334325 = sum of:
        0.049334325 = product of:
          0.09866865 = sum of:
            0.09866865 = weight(_text_:z in 5554) [ClassicSimilarity], result of:
              0.09866865 = score(doc=5554,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.41278675 = fieldWeight in 5554, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5554)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  20. Schöne neue Welt? : Fragen und Antworten: Wie Facebook menschliche Gedanken auslesen will (2017) 0.02
    0.021452643 = product of:
      0.042905286 = sum of:
        0.042905286 = product of:
          0.08581057 = sum of:
            0.08581057 = weight(_text_:22 in 2810) [ClassicSimilarity], result of:
              0.08581057 = score(doc=2810,freq=4.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.54716086 = fieldWeight in 2810, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2810)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 7.2004 9:42:33
    22. 4.2017 11:58:05

Languages

  • e 502
  • d 162
  • a 1
  • More… Less…

Types

Themes