Search (1957 results, page 1 of 98)

  • × year_i:[2010 TO 2020}
  1. (2013 ff.) 0.11
    0.10687777 = product of:
      0.21375553 = sum of:
        0.21375553 = product of:
          0.3206333 = sum of:
            0.22414514 = weight(_text_:z in 2851) [ClassicSimilarity], result of:
              0.22414514 = score(doc=2851,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.94351256 = fieldWeight in 2851, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.125 = fieldNorm(doc=2851)
            0.096488155 = weight(_text_:22 in 2851) [ClassicSimilarity], result of:
              0.096488155 = score(doc=2851,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.61904186 = fieldWeight in 2851, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=2851)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Date
    20. 1.2015 18:30:22
    Type
    z
  2. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.07
    0.07187367 = sum of:
      0.06185717 = product of:
        0.24742869 = sum of:
          0.24742869 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
            0.24742869 = score(doc=5955,freq=2.0), product of:
              0.37735748 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.04451014 = queryNorm
              0.65568775 = fieldWeight in 5955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5955)
        0.25 = coord(1/4)
      0.0100165 = product of:
        0.0300495 = sum of:
          0.0300495 = weight(_text_:h in 5955) [ClassicSimilarity], result of:
            0.0300495 = score(doc=5955,freq=4.0), product of:
              0.11058318 = queryWeight, product of:
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.04451014 = queryNorm
              0.27173662 = fieldWeight in 5955, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5955)
        0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].
  3. Engerer, V.: Metapher und Wissenstransfers im informationsbezogenen Diskurs (2013) 0.07
    0.06922512 = product of:
      0.13845024 = sum of:
        0.13845024 = sum of:
          0.08405443 = weight(_text_:z in 659) [ClassicSimilarity], result of:
            0.08405443 = score(doc=659,freq=2.0), product of:
              0.23756456 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04451014 = queryNorm
              0.35381722 = fieldWeight in 659, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=659)
          0.018212747 = weight(_text_:h in 659) [ClassicSimilarity], result of:
            0.018212747 = score(doc=659,freq=2.0), product of:
              0.11058318 = queryWeight, product of:
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.04451014 = queryNorm
              0.16469726 = fieldWeight in 659, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.046875 = fieldNorm(doc=659)
          0.03618306 = weight(_text_:22 in 659) [ClassicSimilarity], result of:
            0.03618306 = score(doc=659,freq=2.0), product of:
              0.15586694 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04451014 = queryNorm
              0.23214069 = fieldWeight in 659, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=659)
      0.5 = coord(1/2)
    
    Abstract
    Der vorliegende Beitrag1 ist ein Versuch, Eigenschaften von Schöns generativer Metapher auf das "statische" Resultat als Fachterminologie, entstanden durch Übertragung eines wissenschaftlichen Bereiches in einen anderen, anzuwenden. Metapher gilt in diesem Bereich als wissenstransferierendes Verfahren der Übertragung von Konzepten einer Disziplin auf eine andere. Weiterhin wird Metapher als Teil des sprachlichen Jargons in der informationswissenschaftlichen und bibliothekarischen Praxis thematisiert. Ein kurzer Durchgang des dänischen bibliotheksmetaphorischen Wortschatzes zeigt u. a., dass in dieser Domäne ein "ontologisches Erfahrungsgefälle" von abstrakt-konkret wirksam ist, da viele bibliothekstechnische, computer-interaktionsbezogene und informationswissenschaftliche Begriffe mit Hilfe konkreterer Konzepte aus besser verstandenen Domänen, z. B. dem Bereich der Nahrungsaufnahme, erklärt werden. Allerdings scheint auch hier der Anteil "entmetaphorisierter", ehemals metaphorischer Ausdrücke hoch zu sein, wie es bei "abgeschliffenen" Ausdrücken auch in der Gemeinsprache der Fall ist. Die Analyse wird abgerundet mit einem Ausblick auf ein Forschungsgebiet, das in dezidierter Weise von der konzeptuellen Ergiebigkeit des Metaphernbegriffs in der Untersuchung der terminologischen Wissenschaftsbeziehungen Gebrauch macht
    Date
    22. 3.2013 14:06:49
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.1, S.23-33
  4. Huang, M.-H.; Huang, W.-T.; Chang, C.-C.; Chen, D. Z.; Lin, C.-P.: The greater scattering phenomenon beyond Bradford's law in patent citation (2014) 0.07
    0.06922512 = product of:
      0.13845024 = sum of:
        0.13845024 = sum of:
          0.08405443 = weight(_text_:z in 1352) [ClassicSimilarity], result of:
            0.08405443 = score(doc=1352,freq=2.0), product of:
              0.23756456 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04451014 = queryNorm
              0.35381722 = fieldWeight in 1352, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=1352)
          0.018212747 = weight(_text_:h in 1352) [ClassicSimilarity], result of:
            0.018212747 = score(doc=1352,freq=2.0), product of:
              0.11058318 = queryWeight, product of:
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.04451014 = queryNorm
              0.16469726 = fieldWeight in 1352, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.046875 = fieldNorm(doc=1352)
          0.03618306 = weight(_text_:22 in 1352) [ClassicSimilarity], result of:
            0.03618306 = score(doc=1352,freq=2.0), product of:
              0.15586694 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04451014 = queryNorm
              0.23214069 = fieldWeight in 1352, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1352)
      0.5 = coord(1/2)
    
    Date
    22. 8.2014 17:11:29
  5. Luca, E.W. de; Dahlberg, I.: ¬Die Multilingual Lexical Linked Data Cloud : eine mögliche Zugangsoptimierung? (2014) 0.07
    0.06922512 = product of:
      0.13845024 = sum of:
        0.13845024 = sum of:
          0.08405443 = weight(_text_:z in 1736) [ClassicSimilarity], result of:
            0.08405443 = score(doc=1736,freq=2.0), product of:
              0.23756456 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04451014 = queryNorm
              0.35381722 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
          0.018212747 = weight(_text_:h in 1736) [ClassicSimilarity], result of:
            0.018212747 = score(doc=1736,freq=2.0), product of:
              0.11058318 = queryWeight, product of:
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.04451014 = queryNorm
              0.16469726 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
          0.03618306 = weight(_text_:22 in 1736) [ClassicSimilarity], result of:
            0.03618306 = score(doc=1736,freq=2.0), product of:
              0.15586694 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04451014 = queryNorm
              0.23214069 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
      0.5 = coord(1/2)
    
    Abstract
    Sehr viele Informationen sind bereits im Web verfügbar oder können aus isolierten strukturierten Datenspeichern wie Informationssystemen und sozialen Netzwerken gewonnen werden. Datenintegration durch Nachbearbeitung oder durch Suchmechanismen (z. B. D2R) ist deshalb wichtig, um Informationen allgemein verwendbar zu machen. Semantische Technologien ermöglichen die Verwendung definierter Verbindungen (typisierter Links), durch die ihre Beziehungen zueinander festgehalten werden, was Vorteile für jede Anwendung bietet, die das in Daten enthaltene Wissen wieder verwenden kann. Um ­eine semantische Daten-Landkarte herzustellen, benötigen wir Wissen über die einzelnen Daten und ihre Beziehung zu anderen Daten. Dieser Beitrag stellt unsere Arbeit zur Benutzung von Lexical Linked Data (LLD) durch ein Meta-Modell vor, das alle Ressourcen enthält und zudem die Möglichkeit bietet sie unter unterschiedlichen Gesichtspunkten aufzufinden. Wir verbinden damit bestehende Arbeiten über Wissensgebiete (basierend auf der Information Coding Classification) mit der Multilingual Lexical Linked Data Cloud (basierend auf der RDF/OWL-Repräsentation von EuroWordNet und den ähnlichen integrierten lexikalischen Ressourcen MultiWordNet, MEMODATA und die Hamburg Metapher DB).
    Date
    22. 9.2014 19:00:13
    Source
    Information - Wissenschaft und Praxis. 65(2014) H.4/5, S.279-287
  6. Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019) 0.06
    0.059091344 = sum of:
      0.05302043 = product of:
        0.21208172 = sum of:
          0.21208172 = weight(_text_:3a in 484) [ClassicSimilarity], result of:
            0.21208172 = score(doc=484,freq=2.0), product of:
              0.37735748 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.04451014 = queryNorm
              0.56201804 = fieldWeight in 484, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.046875 = fieldNorm(doc=484)
        0.25 = coord(1/4)
      0.0060709156 = product of:
        0.018212747 = sum of:
          0.018212747 = weight(_text_:h in 484) [ClassicSimilarity], result of:
            0.018212747 = score(doc=484,freq=2.0), product of:
              0.11058318 = queryWeight, product of:
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.04451014 = queryNorm
              0.16469726 = fieldWeight in 484, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.046875 = fieldNorm(doc=484)
        0.33333334 = coord(1/3)
    
    Footnote
    https%3A%2F%2Fjournals.univie.ac.at%2Findex.php%2Fvoebm%2Farticle%2Fdownload%2F5332%2F5271%2F&usg=AOvVaw2yQdFGHlmOwVls7ANCpTii.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 73(2020) H.3/4, S.496-503
  7. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.05
    0.05302043 = product of:
      0.10604086 = sum of:
        0.10604086 = product of:
          0.42416343 = sum of:
            0.42416343 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.42416343 = score(doc=973,freq=2.0), product of:
                0.37735748 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04451014 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.25 = coord(1/4)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  8. Ye, F.Y.; Leydesdorff, L.: ¬The "academic trace" of the performance matrix : a mathematical synthesis of the h-index and the integrated impact indicator (I3) (2014) 0.05
    0.048196994 = product of:
      0.09639399 = sum of:
        0.09639399 = product of:
          0.14459097 = sum of:
            0.0990591 = weight(_text_:z in 1237) [ClassicSimilarity], result of:
              0.0990591 = score(doc=1237,freq=4.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.41697758 = fieldWeight in 1237, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1237)
            0.04553187 = weight(_text_:h in 1237) [ClassicSimilarity], result of:
              0.04553187 = score(doc=1237,freq=18.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.41174316 = fieldWeight in 1237, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1237)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    The h-index provides us with 9 natural classes which can be written as a matrix of 3 vectors. The 3 vectors are: X = (X1, X2, X3) and indicates publication distribution in the h-core, the h-tail, and the uncited ones, respectively; Y = (Y1, Y2, Y3) denotes the citation distribution of the h-core, the h-tail and the so-called "excess" citations (above the h-threshold), respectively; and Z = (Z1, Z2, Z3) = (Y1-X1, Y2-X2, Y3-X3). The matrix V = (X,Y,Z)T constructs a measure of academic performance, in which the 9 numbers can all be provided with meanings in different dimensions. The "academic trace" tr(V) of this matrix follows naturally, and contributes a unique indicator for total academic achievements by summarizing and weighting the accumulation of publications and citations. This measure can also be used to combine the advantages of the h-index and the integrated impact indicator (I3) into a single number with a meaningful interpretation of the values. We illustrate the use of tr(V) for the cases of 2 journal sets, 2 universities, and ourselves as 2 individual authors.
    Object
    h-index
  9. Hahn, M.; Neumann, J.; Razum, M.: RADAR - Ein Forschungsdaten-Repositorium als Dienstleistung für die Wissenschaft (2014) 0.05
    0.045694556 = product of:
      0.09138911 = sum of:
        0.09138911 = product of:
          0.13708366 = sum of:
            0.11887092 = weight(_text_:z in 2545) [ClassicSimilarity], result of:
              0.11887092 = score(doc=2545,freq=4.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.5003731 = fieldWeight in 2545, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2545)
            0.018212747 = weight(_text_:h in 2545) [ClassicSimilarity], result of:
              0.018212747 = score(doc=2545,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.16469726 = fieldWeight in 2545, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2545)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Die Nachvollziehbarkeit und Reproduzierbarkeit wissenschaftlicher Erkenntnisse basieren zunehmend auf digitalen Daten. Deren Publikation, Verfügbarkeit und Nachnutzung muss im Rahmen guter wissenschaftlicher Praxis gewährleistet werden. Das Projekt RADAR geht diese Herausforderung durch die Etablierung einer generischen Infrastruktur für die Archivierung und Publikation von Forschungsdaten an. Es richtet sich an Wissenschaftler (z. B. in Projekten) und Institutionen (z. B. Bibliotheken) mit einem zweistufigen Ansatz: ein disziplinübergreifendes Einstiegsangebot zur formatunabhängigen Datenarchivierung mit minimalem Metadatensatz und ein höherwertiges Angebot mit integrierter Datenpublikation. Thematisch legt RADAR den Schwerpunkt auf die »small sciences«, in denen Forschungsdateninfrastrukturen meist noch fehlen. RADAR erlaubt eine temporäre oder - im Falle einer Datenpublikation - zeitlich unbegrenzte Datenarchivierung. Das angestrebte Geschäftsmodell zielt auf einen sich selbst tragenden Betrieb mit einer Kombination aus Einmalzahlungen und institutionellen Angeboten ab. RADAR ist als ein Baustein der internationalen Informationsinfrastruktur geplant, der sich über Schnittstellen auch in Dienste Dritter integrieren lässt.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 61(2014) H.1, S.18-27
  10. Beutelspacher, L.: Fördern Web 2.0 und mobile Technologien das Lernen? : Ein Bericht über die ICT 2011 in Hongkong (2011) 0.05
    0.04545208 = product of:
      0.09090416 = sum of:
        0.09090416 = product of:
          0.13635623 = sum of:
            0.11207257 = weight(_text_:z in 4901) [ClassicSimilarity], result of:
              0.11207257 = score(doc=4901,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.47175628 = fieldWeight in 4901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4901)
            0.024283662 = weight(_text_:h in 4901) [ClassicSimilarity], result of:
              0.024283662 = score(doc=4901,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.21959636 = fieldWeight in 4901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4901)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Plattformen für Blended Learning, Lernsysteme (wie Moodle), Dienste im Web 2.0 (z. B. Facebook), ePortfolio-Systeme (beispielsweise Mahara), Verfilmungen von Lehrveranstaltungen und weitere Informationsdienste haben breite Anwendung in der Lehre gefunden. Durch das Angebot mobiler Endgeräte (Smartphones, Tablet-Rechner und Laptops) werden die Dienste zunehmend mobil genutzt. Dieser Bericht gibt in informationswissenschaftlicher Perspektive Forschungsergebnisse wieder, die auf der 6. ICT Konferenz in Hongkong "Education unplugged: Mobile Technologies and Web 2.0" (Juli 2011) vorgetragen worden sind.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.8, S.377-379
  11. Fassbender, J.: ¬Die Register des Buchinhalts : Register oder Konkordanz (2011) 0.05
    0.04545208 = product of:
      0.09090416 = sum of:
        0.09090416 = product of:
          0.13635623 = sum of:
            0.11207257 = weight(_text_:z in 4905) [ClassicSimilarity], result of:
              0.11207257 = score(doc=4905,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.47175628 = fieldWeight in 4905, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4905)
            0.024283662 = weight(_text_:h in 4905) [ClassicSimilarity], result of:
              0.024283662 = score(doc=4905,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.21959636 = fieldWeight in 4905, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4905)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Angesichts der wachsenden Zahl von Fachbüchern, die entweder gar kein Sachregister haben oder deren Register nur von schlechter bis indiskutabeler Qualität sind - z. B. automatisch erzeugte Konkordanzen oder eingebettete Register (Index-Marken im Text mit oft übersehenen Nachteilen für die Qualität) -, sieht sich das Deutsche Netzwerk der Indexer zu einem Plädoyer für gute Register veranlasst.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.6/7, S.322
  12. Rösch, B.: Wie interagieren Nutzer mit Text- und Bildinformationen in einem Wikipedia-Artikel? (2015) 0.05
    0.04545208 = product of:
      0.09090416 = sum of:
        0.09090416 = product of:
          0.13635623 = sum of:
            0.11207257 = weight(_text_:z in 1738) [ClassicSimilarity], result of:
              0.11207257 = score(doc=1738,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.47175628 = fieldWeight in 1738, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1738)
            0.024283662 = weight(_text_:h in 1738) [ClassicSimilarity], result of:
              0.024283662 = score(doc=1738,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.21959636 = fieldWeight in 1738, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1738)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Das Dissertationsprojekt mit dem Arbeitstitel "Text-Bild-Verhältnis in der Online-Enzyklopädie Wikipedia" untersucht die Gestaltung von Text- und Bildelementen in ausgewählten Wikipedia Artikeln und deren Einfluss auf das Rezeptionsverhalten von Nutzern. Als Erhebungsmethodik von Nutzerdaten kamen Experimente zum Blickverhalten, Fragebögen und Wissenstests zum Einsatz. Ziel ist es, Zusammenhänge zwischen der Nutzung von Text- und Bildinformationen und verschiedenen Parametern (wie z. B. Lerntyp, Vorwissen, Studienfach) zu finden.
    Source
    Information - Wissenschaft und Praxis. 66(2015) H.1, S.17-21
  13. Behnert, C.; Borst, T.: Neue Formen der Relevanz-Sortierung in bibliothekarischen Informationssystemen : das DFG-Projekt LibRank (2015) 0.05
    0.04545208 = product of:
      0.09090416 = sum of:
        0.09090416 = product of:
          0.13635623 = sum of:
            0.11207257 = weight(_text_:z in 5392) [ClassicSimilarity], result of:
              0.11207257 = score(doc=5392,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.47175628 = fieldWeight in 5392, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5392)
            0.024283662 = weight(_text_:h in 5392) [ClassicSimilarity], result of:
              0.024283662 = score(doc=5392,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.21959636 = fieldWeight in 5392, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5392)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Das von der DFG geförderte Projekt LibRank erforscht neue Rankingverfahren für bibliothekarische Informationssysteme, die aufbauend auf Erkenntnissen aus dem Bereich Websuche qualitätsinduzierende Faktoren wie z. B. Aktualität, Popularität und Verfügbarkeit von einzelnen Medien berücksichtigen. Die konzipierten Verfahren werden im Kontext eines in den Wirtschaftswissenschaften häufig genutzten Rechercheportals (EconBiz) entwickelt und in einem Testsystem systematisch evaluiert. Es werden Rankingfaktoren, die für den Bibliotheksbereich von besonderem Interesse sind, vorgestellt und exemplarisch Probleme und Herausforderungen aufgezeigt.
    Source
    Bibliothek: Forschung und Praxis. 39(2015) H.3, S.384-393
  14. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.04
    0.04418369 = product of:
      0.08836738 = sum of:
        0.08836738 = product of:
          0.35346952 = sum of:
            0.35346952 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.35346952 = score(doc=1826,freq=2.0), product of:
                0.37735748 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04451014 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.25 = coord(1/4)
      0.5 = coord(1/2)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  15. Lenzen, M.: Künstliche Intelligenz : was sie kann & was uns erwartet (2018) 0.04
    0.04307055 = product of:
      0.0861411 = sum of:
        0.0861411 = product of:
          0.12921165 = sum of:
            0.0990591 = weight(_text_:z in 4295) [ClassicSimilarity], result of:
              0.0990591 = score(doc=4295,freq=4.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.41697758 = fieldWeight in 4295, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4295)
            0.03015255 = weight(_text_:22 in 4295) [ClassicSimilarity], result of:
              0.03015255 = score(doc=4295,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.19345059 = fieldWeight in 4295, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4295)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Classification
    Z 010
    Date
    18. 6.2018 19:22:02
    KAB
    Z 010
  16. Bao, Z.; Han, Z.: What drives users' participation in online social Q&A communities? : an empirical study based on social cognitive theory (2019) 0.04
    0.04307055 = product of:
      0.0861411 = sum of:
        0.0861411 = product of:
          0.12921165 = sum of:
            0.0990591 = weight(_text_:z in 5497) [ClassicSimilarity], result of:
              0.0990591 = score(doc=5497,freq=4.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.41697758 = fieldWeight in 5497, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5497)
            0.03015255 = weight(_text_:22 in 5497) [ClassicSimilarity], result of:
              0.03015255 = score(doc=5497,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.19345059 = fieldWeight in 5497, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5497)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Date
    20. 1.2015 18:30:22
  17. Alex, H.: ¬Die Dewey-Dezimalklassifikation (DDC) (2018) 0.04
    0.042704336 = product of:
      0.08540867 = sum of:
        0.08540867 = product of:
          0.128113 = sum of:
            0.098063506 = weight(_text_:z in 4338) [ClassicSimilarity], result of:
              0.098063506 = score(doc=4338,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.41278675 = fieldWeight in 4338, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4338)
            0.0300495 = weight(_text_:h in 4338) [ClassicSimilarity], result of:
              0.0300495 = score(doc=4338,freq=4.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.27173662 = fieldWeight in 4338, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4338)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Die Dewey-Dezimalklassifikation (DDC) ist die international am weitesten verbreitete bibliothekarische Klassifikation. Ursprünglich vor allem im anglo-amerikanischen Raum eingesetzt, ist sie heute aufgrund vieler Übersetzungen unter anderem auch in Europa - seit Erscheinen der deutschen Ausgabe auch im deutschsprachigen Raum - weit verbreitet. Die Schwerpunkte dieses Beitrags liegen zum einen auf dem Klassifikationssystem selbst, indem z. B. sein Aufbau und die Notationsvergabe erklärt werden, und zum anderen auf der DDC-Anwendung im deutschsprachigen Raum (u. a. Projekt DDC Deutsch, WebDewey Deutsch, Anwendung der DDC in der Deutschen Nationalbibliothek).
    Source
    Klassifikationen in Bibliotheken: Theorie - Anwendung - Nutzen. Hrsg.: H. Alex, G. Bee u. U. Junger
  18. Kuan, C.-H.; Huang, M.-H.; Chen, D.-Z.: ¬A two-dimensional approach to performance evaluation for a large number of research institutions (2012) 0.04
    0.040159978 = product of:
      0.080319956 = sum of:
        0.080319956 = product of:
          0.12047993 = sum of:
            0.08405443 = weight(_text_:z in 58) [ClassicSimilarity], result of:
              0.08405443 = score(doc=58,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.35381722 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=58)
            0.036425494 = weight(_text_:h in 58) [ClassicSimilarity], result of:
              0.036425494 = score(doc=58,freq=8.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.32939452 = fieldWeight in 58, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.046875 = fieldNorm(doc=58)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    We characterize the research performance of a large number of institutions in a two-dimensional coordinate system based on the shapes of their h-cores so that their relative performance can be conveniently observed and compared. The 2D distribution of these institutions is then utilized (1) to categorize the institutions into a number of qualitative groups revealing the nature of their performance, and (2) to determine the position of a specific institution among the set of institutions. The method is compared with some major h-type indices and tested with empirical data using clinical medicine as an illustrative case. The method is extensible to the research performance evaluation at other aggregation levels such as researchers, journals, departments, and nations.
  19. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.04
    0.040079165 = product of:
      0.08015833 = sum of:
        0.08015833 = product of:
          0.12023749 = sum of:
            0.08405443 = weight(_text_:z in 4408) [ClassicSimilarity], result of:
              0.08405443 = score(doc=4408,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.35381722 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
            0.03618306 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.03618306 = score(doc=4408,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Pages
    22 S
  20. Schwens, U.: Chancen und Risiken der Deutschen Digtitalen Bibliothek (2011) 0.04
    0.039770573 = product of:
      0.07954115 = sum of:
        0.07954115 = product of:
          0.11931171 = sum of:
            0.098063506 = weight(_text_:z in 196) [ClassicSimilarity], result of:
              0.098063506 = score(doc=196,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.41278675 = fieldWeight in 196, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=196)
            0.021248205 = weight(_text_:h in 196) [ClassicSimilarity], result of:
              0.021248205 = score(doc=196,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.19214681 = fieldWeight in 196, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=196)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Erstmals in Deutschland wird ein Portal aufgebaut, das eine Suche nicht nur innerhalb gleicher Institutionen (z. B. Bibliotheken oder Archive) erlaubt, sondern über Institutionstypen, Medienarten und lokale / regionale Gegebenheiten hinweg möglich macht. Was ist das Ziel eines solchen Vorhabens, welche Überlegungen stecken dahinter und welche Voraussetzungen müssen erfüllt sein, dass es erfolgreich wird? Wer sind die Beteiligten und wie sieht die Finanzierung aus? Der Artikel informiert über den Stand der Planungen, wirbt für die Schaffung einer breiten Basis zur Digitalisierung unserer kulturellen und wissenschaftlichen »Schätze« und lädt zur weiteren Diskussion ein.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 58(2011) H.3/4, S.142-144

Languages

  • d 999
  • e 932
  • a 1
  • hu 1
  • More… Less…

Types

  • a 1727
  • m 149
  • el 136
  • s 53
  • x 20
  • r 14
  • b 7
  • i 1
  • n 1
  • z 1
  • More… Less…

Themes

Subjects

Classifications