Search (148 results, page 1 of 8)

  • × language_ss:"e"
  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.33
    0.3324016 = product of:
      0.9972048 = sum of:
        0.07670806 = product of:
          0.23012418 = sum of:
            0.23012418 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.23012418 = score(doc=1826,freq=2.0), product of:
                0.24567628 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028978055 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.23012418 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.23012418 = score(doc=1826,freq=2.0), product of:
            0.24567628 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028978055 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.23012418 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.23012418 = score(doc=1826,freq=2.0), product of:
            0.24567628 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028978055 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.23012418 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.23012418 = score(doc=1826,freq=2.0), product of:
            0.24567628 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028978055 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.23012418 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.23012418 = score(doc=1826,freq=2.0), product of:
            0.24567628 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028978055 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.33333334 = coord(5/15)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Aytac, S.; Slutsky, B.: Published librarian research, 2008 through 2012 : analyses and perspectives (2014) 0.04
    0.044633366 = product of:
      0.16737512 = sum of:
        0.031809766 = product of:
          0.06361953 = sum of:
            0.06361953 = weight(_text_:bibliothekswesen in 2507) [ClassicSimilarity], result of:
              0.06361953 = score(doc=2507,freq=2.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.49250782 = fieldWeight in 2507, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2507)
          0.5 = coord(1/2)
        0.064969115 = weight(_text_:informationswissenschaft in 2507) [ClassicSimilarity], result of:
          0.064969115 = score(doc=2507,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.49770427 = fieldWeight in 2507, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=2507)
        0.06361953 = weight(_text_:bibliothekswesen in 2507) [ClassicSimilarity], result of:
          0.06361953 = score(doc=2507,freq=2.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.49250782 = fieldWeight in 2507, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.078125 = fieldNorm(doc=2507)
        0.0069766995 = product of:
          0.013953399 = sum of:
            0.013953399 = weight(_text_:information in 2507) [ClassicSimilarity], result of:
              0.013953399 = score(doc=2507,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.27429342 = fieldWeight in 2507, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2507)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Content
    Vgl. dazu auch: Coates, H.L.: Library and information science research literature is chiefly descriptive and relies heavily on survey and content analysis methods. In: Evidence based library and information practice. 10/2015) no.4, S.215-217.
    Field
    Bibliothekswesen
    Informationswissenschaft
  3. Coates, H.L.: Library and information science research literature is chiefly descriptive and relies heavily on survey and content analysis methods (2015) 0.02
    0.018398125 = product of:
      0.068992965 = sum of:
        0.012723906 = product of:
          0.025447812 = sum of:
            0.025447812 = weight(_text_:bibliothekswesen in 2508) [ClassicSimilarity], result of:
              0.025447812 = score(doc=2508,freq=2.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.19700313 = fieldWeight in 2508, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2508)
          0.5 = coord(1/2)
        0.025987646 = weight(_text_:informationswissenschaft in 2508) [ClassicSimilarity], result of:
          0.025987646 = score(doc=2508,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.1990817 = fieldWeight in 2508, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=2508)
        0.025447812 = weight(_text_:bibliothekswesen in 2508) [ClassicSimilarity], result of:
          0.025447812 = score(doc=2508,freq=2.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.19700313 = fieldWeight in 2508, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.03125 = fieldNorm(doc=2508)
        0.004833599 = product of:
          0.009667198 = sum of:
            0.009667198 = weight(_text_:information in 2508) [ClassicSimilarity], result of:
              0.009667198 = score(doc=2508,freq=12.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.19003606 = fieldWeight in 2508, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2508)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Abstract
    Objective - To compare the research articles produced by library and information science (LIS) practitioners, LIS academics, and collaborations between practitioners and academics. Design - Content analysis. Setting - English-language LIS literature from 2008 through 2012. Subjects - Research articles published in 13 library and information science journals. Methods - Using a purposive sample of 769 articles from selected journals, the authors used content analysis to characterize the mix of authorship models, author status (practitioner, academic, or student), topic, research approach and methods, and data analysis techniques used by LIS practitioners and academics. Main Results - The authors screened 1,778 articles, 769 (43%) of which were determined to be research articles. Of these, 438 (57%) were written solely by practitioners, 110 (14%) collaboratively by practitioners and academics, 205 (27%) solely by academics, and 16 (2%) by others. The majority of the articles were descriptive (74%) and gathered quantitative data (69%). The range of topics was more varied; the most popular topics were libraries and librarianship (19%), library users/information seeking (13%), medical information/research (13%), and reference services (12%). Pearson's chi-squared tests detected significant differences in research and statistical approaches by authorship groups. Conclusion - Further examination of practitioner research is a worthwhile effort as is establishing new funding to support practitioner and academic collaborations. The use of purposive sampling limits the generalizability of the results, particularly to international and non-English LIS literature. Future studies could explore motivators for practitioner-academic collaborations as well as the skills necessary for successful collaboration. Additional support for practitioner research could include mentorship for early career librarians to facilitate more rapid maturation of collaborative research skills and increase the methodological quality of published research.
    Field
    Bibliothekswesen
    Informationswissenschaft
    Source
    Evidence based library and information practice. 10/2015) no.4, S.215-217
  4. Baier Benninger, P.: Model requirements for the management of electronic records (MoReq2) : Anleitung zur Umsetzung (2011) 0.01
    0.013723928 = product of:
      0.10292945 = sum of:
        0.024966514 = weight(_text_:und in 4343) [ClassicSimilarity], result of:
          0.024966514 = score(doc=4343,freq=14.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.38872904 = fieldWeight in 4343, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4343)
        0.077962935 = weight(_text_:informationswissenschaft in 4343) [ClassicSimilarity], result of:
          0.077962935 = score(doc=4343,freq=8.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.5972451 = fieldWeight in 4343, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=4343)
      0.13333334 = coord(2/15)
    
    Abstract
    Viele auch kleinere Unternehmen, Verwaltungen und Organisationen sind angesichts eines wachsenden Berges von digitalen Informationen mit dem Ordnen und Strukturieren ihrer Ablagen beschäftigt. In den meisten Organisationen besteht ein Konzept der Dokumentenlenkung. Records Management verfolgt vor allem in zwei Punkten einen weiterführenden Ansatz. Zum einen stellt es über den Geschäftsalltag hinaus den Kontext und den Entstehungszusammenhang ins Zentrum und zum anderen gibt es Regeln vor, wie mit ungenutzten oder inaktiven Dokumenten zu verfahren ist. Mit den «Model Requirements for the Management of Electronic Records» - MoReq - wurde von der europäischen Kommission ein Standard geschaffen, der alle Kernbereiche des Records Managements und damit den gesamten Entstehungs-, Nutzungs-, Archivierungsund Aussonderungsbereich von Dokumenten abdeckt. In der «Anleitung zur Umsetzung» wird die umfangreiche Anforderungsliste von MoReq2 (August 2008) zusammengefasst und durch erklärende Abschnitte ergänzt, mit dem Ziel, als griffiges Instrument bei der Einführung eines Record Management Systems zu dienen.
    Content
    Diese Publikation entstand im Rahmen einer Bachelor Thesis zum Abschluss Bachelor of Science (BSc) FHO in Informationswissenschaft. Vgl. unter: http://www.fh-htwchur.ch/uploads/media/CSI_44_Baier.pdf.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft / Arbeitsbereich Informationswissenschaft
    Series
    Churer Schriften zur Informationswissenschaft / Arbeitsbereich Informationswissenschaft; Schrift 44
  5. Scientometrics pioneer Eugene Garfield dies : Eugene Garfield, founder of the Institute for Scientific Information and The Scientist, has passed away at age 91 (2017) 0.01
    0.009300052 = product of:
      0.04650026 = sum of:
        0.021319222 = weight(_text_:und in 3460) [ClassicSimilarity], result of:
          0.021319222 = score(doc=3460,freq=30.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.33194062 = fieldWeight in 3460, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
        0.02273919 = weight(_text_:informationswissenschaft in 3460) [ClassicSimilarity], result of:
          0.02273919 = score(doc=3460,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.1741965 = fieldWeight in 3460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
        0.0024418447 = product of:
          0.0048836893 = sum of:
            0.0048836893 = weight(_text_:information in 3460) [ClassicSimilarity], result of:
              0.0048836893 = score(doc=3460,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.0960027 = fieldWeight in 3460, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3460)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Content
    Vgl. auch Open Password, Nr.167 vom 01.03.2017 :"Eugene Garfield, Begründer und Pionier der Zitationsindexierung und der Ziationsanalyse, ohne den die Informationswissenschaft heute anders aussähe, ist im Alter von 91 Jahren gestorben. Er hinterlässt Frau, drei Söhne, eine Tochter, eine Stieftochter, zwei Enkeltöchter und zwei Großelternkinder. Garfield machte seinen ersten Abschluss als Bachelor in Chemie an der Columbia University in New York City im Jahre 1949. 1954 sattelte er einen Abschluss in Bibliothekswissenschaft drauf. 1961 sollte er im Fach strukturelle Linguistik promovieren. Als Chemie-Student war er nach eigenen Angaben weder besonders gut noch besonders glücklich. Sein "Erweckungserlebnis" hatte er auf einer Tagung der American Chemical Society, als er entdeckte, dass sich mit der Suche nach Literatur womöglich ein Lebensunterhalt bestreiten lasse. "So I went to the Chairman of the meeting and said: "How do you get a job in this racket?" Ab 1955 war Garfield zunächst als Berater für pharmazeutische Unternehmen tätig. Dort spezialisierte er sich auf Fachinformationen, indem er Inhalte relevanter Fachzeitschriften erarbeitete. 1955 schlug er in "Science" seine bahnbrechende Idee vor, Zitationen wissenschaftlicher Veröffentlichungen systematisch zu erfassen und Zusammenhänge zwischen Zitaten deutlich zu machen. 1960 gründete Garfield das Institute für Scientific Informationen, dessen CEO er bis 1992 blieb. 1964 brachte er den Scientific Information Index heraus. Weitere Maßgrößen wie der Social Science Index (ab 1973), der Arts and Humanities Citation Index (ab 1978) und der Journal Citation Index folgten. Diese Verzeichnisse wurden in dem "Web of Science" zusammengefasst und als Datenbank elektronisch zugänglich gemacht. Damit wurde es den Forschern ermöglich, die für sie relevante Literatur "at their fingertips" zu finden und sich in ihr zurechtzufinden. Darüber hinaus wurde es mit Hilfe der Rankings von Garfields Messgrößen möglich, die relative wissenschaftliche Bedeutung wissenschaftlicher Beiträge, Autoren, wissenschaftlicher Einrichtungen, Regionen und Länder zu messen.
    Garfield wandte sich im Zusammenhang mit seinen Messgrößen gegen "Bibliographic Negligence" und "Citation Amnesia", Er schrieb 2002: "There will never be a perfect solution to the problem of acknowledging intellectual debts. But a beginning can be made if journal editors will demand a signed pledge from authors that they have searched Medline, Science Citation Index, or other appropriate print and electronic databases." Er warnte aber auch vor einen unsachgemäßen Umgang mit seinen Messgößen und vor übertriebenen Erwartungen an sie in Zusammenhang mit Karriereentscheidungen über Wissenschaftler und Überlebensentscheidungen für wissenschaftliche Einrichtungen. 1982 übernahm die Thomson Corporation ISI für 210 Millionen Dollar. In der heutigen Nachfolgeorganisation Clarivate Analytics sind mehr als 4000 Mitarbeitern in über hundert Ländern beschäftigt. Garfield gründete auch eine Zeitung für Wissenschaftler, speziell für Biowissenschaftler, "The Scientist", die weiterbesteht und als kostenfreier Pushdienst bezogen werden kann. In seinen Beiträgen zur Wissenschaftspolitik kritisierte er beispielsweise die Wissenschaftsberater von Präsident Reagen 1986 als "Advocats of the administration´s science policies, rather than as objective conduits for communication between the president and the science community." Seinen Beitrag, mit dem er darum warb, die Förderung von UNESCO-Forschungsprogrammen fortzusetzen, gab er den Titel: "Let´s stand up für Global Science". Das ist auch in Trump-Zeiten ein guter Titel, da die US-Regierung den Wahrheitsbegriff, auf der Wissenschaft basiert, als bedeutungslos verwirft und sich auf Nationalismus und Abschottung statt auf internationale Kommunikation, Kooperation und gemeinsame Ausschöpfung von Interessen fokussiert."
  6. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.01
    0.007552784 = product of:
      0.056645878 = sum of:
        0.019893795 = weight(_text_:und in 3081) [ClassicSimilarity], result of:
          0.019893795 = score(doc=3081,freq=20.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.3097467 = fieldWeight in 3081, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.036752082 = weight(_text_:informationswissenschaft in 3081) [ClassicSimilarity], result of:
          0.036752082 = score(doc=3081,freq=4.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.28154406 = fieldWeight in 3081, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
      0.13333334 = coord(2/15)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
    Footnote
    Dissertation, Humboldt-Universität zu Berlin - Institut für Bibliotheks- und Informationswissenschaft.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Gorman, M.: Revisiting enduring values (2015) 0.01
    0.0059313816 = product of:
      0.04448536 = sum of:
        0.041525397 = weight(_text_:buch in 2943) [ClassicSimilarity], result of:
          0.041525397 = score(doc=2943,freq=2.0), product of:
            0.13472971 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028978055 = queryNorm
            0.3082126 = fieldWeight in 2943, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=2943)
        0.002959963 = product of:
          0.005919926 = sum of:
            0.005919926 = weight(_text_:information in 2943) [ClassicSimilarity], result of:
              0.005919926 = score(doc=2943,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.116372846 = fieldWeight in 2943, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2943)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    The paper discusses the nature of values in general and the nature and utility of the values of librarianship. Delineates the changes that have occurred and are occurring in the wider world and the nature of change; also the importance of values in providing a framework for dealing with present and future change. Stresses the centrality of the human record to societal progress, the place of the human record in cultural heritage, and the central purpose of libraries in facilitating interaction with the human record and furthering the transmission of cultural heritage. Urges a turning away from the alien value systems of information technology, consumerism, materialism, and corporate management, and a consequent set of alliances between libraries and a wide range of cultural institutions and associations.
    Footnote
    Bezugnahme auf das Buch: Gorman, M.: Our enduring values: librarianship in the 21st century. Chicago [u.a.] ; American Library Ass. ; 2000 ; IX, 188 S.
  8. Vernetztes Wissen - Daten, Menschen, Systeme : 6. Konferenz der Zentralbibliothek Forschungszentrum Jülich. 5. - 7. November 2012 - Proceedingsband: WissKom 2012 (2012) 0.00
    0.00347437 = product of:
      0.026057774 = sum of:
        0.023591138 = weight(_text_:und in 482) [ClassicSimilarity], result of:
          0.023591138 = score(doc=482,freq=18.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.3673144 = fieldWeight in 482, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=482)
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 482) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=482,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 482, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=482)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Informations- und Wissensvermittlung verlagern sich immer stärker in die digitale Welt. Möglich wird dies nicht zuletzt durch die voranschreitende Durchdringung aller Lebensbereiche durch das Internet. Wissen wird mehr und mehr zu vernetztem Wissen. Die Jülicher Konferenz WissKom2012 thematisiert die Anpassung an diese Entwicklung und ihre Mitgestaltung durch innovative Bibliotheksdienstleistungen. Der Konferenztitel "Vernetztes Wissen: Daten, Menschen, Systeme" deutet die wechselseitige Vernetzung unter- und miteinander an. Ziel ist, vorhandene Insellösungen zu verbinden und neue Konzepte für inhärent vernetzte Strukturen zu entwickeln. Mit der WissKom2012 "Vernetztes Wissen - Daten, Menschen, Systeme" greift die Zentralbibliothek des Forschungszentrums Jülich erneut Themen im Spannungsfeld von "Bibliothek - Information - Wissenschaft" in einer Konferenz interdisziplinär auf und versucht, neue Handlungsfelder für Bibliotheken aufzuzeigen. Diese sechste Konferenz der Zentralbibliothek thematisiert den immer wichtiger werdenden Bereich der Forschungsdaten und den nachhaltigen Umgang mit ihnen. Sie zeigt auf, was Interdisziplinarität konkret bedeutet und wie bislang isolierte Systeme vernetzt werden können und so Mehrwert entsteht. Der Konferenzband enthält neben den Ausführungen der Referenten zudem die Beiträge der Poster Session sowie den Festvortrag von Prof. Viktor Mayer-Schönberger mit dem Titel "Delete: Die Tugend des Vergessens in digitalen Zeiten".
  9. Internet Privacy : eine multidisziplinäre Bestandsaufnahme / a multidisciplinary analysis: acatech STUDIE (2012) 0.00
    0.0027794961 = product of:
      0.02084622 = sum of:
        0.018872911 = weight(_text_:und in 3383) [ClassicSimilarity], result of:
          0.018872911 = score(doc=3383,freq=18.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29385152 = fieldWeight in 3383, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3383)
        0.0019733086 = product of:
          0.0039466172 = sum of:
            0.0039466172 = weight(_text_:information in 3383) [ClassicSimilarity], result of:
              0.0039466172 = score(doc=3383,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.0775819 = fieldWeight in 3383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3383)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Aufgrund der so großen Bedeutung von Privatheit im Internet hat acatech, die Deutsche Akademie der Technikwissenschaften, 2011 ein Projekt initiiert, das sich mit dem Privatheitsparadoxon wissenschaftlich auseinandersetzt. In dem Projekt werden Empfehlungen entwickelt, wie sich eine Kultur der Privatheit und des Vertrauens im Internet etablieren lässt, die es ermöglicht, das Paradoxon aufzulösen. Wir verwenden hier den Begriff der Privatheit. Er deutet an, dass hier nicht nur der räumliche Begriff Privatsphäre gemeint ist, sondern auch das im europäischen Kontext wichtige Konzept der informationellen Selbstbestimmung einbezogen ist. Dieser Band legt die Ergebnisse der ersten Projektphase vor: eine Bestandsaufnahme von Privatheit im Internet aus verschiedenen Blickwinkeln. Kapitel 1 stellt die Wünsche und Befürchtungen von Internetnutzern und Gesellschaft im Hinblick auf ihre Privatheit vor. Sie wurden mithilfe sozialwissenschaftlicher Methoden untersucht. Ergänzend dazu untersucht das zweite Kapitel Privatheit im Cyberspace aus ethischer Perspektive. Das dritte Kapitel widmet sich ökonomischen Aspekten: Da viele Onlinedienstleistungen mit Nutzerdaten bezahlt werden, ergibt sich die Frage, was dies sowohl für den Nutzer und Kunden als auch für die Unternehmen bedeutet. Kapitel 4 hat einen technologischen Fokus und analysiert, wie Privatheit von Internettechnologien bedroht wird und welche technischen Möglichkeiten es gibt, um die Privatheit des Nutzers zu schützen. Selbstverständlich ist der Schutz von Privatheit im Internet nicht nur ein technisches Problem. Deshalb untersucht Kapitel 5 Privatheit aus rechtlicher Sicht. Bei der Lektüre der fünf Kapitel wird dem Leser sofort die Komplexität der Frage von Privatheit im Internet (Internet Privacy) bewusst. Daraus folgt die unbedingte Notwendigkeit eines interdisziplinären Ansatzes. In diesem Sinne wird die interdisziplinäre Projektgruppe gemeinsam Optionen und Empfehlungen für einen Umgang mit Privatheit im Internet entwickeln, die eine Kultur der Privatheit und des Vertrauens im Internet fördern. Diese Optionen und Empfehlungen werden 2013 als zweiter Band dieser Studie veröffentlicht.
    Theme
    Information
  10. Eckert, K: ¬The ICE-map visualization (2011) 0.00
    0.0025890246 = product of:
      0.019417683 = sum of:
        0.012581941 = weight(_text_:und in 4743) [ClassicSimilarity], result of:
          0.012581941 = score(doc=4743,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.19590102 = fieldWeight in 4743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4743)
        0.006835742 = product of:
          0.013671484 = sum of:
            0.013671484 = weight(_text_:information in 4743) [ClassicSimilarity], result of:
              0.013671484 = score(doc=4743,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.2687516 = fieldWeight in 4743, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4743)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    In this paper, we describe in detail the Information Content Evaluation Map (ICE-Map Visualization, formerly referred to as IC Difference Analysis). The ICE-Map Visualization is a visual data mining approach for all kinds of concept hierarchies that uses statistics about the concept usage to help a user in the evaluation and maintenance of the hierarchy. It consists of a statistical framework that employs the the notion of information content from information theory, as well as a visualization of the hierarchy and the result of the statistical analysis by means of a treemap.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Open MIND (2015) 0.00
    0.0023572042 = product of:
      0.01767903 = sum of:
        0.007863713 = weight(_text_:und in 1648) [ClassicSimilarity], result of:
          0.007863713 = score(doc=1648,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.12243814 = fieldWeight in 1648, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1648)
        0.009815317 = product of:
          0.019630633 = sum of:
            0.019630633 = weight(_text_:22 in 1648) [ClassicSimilarity], result of:
              0.019630633 = score(doc=1648,freq=2.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.19345059 = fieldWeight in 1648, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1648)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    Vgl. den Artikel: Lenzen, M.: Vor der Quadratwurzel steht die Quadratzahl. In: http://www.faz.net/aktuell/feuilleton/forschung-und-lehre/uni-mainz-stellt-publikationen-von-hirnforschern-online-13379697.html.
    Date
    27. 1.2015 11:48:22
  12. RDA Toolkit (4) : Dezember 2017 (2017) 0.00
    0.0021387131 = product of:
      0.016040348 = sum of:
        0.014067038 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.014067038 = score(doc=4283,freq=10.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.219024 = fieldWeight in 4283, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4283)
        0.0019733086 = product of:
          0.0039466172 = sum of:
            0.0039466172 = weight(_text_:information in 4283) [ClassicSimilarity], result of:
              0.0039466172 = score(doc=4283,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.0775819 = fieldWeight in 4283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Am 12. Dezember 2017 ist das neue Release des RDA Toolkits erschienen. Dabei gab es, aufgrund des 3R-Projekts (RDA Toolkit Restruction and Redesign Project), keine inhaltlichen Änderungen am RDA-Text. Es wurden ausschließlich die Übersetzungen in finnischer und französischer Sprache, ebenso wie die dazugehörigen Policy statements, aktualisiert. Für den deutschsprachigen Raum wurden in der Übersetzung zwei Beziehungskennzeichnungen geändert: Im Anhang I.2.2 wurde die Änderung von "Sponsor" zu "Träger" wieder rückgängig gemacht. In Anhang K.2.3 wurde "Sponsor" zu "Person als Sponsor" geändert. Außerdem wurde die Übersetzung der Anwendungsrichtlinien (D-A-CH AWR) ins Französische aktualisiert. Dies ist das vorletzte Release vor dem Rollout des neuen Toolkits. Das letzte Release im Januar/Februar 2018 wird die norwegische Übersetzung enthalten. Im Juni 2018 wird das RDA Toolkit ein Relaunch erfahren und mit einer neuen Oberfläche erscheinen. Dieser beinhaltet ein Redesign der Toolkit-Oberfläche und die inhaltliche Anpassung des Standards RDA an das Library Reference Model (IFLA LRM) sowie die künftige stärkere Ausrichtung auf die aktuellen technischen Möglichkeiten. Zunächst wird im Juni 2018 die englische Originalausgabe der RDA in der neuen Form erscheinen. Alle Übersetzungen werden in einer Übergangszeit angepasst. Hierfür wird die alte Version des RDA Toolkit für ein weiteres Jahr zur Verfügung gestellt. Der Stand Dezember 2017 der deutschen Ausgabe und die D-A-CH-Anwendungsrichtlinien bleiben bis zur Anpassung eingefroren. Nähere Information zum Rollout finden Sie unter dem folgenden Link<http://www.rdatoolkit.org/3Rproject/SR3>. [Inetbib vom 13.12.2017]
    "das RDA Steering Committee (RSC) hat eine Verlautbarung<http://www.rda-rsc.org/sites/all/files/RSC-Chair-19.pdf> zum 3R Project und dem Release des neuen RDA Toolkits am 13. Juni 2018 herausgegeben. Außerdem wurde ein neuer Post zum Projekt auf dem RDA Toolkit Blog veröffentlicht "What to Expect from the RDA Toolkit beta site"<http://www.rdatoolkit.org/3Rproject/Beta>. Die deutsche Übersetzung folgt in Kürze auf dem RDA-Info-Wiki<https://wiki.dnb.de/display/RDAINFO/RDA-Info>. Für den deutschsprachigen Raum wird das Thema im Rahmen des Deutschen Bibliothekartags in Berlin im Treffpunkt Standardisierung am Freitag, den 15. Juni aufgegriffen. Die durch das 3R Project entstandenen Anpassungsarbeiten für den DACH-Raum werden im Rahmen eines 3R-DACH-Projekts<https://wiki.dnb.de/x/v5jpBw> in den Fachgruppen des Standardisierungsausschusses durchgeführt. Für die praktische Arbeit ändert sich bis zur Durchführung von Anpassungsschulungen nichts. Basis für die Erschließung bleibt bis dahin die aktuelle Version des RDA Toolkits in deutscher Sprache." [Mail R. Behrens an Inetbib vom 11.06.2018].
  13. Delsey, T.: ¬The Making of RDA (2016) 0.00
    0.0019651123 = product of:
      0.029476684 = sum of:
        0.029476684 = sum of:
          0.005919926 = weight(_text_:information in 2946) [ClassicSimilarity], result of:
            0.005919926 = score(doc=2946,freq=2.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.116372846 = fieldWeight in 2946, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.046875 = fieldNorm(doc=2946)
          0.023556758 = weight(_text_:22 in 2946) [ClassicSimilarity], result of:
            0.023556758 = score(doc=2946,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.23214069 = fieldWeight in 2946, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2946)
      0.06666667 = coord(1/15)
    
    Abstract
    The author revisits the development of RDA from its inception in 2005 through to its initial release in 2010. The development effort is set in the context of an evolving digital environment that was transforming both the production and dissemination of information resources and the technologies used to create, store, and access data describing those resources. The author examines the interplay between strategic commitments to align RDA with new conceptual models, emerging database structures, and metadata developments in allied communities, on the one hand, and compatibility with AACR2 legacy databases on the other. Aspects of the development effort examined include the structuring of RDA as a resource description language, organizing the new standard as a working tool, and refining guidelines and instructions for recording RDA data.
    Date
    17. 5.2016 19:22:40
  14. Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010) 0.00
    0.0019283318 = product of:
      0.014462488 = sum of:
        0.011009198 = weight(_text_:und in 604) [ClassicSimilarity], result of:
          0.011009198 = score(doc=604,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.17141339 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=604)
        0.00345329 = product of:
          0.00690658 = sum of:
            0.00690658 = weight(_text_:information in 604) [ClassicSimilarity], result of:
              0.00690658 = score(doc=604,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.13576832 = fieldWeight in 604, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=604)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  15. Pacek, Z.M.: Cataloguing and presentation tools for old maps and map series (2019) 0.00
    0.0014678931 = product of:
      0.022018395 = sum of:
        0.022018395 = weight(_text_:und in 5607) [ClassicSimilarity], result of:
          0.022018395 = score(doc=5607,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.34282678 = fieldWeight in 5607, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5607)
      0.06666667 = coord(1/15)
    
    Abstract
    Einblick in Katalogisierungspraxis und Erschließungshilfen von Karten.
  16. BIBFRAME Model Overview (2013) 0.00
    0.0013870286 = product of:
      0.020805428 = sum of:
        0.020805428 = weight(_text_:und in 763) [ClassicSimilarity], result of:
          0.020805428 = score(doc=763,freq=14.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.32394084 = fieldWeight in 763, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=763)
      0.06666667 = coord(1/15)
    
    Content
    Vgl. Kommentar Eversberg: Wer dranbleiben will am Puls der Zeit und speziell an der sich dynamisierenden Evolution eines neuen Datenformatkonzepts, der sollte sich langsam beeilen, sich mit BIBFRAME vertraut zu machen: http://bibframe.org Diese Startseite organisiert nun den Zugang zu allem, was schon vorliegt und präsentabel ist, und das ist allerhand. Wer erst mal nur schnuppern will und schauen, wie denn BIBFRAME-Daten wohl aussehen, gehe zur "demonstration area", wo man u.a. auch aufbereitete Daten der DNB findet. Es gibt ferner Online Tools, und darunter einen "Transformation service", dem man eigenes MARC-XML übergeben kann, damit er was draus mache. [Exporte mit unserem MARCXML.APR klappen nicht unmittelbar, man muß zumindest die in der Datei schon vorhandenen zwei Kopfzeilen aktivieren und ans Ende noch </collection> setzen. Und hierarchische Daten machen noch Probleme, die wir uns vornehmen müssen.] Wer jetzt denkt, "Was geht uns das alles an?", der lese die letzte Zeile, die da lautet: "BIBFRAME.ORG is a collaborative effort of US Library of Congress, Zepheira and you!"
  17. Hogan, A.; Harth, A.; Umbrich, J.; Kinsella, S.; Polleres, A.; Decker, S.: Searching and browsing Linked Data with SWSE : the Semantic Web Search Engine (2011) 0.00
    0.00137738 = product of:
      0.010330349 = sum of:
        0.007863713 = weight(_text_:und in 438) [ClassicSimilarity], result of:
          0.007863713 = score(doc=438,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.12243814 = fieldWeight in 438, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=438)
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 438) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=438,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=438)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    In this paper, we discuss the architecture and implementation of the Semantic Web Search Engine (SWSE). Following traditional search engine architecture, SWSE consists of crawling, data enhancing, indexing and a user interface for search, browsing and retrieval of information; unlike traditional search engines, SWSE operates over RDF Web data - loosely also known as Linked Data - which implies unique challenges for the system design, architecture, algorithms, implementation and user interface. In particular, many challenges exist in adopting Semantic Web technologies for Web data: the unique challenges of the Web - in terms of scale, unreliability, inconsistency and noise - are largely overlooked by the current Semantic Web standards. Herein, we describe the current SWSE system, initially detailing the architecture and later elaborating upon the function, design, implementation and performance of each individual component. In so doing, we also give an insight into how current Semantic Web standards can be tailored, in a best-effort manner, for use on Web data. Throughout, we offer evaluation and complementary argumentation to support our design choices, and also offer discussion on future directions and open research questions. Later, we also provide candid discussion relating to the difficulties currently faced in bringing such a search engine into the mainstream, and lessons learnt from roughly six years working on the Semantic Web Search Engine project.
    Content
    Vgl.: http://swse.deri.org/ und http://swse.org/.
  18. Martínez-González, M.M.; Alvite-Díez, M.L.: Thesauri and Semantic Web : discussion of the evolution of thesauri toward their integration with the Semantic Web (2019) 0.00
    0.00137738 = product of:
      0.010330349 = sum of:
        0.007863713 = weight(_text_:und in 5997) [ClassicSimilarity], result of:
          0.007863713 = score(doc=5997,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.12243814 = fieldWeight in 5997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5997)
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 5997) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=5997,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 5997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5997)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Thesauri are Knowledge Organization Systems (KOS), that arise from the consensus of wide communities. They have been in use for many years and are regularly updated. Whereas in the past thesauri were designed for information professionals for indexing and searching, today there is a demand for conceptual vocabularies that enable inferencing by machines. The development of the Semantic Web has brought a new opportunity for thesauri, but thesauri also face the challenge of proving that they add value to it. The evolution of thesauri toward their integration with the Semantic Web is examined. Elements and structures in the thesaurus standard, ISO 25964, and SKOS (Simple Knowledge Organization System), the Semantic Web standard for representing KOS, are reviewed and compared. Moreover, the integrity rules of thesauri are contrasted with the axioms of SKOS. How SKOS has been applied to represent some real thesauri is taken into account. Three thesauri are chosen for this aim: AGROVOC, EuroVoc and the UNESCO Thesaurus. Based on the results of this comparison and analysis, the benefits that Semantic Web technologies offer to thesauri, how thesauri can contribute to the Semantic Web, and the challenges that would help to improve their integration with the Semantic Web are discussed.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  19. Guidi, F.; Sacerdoti Coen, C.: ¬A survey on retrieval of mathematical knowledge (2015) 0.00
    0.0013087089 = product of:
      0.019630633 = sum of:
        0.019630633 = product of:
          0.039261267 = sum of:
            0.039261267 = weight(_text_:22 in 5865) [ClassicSimilarity], result of:
              0.039261267 = score(doc=5865,freq=2.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.38690117 = fieldWeight in 5865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5865)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Date
    22. 2.2017 12:51:57
  20. Sojka, P.; Liska, M.: ¬The art of mathematics retrieval (2011) 0.00
    0.0012955558 = product of:
      0.019433336 = sum of:
        0.019433336 = product of:
          0.038866673 = sum of:
            0.038866673 = weight(_text_:22 in 3450) [ClassicSimilarity], result of:
              0.038866673 = score(doc=3450,freq=4.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.38301262 = fieldWeight in 3450, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3450)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Content
    Vgl.: DocEng2011, September 19-22, 2011, Mountain View, California, USA Copyright 2011 ACM 978-1-4503-0863-2/11/09
    Date
    22. 2.2017 13:00:42

Types

  • a 83
  • s 10
  • x 6
  • m 5
  • n 5
  • r 3
  • More… Less…

Classifications