Search (26807 results, page 1340 of 1341)

  • × type_ss:"a"
  1. Pavlus, J.: ¬Die Welt des Bitcoin : die wichtigsten Fragen zur ersten großen digitale Währung (2018) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 4192) [ClassicSimilarity], result of:
          0.005338771 = score(doc=4192,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 4192, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4192)
      0.33333334 = coord(1/3)
    
    Abstract
    Bitcoin, Kryptowahrungen, intelligente Vertrage: Die neuen Technologien sind in aller Munde. Hunderte von Zentralbanken und Konzernen beschaftigen sich damit, Risikokapitalgeber investieren bereits jetzt Milliarden. Die Offentlichkeit ist sich nicht sicher, ob das Ganze uberhaupt legal oder vielmehr ein Tummelplatz krimineller Elemente ist, und die Leute, die es wissen mussten, sind nicht wesentlich besser informiert: Als die Wirtschaftsprufungsgesellschaft PricewaterhouseCoopers im Jahr 2017 unter global agierenden Finanzfachleuten eine Umfrage veranstaltete, erklarten sich nur 24 Prozent der Befragten als .extrem. oder .sehr. vertraut mit der Sache. Glaubt man den Spruchen einiger Evangelisten, so hat die Technologie die Macht, ganze Wirtschaftssysteme auf den Kopf zu stellen. Andere sind weit skeptischer. So erklart Emin Gun Sirer, einer der Grunder der Initiative for Cryptocurrencies and Contracts an der Cornell University, dass der technische Kern zwar .faszinierend und revolutionar ist, aber da drausen auch eine Menge dummes Zeug verbreitet wird.. Was soll man davon halten - und was ist eigentlich eine Blockchain? Alles begann mit Satoshi Nakamoto. Niemand weis, wer sich hinter dem Pseudonym verbirgt; aber wenn es ein einzelner Mensch ist, zahlt er inzwischen hochstwahrscheinlich zu den reichsten der Welt. Im Oktober 2008 veroffentlichte Nakamoto uber eine obskure Internetmailingliste einen Artikel mit dem Entwurf fur die erste Blockchain der Welt: eine offentliche Datenbank, von der alle zehn Minuten Kopien an Tausende von Computern verteilt und von diesen abgeglichen werden, fur jedermann zuganglich und von niemandem zu hacken. Ziel war es, eine dezentrale, absolut sichere Aufzeichnungsmoglichkeit fur den Austausch einer neuen digitalen Wahrung bereitzustellen, die Nakamoto Bitcoin nannte.
  2. Sande, M. Vander; Verborgh, R.; Hochstenbach, P.; Van de Sompel, H.: Toward sustainable publishing and querying of distributed Linked Data archives (2018) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 4195) [ClassicSimilarity], result of:
          0.005338771 = score(doc=4195,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 4195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4195)
      0.33333334 = coord(1/3)
    
    Abstract
    Purpose The purpose of this paper is to detail a low-cost, low-maintenance publishing strategy aimed at unlocking the value of Linked Data collections held by libraries, archives and museums (LAMs). Design/methodology/approach The shortcomings of commonly used Linked Data publishing approaches are identified, and the current lack of substantial collections of Linked Data exposed by LAMs is considered. To improve on the discussed status quo, a novel approach for publishing Linked Data is proposed and demonstrated by means of an archive of DBpedia versions, which is queried in combination with other Linked Data sources. Findings The authors show that the approach makes publishing Linked Data archives easy and affordable, and supports distributed querying without causing untenable load on the Linked Data sources. Research limitations/implications The proposed approach significantly lowers the barrier for publishing, maintaining, and making Linked Data collections queryable. As such, it offers the potential to substantially grow the distributed network of queryable Linked Data sources. Because the approach supports querying without causing unacceptable load on the sources, the queryable interfaces are expected to be more reliable, allowing them to become integral building blocks of robust applications that leverage distributed Linked Data sources. Originality/value The novel publishing strategy significantly lowers the technical and financial barriers that LAMs face when attempting to publish Linked Data collections. The proposed approach yields Linked Data sources that can reliably be queried, paving the way for applications that leverage distributed Linked Data sources through federated querying.
  3. Vier bibliometrische Kennzahlen auf Grundlage von zbMATH-Daten (2017) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 4315) [ClassicSimilarity], result of:
          0.005338771 = score(doc=4315,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 4315, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4315)
      0.33333334 = coord(1/3)
    
    Footnote
    Die Karte wurde nachträglich per Mail vom 19.04.2018 korrigiert und in dem Mitt DMV 2018, H.1, S.4 abgedruckt.
  4. Räwel, J.: Können Maschinen denken? : der Turing-Test aus systemtheoretischer Perspektive (2018) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 4383) [ClassicSimilarity], result of:
          0.005338771 = score(doc=4383,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 4383, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4383)
      0.33333334 = coord(1/3)
    
    Abstract
    Alan Turing beantwortete diese Frage nicht unmittelbar, sondern indirekt über das mittlerweile praktisch durchführbare Gedankenexperiment eines "imitation game". Seine Antwort lautete, es könne zumindest nicht ausgeschlossen werden, dass Maschinen (Computer) denken können, wenn sie Kommunikation, etwa als Wechselspiel von Fragen und Antworten, derart gut imitieren, dass (durch Menschen) mit hoher Wahrscheinlichkeit nicht entschieden werden kann, ob fragliche Kommunikation maschinell oder durch eine menschliche Person erfolgt. Dies zumal angesichts (damals zukünftiger) selbstlernender Maschinen bzw. Algorithmen, denen es in ihrer Anwendung möglich ist, eigene Strukturen zu verändern und damit potentiell die Simulation (?) der Kommunikation - bzw. des damit zusammenhängenden Denkens (?) - des "imitation game" fortlaufend zu verbessern. Wir werden die eingangs gestellte Frage, bezugnehmend auf die Luhmannsche Systemtheorie und damit unter einem radikal anderen Blickwinkel als sonst üblich, relativ umstandslos und direkt beantworten können. Allerdings werden wir feststellen müssen, dass die schlichte, umstandslose Beantwortung der Frage durch die komplexen theoretischen Voraussetzungen der Systemtheorie erkauft sind. So ist etwa aus systemtheoretischer Perspektive keineswegs selbstverständlich, obgleich die eingangs gestellte Frage dies nahelegt, welche Instanz im Unterschied zum fraglichen maschinellen Denken fraglos Denken erlaubt.
  5. Jaeger, L.: Diskussion um die Gestaltung des technologischen Fortschritts am Beispiel der Künstlichen Intelligenz (2019) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 4963) [ClassicSimilarity], result of:
          0.005338771 = score(doc=4963,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 4963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4963)
      0.33333334 = coord(1/3)
    
    Content
    "Wie das konkret aussehen kann, könnte eine Initiative der EU-Kommission mit der Gründung einer Experten-Gruppe (High-Level Expert Group on Artificial Intelligence, AI HLEG) aufzeigen, die sich im Dezember 2018 mit einem Beitrag "Ethische Grundlagen für eine vertrauenswürdige KI" an die Öffentlichkeit wandte. "Künstliche Intelligenz (KI) ist eine der transformativsten Kräfte unserer Zeit und wird das Gewebe der Gesellschaft verändern", heißt es darin gleich zu Beginn. Die Experten nennen daraufhin die Prinzipien auf dem Weg zu einer verantwortungsvollen Entwicklung der KI-Technologien. Insbesondere sei hier ein "anthropo-zentrischer" Ansatz vonnöten, so die Gruppe unisono. Ziel ist es, die Entwicklung der KI derart zu gestalten, dass der einzelne Mensch, seine Würde und seine Freiheit geschützt werde, Demokratie, Recht und Gesetz sowie Bürgerrechte aufrecht erhalten werden und Gleichheit, Minderheitenschutz und Solidarität gefördert werden. Grundlegende Richtlinien für jede KI-Technologie müssen daher sein: 1. Den Menschen Gutes zukommen zu lassen; 2. kein menschliches Leid zu verursachen; 3. die menschliche Autonomie zu fördern; 4. das Prinzip der Fairness gelten zu lassen; und 5. Transparenz und Nachvollziehbarkeit in allen Wirkungen zu erreichen." Vgl. auch: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence.
  6. Yaco, S.; Ramaprasad, A.: Informatics for cultural heritage instruction : an ontological framework (2019) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 5029) [ClassicSimilarity], result of:
          0.005338771 = score(doc=5029,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 5029, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5029)
      0.33333334 = coord(1/3)
    
    Abstract
    Purpose The purpose of this paper is to suggest a framework that creates a common language to enhance the connection between the domains of cultural heritage (CH) artifacts and instruction. Design/methodology/approach The CH and instruction domains are logically deconstructed into dimensions of functions, semiotics, CH, teaching/instructional materials, agents and outcomes. The elements within those dimensions can be concatenated to create natural-English sentences that describe aspects of the problem domain. Findings The framework is valid using traditional social sciences content, semantic, practical and systemic validity constructs. Research limitations/implications The framework can be used to map current research literature to discover areas of heavy, light and no research. Originality/value The framework provides a new way for CH and education stakeholders to describe and visualize the problem domain, which could allow for significant enhancements of each. Better understanding the problem domain would serve to enhance instruction informed from collections and vice versa. The educational process would have more depth due to better access to primary sources. Increased use of collections would reveal more ways through which they could be used in instruction. The framework can help visualize the past and present of the domain, and envisage its future.
  7. Tarulli, L.; Spiteri, L.F.: Library catalogues of the future : a social space and collaborative tool? (2012) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 5565) [ClassicSimilarity], result of:
          0.005338771 = score(doc=5565,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 5565, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5565)
      0.33333334 = coord(1/3)
    
    Abstract
    Next-generation catalogues are providing opportunities for library professionals and users to interact, collaborate, and enhance core library functions. Technology, innovation, and creativity are all components that are merging to create a localized, online social space that brings our physical library services and experiences into an online environment. While patrons are comfortable creating user-generated information on commercial Web sites and social media Web sites, library professionals should be exploring alternative methods of use for these tools within the library setting. Can the library catalogue promote remote readers' advisory services and act as a localized "Google"? Will patrons or library professionals be the driving force behind user-generated content within our catalogues? How can cataloguers be sure that the integrity of their bibliographic records is protected while inviting additional data sources to display in our catalogues? As library catalogues bring our physical library services into the online environment, catalogues also begin to encroach or "mash-up" with other areas of librarianship that have not been part of a cataloguer's expertise. Using library catalogues beyond their traditional role as tools for discovery and access raises issues surrounding the expertise of library professionals and the benefits of collaboration between frontline and backroom staff.
  8. Babcock, K.; Lee, S.; Rajakumar, J.; Wagner, A.: Providing access to digital collections (2020) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 5855) [ClassicSimilarity], result of:
          0.005338771 = score(doc=5855,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 5855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5855)
      0.33333334 = coord(1/3)
    
    Abstract
    The University of Toronto Libraries is currently reviewing technology to support its Collections U of T service. Collections U of T provides search and browse access to 375 digital collections (and over 203,000 digital objects) at the University of Toronto Libraries. Digital objects typically include special collections material from the university as well as faculty digital collections, all with unique metadata requirements. The service is currently supported by IIIF-enabled Islandora, with one Fedora back end and multiple Drupal sites per parent collection (see attached image). Like many institutions making use of Islandora, UTL is now confronted with Drupal 7 end of life and has begun to investigate a migration path forward. This article will summarise the Collections U of T functional requirements and lessons learned from our current technology stack. It will go on to outline our research to date for alternate solutions. The article will review both emerging micro-service solutions, as well as out-of-the-box platforms, to provide an overview of the digital collection technology landscape in 2019. Note that our research is focused on reviewing technology solutions for providing access to digital collections, as preservation services are offered through other services at the University of Toronto Libraries.
  9. Radford, M.L.; Kitzie, V.; Mikitish, S.; Floegel, D.; Radford, G.P.; Connaway, L.S.: "People are reading your work," : scholarly identity and social networking sites (2020) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 5983) [ClassicSimilarity], result of:
          0.005338771 = score(doc=5983,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 5983, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5983)
      0.33333334 = coord(1/3)
    
    Abstract
    Scholarly identity refers to endeavors by scholars to promote their reputation, work and networks using online platforms such as ResearchGate, Academia.edu and Twitter. This exploratory research investigates benefits and drawbacks of scholarly identity efforts and avenues for potential library support. Design/methodology/approach Data from 30 semi-structured phone interviews with faculty, doctoral students and academic librarians were qualitatively analyzed using the constant comparisons method (Charmaz, 2014) and Goffman's (1959, 1967) theoretical concept of impression management. Findings Results reveal that use of online platforms enables academics to connect with others and disseminate their research. scholarly identity platforms have benefits, opportunities and offer possibilities for developing academic library support. They are also fraught with drawbacks/concerns, especially related to confusion, for-profit models and reputational risk. Research limitations/implications This exploratory study involves analysis of a small number of interviews (30) with self-selected social scientists from one discipline (communication) and librarians. It lacks gender, race/ethnicity and geographical diversity and focuses exclusively on individuals who use social networking sites for their scholarly identity practices. Social implications Results highlight benefits and risks of scholarly identity work and the potential for adopting practices that consider ethical dilemmas inherent in maintaining an online social media presence. They suggest continuing to develop library support that provides strategic guidance and information on legal responsibilities regarding copyright. Originality/value This research aims to understand the benefits and drawbacks of Scholarly Identity platforms and explore what support academic libraries might offer. It is among the first to investigate these topics comparing perspectives of faculty, doctoral students and librarians.
  10. Choemprayong, S.; Siridhara, C.: Work centered classification as communication : representing a central bank's mission with the library classification (2021) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 233) [ClassicSimilarity], result of:
          0.005338771 = score(doc=233,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 233, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=233)
      0.33333334 = coord(1/3)
    
    Abstract
    For a special library serving its parent organization, the design and use of classification schemes primarily need to support work activities. However, when the Prince Vivadhanajaya Library at the Bank of Thailand decided to open its doors to the public in 2018, the redesign of classification that serves both internal staff work and the public interest became a challenging task. We designed a classification scheme by integrating work centered classification design approach, classification as communication framework and the service design approach. The design process included developing empathy, ideation and implementation and evaluation. As a result, the new classification scheme, including seven main classes and thirty-seven level-one subclasses and twenty-two level-two subclasses, was primarily based on the organization's strategic plans, mapping with JEL Classification Codes, Library of Congress Classification (LCC) and Library of Congress Subject Headings (LCSH). The classification scheme also includes geographical code, author cutter number, publication year, volume number and copy number. Follow up interviews with twenty-three participants were conducted two years later to evaluate user experience as well as the staff's opinion of the new classification scheme. The feedback addressed favorable outcomes and challenges to be used for the next iteration of the library service design process.
  11. Lee, S.: Pidgin metadata framework as a mediator for metadata interoperability (2021) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 654) [ClassicSimilarity], result of:
          0.005338771 = score(doc=654,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 654, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=654)
      0.33333334 = coord(1/3)
    
    Abstract
    A pidgin metadata framework based on the concept of pidgin metadata is proposed to complement the limitations of existing approaches to metadata interoperability and to achieve more reliable metadata interoperability. The framework consists of three layers, with a hierarchical structure, and reflects the semantic and structural characteristics of various metadata. Layer 1 performs both an external function, serving as an anchor for semantic association between metadata elements, and an internal function, providing semantic categories that can encompass detailed elements. Layer 2 is an arbitrary layer composed of substantial elements from existing metadata and performs a function in which different metadata elements describing the same or similar aspects of information resources are associated with the semantic categories of Layer 1. Layer 3 implements the semantic relationships between Layer 1 and Layer 2 through the Resource Description Framework syntax. With this structure, the pidgin metadata framework can establish the criteria for semantic connection between different elements and fully reflect the complexity and heterogeneity among various metadata. Additionally, it is expected to provide a bibliographic environment that can achieve more reliable metadata interoperability than existing approaches by securing the communication between metadata.
  12. Ahmed, M.: Automatic indexing for agriculture : designing a framework by deploying Agrovoc, Agris and Annif (2023) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 1024) [ClassicSimilarity], result of:
          0.005338771 = score(doc=1024,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 1024, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1024)
      0.33333334 = coord(1/3)
    
    Abstract
    There are several ways to employ machine learning for automating subject indexing. One popular strategy is to utilize a supervised learning algorithm to train a model on a set of documents that have been manually indexed by subject matter using a standard vocabulary. The resulting model can then predict the subject of new and previously unseen documents by identifying patterns learned from the training data. To do this, the first step is to gather a large dataset of documents and manually assign each document a set of subject keywords/descriptors from a controlled vocabulary (e.g., from Agrovoc). Next, the dataset (obtained from Agris) can be divided into - i) a training dataset, and ii) a test dataset. The training dataset is used to train the model, while the test dataset is used to evaluate the model's performance. Machine learning can be a powerful tool for automating the process of subject indexing. This research is an attempt to apply Annif (http://annif. org/), an open-source AI/ML framework, to autogenerate subject keywords/descriptors for documentary resources in the domain of agriculture. The training dataset is obtained from Agris, which applies the Agrovoc thesaurus as a vocabulary tool (https://www.fao.org/agris/download).
  13. Rafferty, P.: Genre as knowledge organization (2022) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 1093) [ClassicSimilarity], result of:
          0.005338771 = score(doc=1093,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 1093, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1093)
      0.33333334 = coord(1/3)
    
    Series
    Reviews of concepts in knowledge organization
  14. Oh, D.-G.: Comparative analysis of national classification systems : cases of Korean Decimal Classification (KDC) and Nippon Decimal Classification (NDC) (2023) 0.00
    0.0017795903 = product of:
      0.005338771 = sum of:
        0.005338771 = weight(_text_:in in 1121) [ClassicSimilarity], result of:
          0.005338771 = score(doc=1121,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07514416 = fieldWeight in 1121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1121)
      0.33333334 = coord(1/3)
    
    Abstract
    The Korean Decimal Classification (KDC) and Nippon Decimal Classification (NDC) are national classification systems of Korea and Japan. They have been used widely in many libraries of each country and maintained successfully by each national library associations of Korean Library Association (KLA) and Japan Library Association (JLA). This study compares the general characteristics of these two national classification systems using their latest editions of KDC 6 and NDC 10. After reviewing the former research, their origins, general history and development, and usages were briefly compared. Various aspects including classification by discipline, not by subjects, decimal expansion of the classes using pure notations of Arabic, hierarchical structure, and mnemonics quality are checked for both systems. Results of the comparative analyses of major auxiliary tables, main classes and 100 divisions of schedules of two systems are suggested one by one with special regards to Dewey Decimal Classification (DDC). The analyses focus on the differences between both systems as well as the characteristics which reflect the local situations of both countries. It suggests some ideas for future developments and research based on the results of their strengths and weaknesses.
  15. Schröter, H.G.: Microsoft lockt mit Rabatt : Neuer Dienst für Suchmaschinen-Nutzer / Google baut Führung aus (2008) 0.00
    0.0017617046 = product of:
      0.0052851136 = sum of:
        0.0052851136 = weight(_text_:in in 1876) [ClassicSimilarity], result of:
          0.0052851136 = score(doc=1876,freq=4.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07438892 = fieldWeight in 1876, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1876)
      0.33333334 = coord(1/3)
    
    Content
    "Google hat den Abstand zu den konkurrierenden Suchmaschinen im Web in den USA noch vergrößert. Der Marktanteil des Internet-Giganten an den Suchanfragen sei im April auf 61,6 Prozent von 59,8 Prozent im Vormonat gestiegen, berichtete die Marktforschungsfirma Comscore. Der Anteil von Yahoo sei dagegen von 21,3 auf 20,4 Prozent und der von Microsoft auf 9,1 von 9,4 Prozent gesunken. AOL und Ask Network folgen abgeschlagen mit 4,6 und 4,3 Prozent. Microsoft versucht seit langem immer wieder, den Abstand zu Google zu verringern. Denn die Beliebtheit der Suchmaschine spielt eine wichtige Rolle für das lukrative Geschäft mit Online-Werbung. Jetzt startet der Software-Riese mit dem "Live Search Cashback" getauften Programm einen neuen Versuch. Er will Nutzern seiner Suchmaschine einen Rabatt auf Kameras, Uhren, Sportschuhe und viele andere Produkte von Anzeigenkunden gewähren. Wer sich registriert hat und auf der Suchmaschine Windows Live Search besonders markierte Artikel bestimmter Händler findet und online erwirbt, bekommt 60 Tage nach dem Kauf Geld zurück. Die Rabatte sollen von zwei bis 30 Prozent reichen. Dabei arbeitet Microsoft nach eigenen Angaben mit mehr als 700 Partnerfirmen zusammen. Zu ihnen zählen unter anderem Ebay, der Buchhändler Barnes & Noble und Sears. Diese sollen für ihre bei Microsoft geschalteten Anzeigen nur dann eine Gebühr zahlen, wenn ein Kunde über das Cashback-Programm einen Kauf abschließt. Aus diesen Gebühren werden die Rabatte an die Kunden finanziert. Anders als bei diesem cost-per-action genannten Modell zahlen Unternehmen derzeit für jeden Klick der Internetnutzer auf ihre Anzeigen. Bei diesem Modell (cost-per-click) dominiert Google.
    "Wir glauben, dass die Suche Verbrauchern und Werbetreibenden weit mehr bieten kann als heute üblich ist", erklärte Microsoft-Mitgründer Bill Gates. Live Search Cashback werde Anzeigenkunden beim Online-Verkauf helfen und Konsumenten einen neuen Weg bieten, mehr aus ihren Dollars zu machen. "Wir wollen Ihre Treue gewinnen", erfahren Interessenten, die sich auf der US-Website über das Cashback-Programm schlau machen wollen. Ob Microsoft den neuen Dienst gegebenenfalls auch außerhalb der USA einführen wird, sei nicht entschieden, teilt der hiesige Ableger mit. Der große Abstand der Microsoft-Suche Live Search zum Marktführer Google war der Hauptgrund dafür, dass der weltweit größte Software-Konzern einen Übernahmevorschlag für Yahoo vorlegte. Die Nummer zwei am US-Suchmarkt befand das Angebot von zuletzt 47,5 Milliarden Dollar aber als zu niedrig. Microsoft zog die Offerte Anfang Mai zurück. Seither reißen die Spekulationen nicht ab, dass Microsoft es nun lediglich auf das Suchmaschinengeschäft von Yahoo und eine Minderheitsbeteiligung an dem Internet-Konzern abgesehen habe. Ob der neue Rabatt-Ansatz bei der Produktsuche Microsoft den erhofften Erfolg bescheren wird, ist noch nicht ausgemacht. Zwar hat der Konzern eine lange Liste von Händlern gewonnen, die mitmachen wollen. Doch fraglich bleibt, ob Preisnachlässe beim Online-Shopping verlockend genug sind, damit Internetnutzer massenhaft zu Live Search wechseln. Nicht ohne Grund liegt Google in der Gunst der Surfer weit vorn. An der überlegenen Technologie des Branchenführers ändert das Cashback-Programm nichts. Es könnte aber an Bedeutung gewinnen, wenn Microsoft die Yahoo-Suchmaschine schlucken würde. Und es könnte ein Versuch sein, dem Erzrivalen Google das Leben so schwer wie möglich zu machen, obwohl die Anzeigen-Einnahmen aus dem Cashback-Programm ja den Online-Käufern und nicht Microsoft zufließen sollen. Findet der Microsoft-Konzern nämlich genug Händler für sein Rabatt-Modell, dann könnte er Werbedollar von Google abziehen."
  16. Soondrum, N.: Google fährt Krakenarme aus : Suchmaschine bietet Nachrichteninhalte acht europäischer Agenturen an (2009) 0.00
    0.0017617046 = product of:
      0.0052851136 = sum of:
        0.0052851136 = weight(_text_:in in 4974) [ClassicSimilarity], result of:
          0.0052851136 = score(doc=4974,freq=4.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.07438892 = fieldWeight in 4974, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4974)
      0.33333334 = coord(1/3)
    
    Content
    Obwohl Google News die Inhalte maschinell sortiert und den Agenturmaterialien keine redaktionelle Bearbeitung angedeihen lässt, bedeutet das um die EPA-Mitglieder erweiterte Angebot eine fatale Konkurrenz für Nachrichtenportale, die Agenturmaterial verwenden - und das sind fast alle. Stefan Keuchel, Sprecher von Google in Deutschland, streitet eine Verschärfung des Wettbewerbs ab: "Alles was wir tun, ist den Nachrichtenticker dieser Agenturen vollständig anzuzeigen. Daneben verlinken wir ja weiter auf eigene Inhalte der Medienportale", sagte Keuchel der FR. Was er dabei unter den Tisch fallen lässt, ist, dass das eigentliche Geschäft im Internet mit Werbung gemacht wird. Je mehr Nutzerzugriffe ein Nachrichtenanbieter im Netz vorweisen kann, desto begehrter wird sein Werbeplatz. Auf dem Gebiet der Werbung intensiviert Google gerade seine Aktivität. Wie das Wall Street Journal am 18. März meldete, kooperiert der Internetriese mit der britischen WPP Group, dem weltgrößten Werbekonzern. Ziel ist es, mit der Harvard Business School, dem MIT und der Stanford University eine Studie über die Effizienz von Online-Werbung zu erarbeiten. Da fällt einem das Epic- Video ein: 2008 fusionieren in der fingierten Doku Google und das Internet-Versandhaus Amazon. "Zusammen nutzen sie ihr Wissen über das jeweilige soziale Geflecht und die Kauf- und Lesegewohnheiten zur totalen Anpassung des Contents und der Werbung an die Kundenwünsche." 2014 hat "Googlezon" Microsoft ausgeschaltet, die New York Times geht offline: Sie verbleibt als Printmedium für "die Eliten und ältere Menschen". V wie Verschwörungstheorie? Oder aber: Vielleicht näher an der Realität, als wir dachten."
  17. Daniel, F.: Neue Serviceangebote in einer modernen Öffentlichen Bibliothek am Beispiel der StadtBibliothek Köln (2000) 0.00
    0.0014236722 = product of:
      0.0042710165 = sum of:
        0.0042710165 = weight(_text_:in in 5515) [ClassicSimilarity], result of:
          0.0042710165 = score(doc=5515,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.060115322 = fieldWeight in 5515, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5515)
      0.33333334 = coord(1/3)
    
  18. Blair, D.C.: ¬The challenge of commercial document retrieval : Part I: Major issues, and a framework based on search exhaustivity, determinacy of representation and document collection size (2002) 0.00
    0.0014236722 = product of:
      0.0042710165 = sum of:
        0.0042710165 = weight(_text_:in in 2580) [ClassicSimilarity], result of:
          0.0042710165 = score(doc=2580,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.060115322 = fieldWeight in 2580, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2580)
      0.33333334 = coord(1/3)
    
    Abstract
    With the growing focus on what is collectively known as "knowledge management", a shift continues to take place in commercial information system development: a shift away from the well-understood data retrieval/database model, to the more complex and challenging development of commercial document/information retrieval models. While document retrieval has had a long and rich legacy of research, its impact on commercial applications has been modest. At the enterprise level most large organizations have little understanding of, or commitment to, high quality document access and management. Part of the reason for this is that we still do not have a good framework for understanding the major factors which affect the performance of large-scale corporate document retrieval systems. The thesis of this discussion is that document retrieval - specifically, access to intellectual content - is a complex process which is most strongly influenced by three factors: the size of the document collection; the type of search (exhaustive, existence or sample); and, the determinacy of document representation. Collectively, these factors can be used to provide a useful framework for, or taxonomy of, document retrieval, and highlight some of the fundamental issues facing the design and development of commercial document retrieval systems. This is the first of a series of three articles. Part II (D.C. Blair, The challenge of commercial document retrieval. Part II. A strategy for document searching based on identifiable document partitions, Information Processing and Management, 2001b, this issue) will discuss the implications of this framework for search strategy, and Part III (D.C. Blair, Some thoughts on the reported results of Text REtrieval Conference (TREC), Information Processing and Management, 2002, forthcoming) will consider the importance of the TREC results for our understanding of operating information retrieval systems.
  19. cid: Google & Co. : In die Welt der Suchmaschinen kommt Bewegung (2004) 0.00
    0.0014236722 = product of:
      0.0042710165 = sum of:
        0.0042710165 = weight(_text_:in in 2809) [ClassicSimilarity], result of:
          0.0042710165 = score(doc=2809,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.060115322 = fieldWeight in 2809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2809)
      0.33333334 = coord(1/3)
    
  20. Fassbender, J.: ¬Das Deutsche Netzwerk der Indexer - professionelle Registererstellung irn Brennpunkt (2004) 0.00
    0.0014236722 = product of:
      0.0042710165 = sum of:
        0.0042710165 = weight(_text_:in in 3052) [ClassicSimilarity], result of:
          0.0042710165 = score(doc=3052,freq=2.0), product of:
            0.07104705 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.052230705 = queryNorm
            0.060115322 = fieldWeight in 3052, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3052)
      0.33333334 = coord(1/3)
    
    Content
    "Anlässlich der diesjährigen Buchmesse trafen sich auf Initiative von Jochen Fassbender zum ersten Mal die Mitglieder des im Sommer 2004 entstandenen Deutschen Netzwerks der Indexer. Das DNI versteht sich als Sammelbecken für alle an professioneller Registererstellung (Indexing) interessierten Personen und als Plattform für die damit verbundenen Themen im deutschsprachigen Raum. Im DNI sind sowohl Spezialisten aus dem Publikationswesen als auch aus dem informationswissenschaftlichen Bereich versammelt; beide Bereiche sollen dadurch auch enger zusammengeführt werden. Thematisch ist der gesamte Printund digitale Medienbereich, vom klassischen Buchregister über den Fachzeitschriften-Index bis hin zu Registern für elektronische Medien, abgedeckt. Das DNI möchte eine ähnliche Funktion wie die schon lange bestehenden, weltweit führenden anglo-amerikanischen Fachverbände, die Society of Indexers in Großbritannien und die American Society of Indexers, einnehmen. Denn trotz über 500-jähriger Buchtradition im deutschsprachigen Raum gibt es hierzulande keinen professionellen Rahmen für Registerersteller, und die Qualität der Register lässt oft zu wünschen übrig. Register, die ohne spezielle Indexing-Kenntnisse erstellt werden - und dazu zählen meist auch von Autoren erstellte Register - gehen oft an den Bedürfnissen der Leser und Nutzer vorbei. Das DNI möchte daher über notorisch weit verbreitete Fehleinschätzungen zum Indexing aufklären und kann sich dabei auf zum Teil jahrzehntelange Erfahrung und Kompetenz seiner Mitglieder stützen. Die meisten DNI-Mitglieder bieten zudem Registererstellung als Dienstleistung an. Moderne, professionelle Registererstellung, insbesondere die Erstellung von Sachregistern, ist ein Fachgebiet für sich und umfasst neben den technischen Aspekten auch die indexmethodischen Kompetenzen. Der Registererstellung kommt stets eine besondere Bedeutung zu, denn nur ein qualitativ hochwertiges Register bietet einen wirklichen Zugang zum Inhalt einer Publikation. Gute Register sind daher kein Selbstzweck, sondern stellen einen Mehrwert und damit auch einen hervorragenden, oft unterschätzten Marketing-Faktor dar. Verlage, Firmen und Autoren, die an den Serviceleistungen der DNI-Mitglieder interessiert sind, sowie Interessenten, die sich dem DNI anschließen möchten, finden weiterführende Informationen auf der DNI-Website www.d-indexer.org. Eine enge Zusammenarbeit mit der DGI ist gegeben."

Authors

Languages

Types

  • el 816
  • b 61
  • p 3
  • i 1
  • s 1
  • x 1
  • More… Less…

Themes