Search (676 results, page 1 of 34)

  • × year_i:[2010 TO 2020}
  1. Ex Libris: Primo Version 3.0 jetzt erhältlich (2010) 0.08
    0.0791139 = product of:
      0.23734169 = sum of:
        0.23734169 = weight(_text_:3.0 in 3667) [ClassicSimilarity], result of:
          0.23734169 = score(doc=3667,freq=6.0), product of:
            0.3385214 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.04619914 = queryNorm
            0.7011128 = fieldWeight in 3667, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3667)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Primo Version 3.0 ist das Ergebnis einer kontinuierlichen Zusammenarbeit mit der rasch wachsenden internationalen Primo-Community. Durch die Kombination aus einer vereinfachten, modernisierten Benutzeroberfläche, der Integration der Opac-Funktion und den gestützten nahtlosen Suchoptionen innerhalb des Primo-Central-Index für wissenschaftliche Materialien ermöglicht Primo 3.0 den Nutzern die Interaktion mit der Bibliothek über eine einzige Benutzeroberfläche.
  2. Aslam, S.; Sonkar, S.K.: Semantic Web : an overview (2019) 0.07
    0.07308228 = product of:
      0.21924685 = sum of:
        0.21924685 = weight(_text_:3.0 in 54) [ClassicSimilarity], result of:
          0.21924685 = score(doc=54,freq=2.0), product of:
            0.3385214 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.04619914 = queryNorm
            0.64766026 = fieldWeight in 54, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.0625 = fieldNorm(doc=54)
      0.33333334 = coord(1/3)
    
    Abstract
    This paper presents the semantic web, web writing content, web technology, goals of semantic and obligation for the expansion of web 3.0. This paper also shows the different components of semantic web and such as HTTP, HTML, XML, XML Schema, URI, RDF, Taxonomy and OWL. To provide valuable information services semantic web execute the benefits of library functions and also to be the best use of library collection are mention here.
  3. RDA Toolkit (5 - Juni 2018) (2018) 0.07
    0.06726107 = product of:
      0.20178321 = sum of:
        0.20178321 = product of:
          0.40356642 = sum of:
            0.40356642 = weight(_text_:beta in 3993) [ClassicSimilarity], result of:
              0.40356642 = score(doc=3993,freq=6.0), product of:
                0.34897685 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.04619914 = queryNorm
                1.1564275 = fieldWeight in 3993, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3993)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    "gestern Abend wurde die beta Version des neuen RDA-Toolkits<http://beta.rdatoolkit.org/rda.web/> veröffentlicht. Die Veröffentlichung der Beta-Site ist ein wichtiger Meilenstein innerhalb des RDA Toolkit Restructure and Redesign Project, bedeutet aber nicht den Abschluss des 3R-Projekts. Eine vollständige Beschreibung dessen, was auf der Beta-Site enthalten ist oder nicht, finden Sie im RDA-Info-Wiki<https://wiki.dnb.de/x/oQNXC>." [Inetbib vom 14.06.2018].
  4. Savoy, J.: Estimating the probability of an authorship attribution (2016) 0.06
    0.058973737 = product of:
      0.1769212 = sum of:
        0.1769212 = sum of:
          0.14562447 = weight(_text_:beta in 2937) [ClassicSimilarity], result of:
            0.14562447 = score(doc=2937,freq=2.0), product of:
              0.34897685 = queryWeight, product of:
                7.5537524 = idf(docFreq=62, maxDocs=44218)
                0.04619914 = queryNorm
              0.4172898 = fieldWeight in 2937, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                7.5537524 = idf(docFreq=62, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2937)
          0.03129673 = weight(_text_:22 in 2937) [ClassicSimilarity], result of:
            0.03129673 = score(doc=2937,freq=2.0), product of:
              0.16178152 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04619914 = queryNorm
              0.19345059 = fieldWeight in 2937, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2937)
      0.33333334 = coord(1/3)
    
    Abstract
    In authorship attribution, various distance-based metrics have been proposed to determine the most probable author of a disputed text. In this paradigm, a distance is computed between each author profile and the query text. These values are then employed only to rank the possible authors. In this article, we analyze their distribution and show that we can model it as a mixture of 2 Beta distributions. Based on this finding, we demonstrate how we can derive a more accurate probability that the closest author is, in fact, the real author. To evaluate this approach, we have chosen 4 authorship attribution methods (Burrows' Delta, Kullback-Leibler divergence, Labbé's intertextual distance, and the naïve Bayes). As the first test collection, we have downloaded 224 State of the Union addresses (from 1790 to 2014) delivered by 41 U.S. presidents. The second test collection is formed by the Federalist Papers. The evaluations indicate that the accuracy rate of some authorship decisions can be improved. The suggested method can signal that the proposed assignment should be interpreted as possible, without strong certainty. Being able to quantify the certainty associated with an authorship decision can be a useful component when important decisions must be taken.
    Date
    7. 5.2016 21:22:27
  5. Göbel, R.: Semantic Web & Linked Data für professionelle Informationsangebote : Hoffnungsträger oder "alter Hut" - Eine Praxisbetrachtung für die Wirtschaftsinformationen (2010) 0.05
    0.054811712 = product of:
      0.16443513 = sum of:
        0.16443513 = weight(_text_:3.0 in 4258) [ClassicSimilarity], result of:
          0.16443513 = score(doc=4258,freq=2.0), product of:
            0.3385214 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.04619914 = queryNorm
            0.4857452 = fieldWeight in 4258, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.046875 = fieldNorm(doc=4258)
      0.33333334 = coord(1/3)
    
    Abstract
    Mit dem Hype um Web 3.0 und insbesondere den Schlagworten "Semantic Web" und "Linked Open Data" wird wieder einmal die Hoffnung geweckt mit einem Mausklick (bzw. Agenten) alle relevanten Informationen zu erhalten, die man braucht - also perfekte Vollständigkeit und Relevanz über das gesamte WWW hinweg. Informationsangebote müssen hierfür bestimmte strukturelle Voraussetzungen erfüllen. Der Vortrag geht unter praxisorientierten Gesichtspunkten den Fragen nach, welche Strukturen im Rahmen professioneller Wirtschaftsinformationsangebote bereits vorhanden sind und welcher weitere Nutzen erzeugt werden kann. Können sich daraus neue Chancen ergeben oder haben die Anbieter ihre Hausaufgaben für die semantische Suche und "connected data" bereits erledigt und können in Ruhe abwarten bis die hochfliegenden Hoffnungen in der Realität ankommen?
  6. Ohly, H.P.: Mission, programs, and challenges of knowledge organization (2012) 0.05
    0.054811712 = product of:
      0.16443513 = sum of:
        0.16443513 = weight(_text_:3.0 in 820) [ClassicSimilarity], result of:
          0.16443513 = score(doc=820,freq=2.0), product of:
            0.3385214 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.04619914 = queryNorm
            0.4857452 = fieldWeight in 820, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
      0.33333334 = coord(1/3)
    
    Abstract
    Traditionally "Knowledge Organization" is the ordering of documents on a bookshelf and the indexing of these in a more or less one-dimensional catalog. Now with the Web, its many and hyperlinked, distributed and heterogeneous sources the plain terminological approaches are no longer sufficient. In the same way ISKO society has to rethink its mission. The "New" Knowledge Organization, which aims at the "Semantic" Web 3.0 tries to combine different Knowledge Organization systems by shared meta data and formalized ontologies that are logical deductive. Whereas the semantic approaches have quite an opposite approach to the user driven systems the future might lay in a combination of logical descriptions and self-organizing principles, what could be named "Self Organizing Knowledge Organization Systems". But still there are open questions which might be solved in future by ISKO and neighbour societies.
  7. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.05
    0.04891765 = product of:
      0.14675295 = sum of:
        0.14675295 = product of:
          0.44025886 = sum of:
            0.44025886 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.44025886 = score(doc=973,freq=2.0), product of:
                0.3916768 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04619914 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  8. Campanario, J.M.: Distribution of ranks of articles and citations in journals (2010) 0.05
    0.048541494 = product of:
      0.14562447 = sum of:
        0.14562447 = product of:
          0.29124895 = sum of:
            0.29124895 = weight(_text_:beta in 3340) [ClassicSimilarity], result of:
              0.29124895 = score(doc=3340,freq=2.0), product of:
                0.34897685 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.04619914 = queryNorm
                0.8345796 = fieldWeight in 3340, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3340)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    I studied the distribution of articles and citations in journals between 1998 and 2007 according to an empirical function with two exponents. These variables showed good fit to a beta function with two exponents.
  9. San Segundo, R.; Ávila, D.M.: New conceptual structures for the digital environment : from KOS to the semantic interconnection (2012) 0.05
    0.045676425 = product of:
      0.13702928 = sum of:
        0.13702928 = weight(_text_:3.0 in 850) [ClassicSimilarity], result of:
          0.13702928 = score(doc=850,freq=2.0), product of:
            0.3385214 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.04619914 = queryNorm
            0.40478766 = fieldWeight in 850, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.0390625 = fieldNorm(doc=850)
      0.33333334 = coord(1/3)
    
    Abstract
    Primitive thinking forms affected the organization of knowledge, and at a later date writing also affected organization. Currently, the web requires new forms of learning and knowledge; with the globalization of information, connectivity and virtuality have a bearing on human thought. Digital thinking is shaping our reality and its organizational form. Natural memory, considered to be a process that requires the structure of natural language and human capabilities, is interwoven with a subject and a conscience; memory preserved through writing required other tools to assist it, and classifications, cataloguing, organization or other KOS were created. The new tool for recovering digital memory is the semantic web. This points to information's future on the Internet and seems to approach the utopia of global, organized information and attempts to give the website greater significance. The Web 3.0 incorporates a proliferation of languages, concepts and tools that are difficult to govern and are created by users. The semantic web seems to be a natural evolution of the participative web in which we find ourselves, and if an effective combination is achieved between the inclusion of semantic content in web pages and the use of artificial intelligence it will be a revolution; semantic codification will be a fact when it is totally automated. Based on this, a collective digital intelligence is being constituted. We find ourselves before intelligent multitudes with broad access to enormous amounts of information. The intelligent multitude emerges when technologies interconnect. In this global interconnection of semantic information an exponential pattern of technological growth can take place.
  10. Hjoerland, B.: Does the traditional thesaurus have a place in modern information retrieval? (2016) 0.05
    0.045676425 = product of:
      0.13702928 = sum of:
        0.13702928 = weight(_text_:3.0 in 2915) [ClassicSimilarity], result of:
          0.13702928 = score(doc=2915,freq=2.0), product of:
            0.3385214 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.04619914 = queryNorm
            0.40478766 = fieldWeight in 2915, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2915)
      0.33333334 = coord(1/3)
    
    Abstract
    The introduction (1.0) of this article considers the status of the thesaurus within LIS and asks about the future prospect for thesauri. The main following points are: (2.0) Any knowledge organization system (KOS) is today threatened by Google-like systems, and it is therefore important to consider if there still is a need for knowledge organization (KO) in the traditional sense. (3.0) A thesaurus is a somewhat reduced form of KOS compared to, for example, an ontology, and its "bundling" and restricted number of semantic relations has never been justified theoretically or empirically. Which semantic relations are most fruitful for a given task is thus an open question, and different domains may need different kinds of KOS including different sets of relations between terms. (4.0) A KOS is a controlled vocabulary (CV) and should not be considered a "perfect language" (Eco 1995) that is simply able to remove the ambiguity of natural language; rather much ambiguity in language represents a battle between many "voices" (Bakhtin 1981) or "paradigms" (Kuhn 1962). In this perspective, a specific KOS, e.g. a specific thesaurus, is just one "voice" among many voices, and that voice has to demonstrate its authority and utility. It is concluded (5.0) that the traditional thesaurus does not have a place in modern information retrieval, but that more flexible semantic tools based on proper studies of domains will always be important.
  11. Tegmark, M.: Leben 3.0 : Mensch sein im Zeitalter Künstlicher Intelligenz (2017) 0.05
    0.045217358 = product of:
      0.13565207 = sum of:
        0.13565207 = weight(_text_:3.0 in 4558) [ClassicSimilarity], result of:
          0.13565207 = score(doc=4558,freq=4.0), product of:
            0.3385214 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.04619914 = queryNorm
            0.40071934 = fieldWeight in 4558, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4558)
      0.33333334 = coord(1/3)
    
    Footnote
    Originaltitel: Life 3.0. Rez. unter: http://www.spektrum.de/rezension/buchkritik-zu-leben-3-0/1528679 (Lobe, Adrian: "Der versklavte Maschinengott"): "--- Der Autor wirft in seinen "KI-Nachwirkungsszenarien" zahlreiche technikphilosophische Fragen auf, etwa: Sollten Menschen oder Maschinen die Kontrolle haben? Sollten künstliche Intelligenzen bewusstseinsfähig sein oder nicht? Sollte der Mensch weiter existieren, ersetzt werden durch Cyborgs und/oder Uploads umgestaltet oder simuliert werden?
  12. Schaalje, G.B.; Blades, N.J.; Funai, T.: ¬An open-set size-adjusted Bayesian classifier for authorship attribution (2013) 0.04
    0.041188825 = product of:
      0.12356647 = sum of:
        0.12356647 = product of:
          0.24713294 = sum of:
            0.24713294 = weight(_text_:beta in 1041) [ClassicSimilarity], result of:
              0.24713294 = score(doc=1041,freq=4.0), product of:
                0.34897685 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.04619914 = queryNorm
                0.7081643 = fieldWeight in 1041, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1041)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Recent studies of authorship attribution have used machine-learning methods including regularized multinomial logistic regression, neural nets, support vector machines, and the nearest shrunken centroid classifier to identify likely authors of disputed texts. These methods are all limited by an inability to perform open-set classification and account for text and corpus size. We propose a customized Bayesian logit-normal-beta-binomial classification model for supervised authorship attribution. The model is based on the beta-binomial distribution with an explicit inverse relationship between extra-binomial variation and text size. The model internally estimates the relationship of extra-binomial variation to text size, and uses Markov Chain Monte Carlo (MCMC) to produce distributions of posterior authorship probabilities instead of point estimates. We illustrate the method by training the machine-learning methods as well as the open-set Bayesian classifier on undisputed papers of The Federalist, and testing the method on documents historically attributed to Alexander Hamilton, John Jay, and James Madison. The Bayesian classifier was the best classifier of these texts.
  13. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.04
    0.040764716 = product of:
      0.12229414 = sum of:
        0.12229414 = product of:
          0.3668824 = sum of:
            0.3668824 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.3668824 = score(doc=1826,freq=2.0), product of:
                0.3916768 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04619914 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  14. Müller, A.B.: Deutsche Digitale Bibliothek präsentiert erste Vollversion : acht Millionen Datensätze von mehr als 100 Einrichtungen online (2014) 0.04
    0.038833197 = product of:
      0.11649959 = sum of:
        0.11649959 = product of:
          0.23299918 = sum of:
            0.23299918 = weight(_text_:beta in 1514) [ClassicSimilarity], result of:
              0.23299918 = score(doc=1514,freq=2.0), product of:
                0.34897685 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.04619914 = queryNorm
                0.6676637 = fieldWeight in 1514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1514)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Deutsche Digitale Bibliothek (DDB), die Ende 2012 unter www.deutsche-digitalebibliothek.de in einer ersten öffentlichen Version ans Netz gegangen ist, hat Ende März das Beta-Stadium verlassen. In Berlin wurde am 31. März die erste Vollversion präsentiert.
  15. Corporate Semantic Web : wie semantische Anwendungen in Unternehmen Nutzen stiften (2015) 0.04
    0.03654114 = product of:
      0.109623425 = sum of:
        0.109623425 = weight(_text_:3.0 in 2246) [ClassicSimilarity], result of:
          0.109623425 = score(doc=2246,freq=2.0), product of:
            0.3385214 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.04619914 = queryNorm
            0.32383013 = fieldWeight in 2246, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.03125 = fieldNorm(doc=2246)
      0.33333334 = coord(1/3)
    
    Content
    Kapitel 1; Corporate Semantic Web; 1.1 Das Semantic Web; 1.2 Semantische Anwendungen im Unternehmenseinsatz; 1.3 Bereitstellen von Linked Data reicht nicht; 1.4 Eine global vernetzte Wissensbasis -- Fiktion oder Realität?; 1.5 Semantik)=)RDF?; 1.6 Richtig vorgehen; 1.7 Modellieren ist einfach (?!); 1.8 Juristische Fragen; 1.9 Semantische Anwendungen stiften Nutzen in Unternehmen -- nachweislich!; 1.10 Fazit; Literatur; Kapitel 2; Einordnung und Abgrenzung des Corporate Semantic Webs; 2.1 Grundlegende Begriffe; 2.2 Corporate Semantic Web 2.3 Public Semantic Web2.4 Social Semantic Web 3.0; 2.5 Pragmatic Web; 2.6 Zusammenfassung und Ausblick "Ubiquitous Pragmatic Web 4.0"; Literatur; Kapitel 3; Marktstudie: Welche Standards und Tools werden in Unternehmen eingesetzt?; 3.1 Einleitung; 3.2 Semantische Suche in Webarchiven (Quantinum AG); 3.2.1 Kundenanforderungen; 3.2.2 Technische Umsetzung; 3.2.3 Erfahrungswerte; 3.3 Semantische Analyse und Suche in Kundenspezifikationen (Ontos AG); 3.3.1 Kundenanforderungen; 3.3.2 Technische Umsetzung; 3.3.3 Erfahrungswerte 3.4 Sicherheit für Banken im Risikomanagement (VICO Research & Consulting GmbH)3.4.1 Kundenanforderungen; 3.4.2 Technische Umsetzung; 3.4.3 Erfahrungswerte; 3.5 Interaktive Fahrzeugdiagnose (semafora GmbH); 3.5.1 Kundenanforderungen; 3.5.2 Technische Umsetzung; 3.5.3 Erfahrungswerte; 3.6 Quo Vadis?; 3.7 Umfrage-Ergebnisse; 3.8 Semantic Web Standards & Tools; 3.9 Ausblick; Literatur; Kapitel 4; Modellierung des Sprachraums von Unternehmen; 4.1 Hintergrund; 4.2 Eine Frage der Bedeutung; 4.3 Bedeutung von Begriffen im Unternehmenskontext; 4.3.1 Website-Suche bei einem Industrieunternehmen 4.3.2 Extranet-Suche bei einem Marktforschungsunternehmen4.3.3 Intranet-Suche bei einem Fernsehsender; 4.4 Variabilität unserer Sprache und unseres Sprachgebrauchs; 4.4.1 Konsequenzen des Sprachgebrauchs; 4.5 Terminologiemanagement und Unternehmensthesaurus; 4.5.1 Unternehmensthesaurus; 4.5.2 Mut zur Lücke: Arbeiten mit unvollständigen Terminologien; 4.6 Pragmatischer Aufbau von Unternehmensthesauri; 4.6.1 Begriffsanalyse des Anwendungsbereichs; 4.6.2 Informationsquellen; 4.6.3 Häufigkeitsverteilung; 4.6.4 Aufwand und Nutzen; Literatur; Kapitel 5 Schlendern durch digitale Museen und Bibliotheken5.1 Einleitung; 5.2 Anwendungsfall 1: Schlendern durch das Digitale Museum; 5.3 Anwendungsfall 2: Literatur in Bibliotheken finden; 5.4 Herausforderungen; 5.5 Die Anforderungen treiben die Architektur; 5.5.1 Semantic ETL; 5.5.2 Semantic Logic; 5.5.3 Client; 5.6 Diskussion; 5.7 Empfehlungen und Fazit; Literatur; Kapitel 6; Semantische Suche im Bereich der Energieforschungsförderung; 6.1 Das Projekt EnArgus®; 6.2 Die Fachontologie; 6.2.1 Semantische Suche; 6.2.2 Repräsentation der semantischen Relationen in der Fachontologie
  16. Holland, M.: Erstes wissenschaftliches Buch eines Algorithmus' veröffentlicht (2019) 0.03
    0.033979047 = product of:
      0.10193714 = sum of:
        0.10193714 = product of:
          0.20387428 = sum of:
            0.20387428 = weight(_text_:beta in 5227) [ClassicSimilarity], result of:
              0.20387428 = score(doc=5227,freq=2.0), product of:
                0.34897685 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.04619914 = queryNorm
                0.58420575 = fieldWeight in 5227, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5227)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Wissenschaftsverlag Springer Nature hat nach eigenen Angaben das erste Buch veröffentlicht, das von einem Algorithmus verfasst wurde. Bei Springer Nature ist das nach Angaben des Wissenschaftsverlags erste maschinengenerierte Buch erschienen: "Lithium-Ion Batteries - A Machine-Generated Summary of Current Research" biete einen Überblick über die neuesten Forschungspublikationen über Lithium-Ionen-Batterien, erklärte die Goethe-Universität Frankfurt am Main. Dort wurde im Bereich Angewandte Computerlinguistik unter der Leitung von Christian Chiarcos jenes Verfahren entwickelt, das Textinhalte automatisch analysiert und relevante Publikationen auswählen kann. Es heißt "Beta Writer" und steht als Autor über dem Buch.
  17. Moll, S.: ¬Der Urknall des Internets : 20 Jahre WWW (2011) 0.03
    0.0319735 = product of:
      0.095920496 = sum of:
        0.095920496 = weight(_text_:3.0 in 3720) [ClassicSimilarity], result of:
          0.095920496 = score(doc=3720,freq=2.0), product of:
            0.3385214 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.04619914 = queryNorm
            0.28335136 = fieldWeight in 3720, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3720)
      0.33333334 = coord(1/3)
    
    Content
    Lee hätte mit der Idee vermutlich Milliarden verdienen können. Doch das widersprach von Anfang an seiner Philosophie des Internets. Für Lee war das Internet stets Mittel zur Demokratisierung von Information und zur Beschleunigung des Fortschritts. Der Erfinder des Netzes war auch der erste Open Source-Radikale: Jede Form der Zugangsbeschränkung, ob zu kommerziellen oder zu irgendwelchen anderen Zwecken, lehnte er strikt ab. Heute arbeitet Lee an der Bostoner Eliteuniversität MIT daran, die Protokolle von Netscape und Microsoft zu standardisieren, damit Patentstreitigkeiten den Fortschritt ins Web 3.0 nicht aufhalten. Nebenbei berät er die britische Regierung dabei, Regierungsdaten zu veröffentlichen, um ein öffentliches Mitwirken an der Lösung von Verwaltungsproblemen zu ermöglichen. Das Freisetzen von Daten, davon ist Lee überzeugt, wird von ganz alleine das Gemeinwohl voranbringen. Das Netz ist für ihn ein reiner Segen der Menschheit. "Innovation ist Zufall. Man weiß nie, was Leute mit Informationen machen", sagte er jüngst. Wichtig sei alleine, dass man die Gelegenheit schafft, neue und originelle Verbindungen zu ziehen. Etwa so, wie einen Baum dorthin zu pflanzen, wo er gebraucht wird. Oder das Internet zu erfinden."
  18. Bolle, B.: Die High-Performance-Plattform New STN : eine neue Recherchedimension (2016) 0.03
    0.029124899 = product of:
      0.087374695 = sum of:
        0.087374695 = product of:
          0.17474939 = sum of:
            0.17474939 = weight(_text_:beta in 3243) [ClassicSimilarity], result of:
              0.17474939 = score(doc=3243,freq=2.0), product of:
                0.34897685 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.04619914 = queryNorm
                0.5007478 = fieldWeight in 3243, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3243)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Patentinformationen spielen im Innovationsprozess eine entscheidende Rolle. Alle innovativen Unternehmen müssen, um ihr Investitionsrisiko zu minimieren und abzusichern, verlässliche Informationen zum Stand der Technik zu den Wettbewerbern und dem Marktumfeld recherchieren. Informations- Services im Patentbereich müssen daher höchsten Ansprüchen bei der Präzision und Zielgenauigkeit der Suche, ebenso wie bei der Aktualität und Vollständigkeit der Daten gerecht werden. Mit der neuen STN-Plattform hat FIZ Karlsruhe in Kooperation mit CAS (Chemical Abstract Service) eine neue Dimension bei der Informations- und Patentrecherche geöffnet. Ein intuitives Nutzerinterface für Informationsexperten, branchenführende Performance und Workflowoptimierung sind die Markenzeichen der neuen STN-Plattform. Die neue STN-Plattform wurde 2012, zunächst in einer Beta-Version, erstmals der Öffentlichkeit vorgestellt. Seit 2013 läuft die neue Plattform als Vollversion und wird kontinuierlich erweitert. Die neue STN-Plattform soll das klassische STN in Zukunft ablösen. Zurzeit werden beide STN Systeme parallel betrieben.
  19. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.03
    0.028535303 = product of:
      0.085605904 = sum of:
        0.085605904 = product of:
          0.2568177 = sum of:
            0.2568177 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
              0.2568177 = score(doc=5955,freq=2.0), product of:
                0.3916768 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04619914 = queryNorm
                0.65568775 = fieldWeight in 5955, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5955)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].
  20. RDA Toolkit (4) : Dezember 2017 (2017) 0.03
    0.027459217 = product of:
      0.08237765 = sum of:
        0.08237765 = product of:
          0.1647553 = sum of:
            0.1647553 = weight(_text_:beta in 4283) [ClassicSimilarity], result of:
              0.1647553 = score(doc=4283,freq=4.0), product of:
                0.34897685 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.04619914 = queryNorm
                0.47210953 = fieldWeight in 4283, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    "das RDA Steering Committee (RSC) hat eine Verlautbarung<http://www.rda-rsc.org/sites/all/files/RSC-Chair-19.pdf> zum 3R Project und dem Release des neuen RDA Toolkits am 13. Juni 2018 herausgegeben. Außerdem wurde ein neuer Post zum Projekt auf dem RDA Toolkit Blog veröffentlicht "What to Expect from the RDA Toolkit beta site"<http://www.rdatoolkit.org/3Rproject/Beta>. Die deutsche Übersetzung folgt in Kürze auf dem RDA-Info-Wiki<https://wiki.dnb.de/display/RDAINFO/RDA-Info>. Für den deutschsprachigen Raum wird das Thema im Rahmen des Deutschen Bibliothekartags in Berlin im Treffpunkt Standardisierung am Freitag, den 15. Juni aufgegriffen. Die durch das 3R Project entstandenen Anpassungsarbeiten für den DACH-Raum werden im Rahmen eines 3R-DACH-Projekts<https://wiki.dnb.de/x/v5jpBw> in den Fachgruppen des Standardisierungsausschusses durchgeführt. Für die praktische Arbeit ändert sich bis zur Durchführung von Anpassungsschulungen nichts. Basis für die Erschließung bleibt bis dahin die aktuelle Version des RDA Toolkits in deutscher Sprache." [Mail R. Behrens an Inetbib vom 11.06.2018].

Authors

Languages

  • e 475
  • d 192
  • a 1
  • hu 1
  • More… Less…

Types

  • a 583
  • el 68
  • m 46
  • s 16
  • x 12
  • r 7
  • b 5
  • n 2
  • i 1
  • z 1
  • More… Less…

Themes

Subjects

Classifications