Search (133 results, page 1 of 7)

  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.15
    0.14799415 = product of:
      0.44398242 = sum of:
        0.110995606 = product of:
          0.3329868 = sum of:
            0.3329868 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.3329868 = score(doc=1826,freq=2.0), product of:
                0.3554905 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.041930884 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.3329868 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.3329868 = score(doc=1826,freq=2.0), product of:
            0.3554905 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.041930884 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.33333334 = coord(2/6)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.07
    0.07399707 = product of:
      0.22199121 = sum of:
        0.055497803 = product of:
          0.1664934 = sum of:
            0.1664934 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.1664934 = score(doc=4388,freq=2.0), product of:
                0.3554905 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.041930884 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.1664934 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.1664934 = score(doc=4388,freq=2.0), product of:
            0.3554905 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.041930884 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.33333334 = coord(2/6)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Hafner, R.; Schelling, B.: Automatisierung der Sacherschließung mit Semantic Web Technologie (2015) 0.04
    0.040393855 = product of:
      0.12118156 = sum of:
        0.08141418 = weight(_text_:b in 8365) [ClassicSimilarity], result of:
          0.08141418 = score(doc=8365,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.54802394 = fieldWeight in 8365, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.109375 = fieldNorm(doc=8365)
        0.03976739 = product of:
          0.07953478 = sum of:
            0.07953478 = weight(_text_:22 in 8365) [ClassicSimilarity], result of:
              0.07953478 = score(doc=8365,freq=2.0), product of:
                0.1468348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041930884 = queryNorm
                0.5416616 = fieldWeight in 8365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=8365)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 6.2015 16:08:38
  4. Mitchell, J.S.; Zeng, M.L.; Zumer, M.: Modeling classification systems in multicultural and multilingual contexts (2012) 0.02
    0.019664824 = product of:
      0.058994472 = sum of:
        0.03489179 = weight(_text_:b in 1967) [ClassicSimilarity], result of:
          0.03489179 = score(doc=1967,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.23486741 = fieldWeight in 1967, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=1967)
        0.02410268 = product of:
          0.04820536 = sum of:
            0.04820536 = weight(_text_:22 in 1967) [ClassicSimilarity], result of:
              0.04820536 = score(doc=1967,freq=4.0), product of:
                0.1468348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041930884 = queryNorm
                0.32829654 = fieldWeight in 1967, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1967)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    This paper reports on the second part of an initiative of the authors on researching classification systems with the conceptual model defined by the Functional Requirements for Subject Authority Data (FRSAD) final report. In an earlier study, the authors explored whether the FRSAD conceptual model could be extended beyond subject authority data to model classification data. The focus of the current study is to determine if classification data modeled using FRSAD can be used to solve real-world discovery problems in multicultural and multilingual contexts. The paper discusses the relationships between entities (same type or different types) in the context of classification systems that involve multiple translations and /or multicultural implementations. Results of two case studies are presented in detail: (a) two instances of the DDC (DDC 22 in English, and the Swedish-English mixed translation of DDC 22), and (b) Chinese Library Classification. The use cases of conceptual models in practice are also discussed.
  5. Pfeiffer, T.; Summann, F.; Hellriegel, J.; Wolf, S.; Pietsch, C.: Virtuelle Realität zur Bereitstellung integrierter Suchumgebungen (2017) 0.02
    0.017807528 = product of:
      0.10684516 = sum of:
        0.10684516 = weight(_text_:kognitive in 4001) [ClassicSimilarity], result of:
          0.10684516 = score(doc=4001,freq=2.0), product of:
            0.28477833 = queryWeight, product of:
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.041930884 = queryNorm
            0.37518713 = fieldWeight in 4001, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4001)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Exzellenzcluster Kognitive Interaktionstechnologie (CITEC) an der Universität Bielefeld beschäftigt sich seit 2013 mit der virtuellen Realität (VR). Ausgehend von konkreten Projektkooperationen (Publikations- und Forschungsdatenmanagement) mit der Universitätsbibliothek ist die Idee entstanden, mit der in 2016 neu angebotenen Konsumer-VR-Hardware die im Labor entwickelten Interaktionstechniken auf geeignete Szenarien im Bereich von bibliothekarischen Umgebungen anzuwenden. Als interessantes Anwendungsgebiet kristallisierte sich im gemeinsamen Diskurs die Literatursuche heraus: Als Suchsystem wurde die Bielefelder BASE-Datenbank (d.i. Bielefeld Academic Search Engine mit inzwischen mehr als 100 Mio. indexierten Dokumenten) ausgewählt. Diese Auswahl erfolgte vor dem Hintergrund, dass sich die von zahlreichen externen Institutionen bereits genutzte API-Schnittstelle als universell und robust erwiesen hat und umfangreiche Funktionen bereitstellt. Auf der Grundlage der umfangreichen theoretischen und praktischen Erfahrungen des CITEC mit VRTechniken wurde der Prototyp für eine virtuelle Suchumgebung realisiert, der ein Retrieval in einem Suchraum von Online-Dokumenten erlaubt. Die Nutzerinnen und Nutzer können die Suchanfrage explorativ zusammenstellen und dabei die Ergebnisse intuitiv verwalten. Unterstützt werden sie dabei durch Ergebnisanzeige, Sortierung, Optimierung des Suchergebnisses mittels Suchverfeinerung (Drilldown-basiert) oder Anfrageerweiterung und Wiederverwendung von abgelegten Ergebnissen. Gleichzeitig wird der Zugriff- und Lizenzstatus visualisiert und die Detailanzeige der Metadaten des Objektes integriert.
  6. Zanibbi, R.; Yuan, B.: Keyword and image-based retrieval for mathematical expressions (2011) 0.02
    0.017311653 = product of:
      0.051934958 = sum of:
        0.03489179 = weight(_text_:b in 3449) [ClassicSimilarity], result of:
          0.03489179 = score(doc=3449,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.23486741 = fieldWeight in 3449, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=3449)
        0.017043166 = product of:
          0.03408633 = sum of:
            0.03408633 = weight(_text_:22 in 3449) [ClassicSimilarity], result of:
              0.03408633 = score(doc=3449,freq=2.0), product of:
                0.1468348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041930884 = queryNorm
                0.23214069 = fieldWeight in 3449, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3449)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 2.2017 12:53:49
  7. Brenndorfer, T.; Eversberg, B.: RDA in 10 einfachen Schritten (zur Katalogisierung eines Buches) (2010) 0.02
    0.01644815 = product of:
      0.09868889 = sum of:
        0.09868889 = weight(_text_:b in 2428) [ClassicSimilarity], result of:
          0.09868889 = score(doc=2428,freq=4.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.6643054 = fieldWeight in 2428, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.09375 = fieldNorm(doc=2428)
      0.16666667 = coord(1/6)
    
    Issue
    Übers. u. Kommentar: B. Eversberg.
  8. Open Knowledge Foundation: Prinzipien zu offenen bibliographischen Daten (2011) 0.02
    0.016387355 = product of:
      0.04916206 = sum of:
        0.029076494 = weight(_text_:b in 4399) [ClassicSimilarity], result of:
          0.029076494 = score(doc=4399,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.19572285 = fieldWeight in 4399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4399)
        0.020085564 = product of:
          0.040171128 = sum of:
            0.040171128 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
              0.040171128 = score(doc=4399,freq=4.0), product of:
                0.1468348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041930884 = queryNorm
                0.27358043 = fieldWeight in 4399, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4399)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    "Bibliographische Daten Um den Geltungsbereich der Prinzipien festzulegen, wird in diesem ersten Teil der zugrundeliegende Begriff bibliographischer Daten erläutert. Kerndaten Bibliographische Daten bestehen aus bibliographischen Beschreibungen. Eine bibliographische Beschreibung beschreibt eine bibliographische Ressource (Artikel, Monographie etc. - ob gedruckt oder elektronisch) zum Zwecke 1. der Identifikation der beschriebenen Ressource, d.h. des Zeigens auf eine bestimmte Ressource in der Gesamtheit aller bibliographischer Ressourcen und 2. der Lokalisierung der beschriebenen Ressource, d.h. eines Hinweises, wo die beschriebene Ressource aufzufinden ist. Traditionellerweise erfüllte eine Beschreibung beide Zwecke gleichzeitig, indem sie Information lieferte über: Autor(en) und Herausgeber, Titel, Verlag, Veröffentlichungsdatum und -ort, Identifizierung des übergeordneten Werks (z.B. einer Zeitschrift), Seitenangaben. Im Web findet Identifikation statt mittels Uniform Resource Identifiers (URIs) wie z.B. URNs oder DOIs. Lokalisierung wird ermöglicht durch HTTP-URIs, die auch als Uniform Resource Locators (URLs) bezeichnet werden. Alle URIs für bibliographische Ressourcen fallen folglich unter den engen Begriff bibliographischer Daten. Sekundäre Daten Eine bibliographische Beschreibung kann andere Informationen enthalten, die unter den Begriff bibliographischer Daten fallen, beispielsweise Nicht-Web-Identifikatoren (ISBN, LCCN, OCLC etc.), Angaben zum Urheberrechtsstatus, administrative Daten und mehr; diese Daten können von Bibliotheken, Verlagen, Wissenschaftlern, Online-Communities für Buchliebhaber, sozialen Literaturverwaltungssystemen und Anderen produziert sein. Darüber hinaus produzieren Bibliotheken und verwandte Institutionen kontrollierte Vokabulare zum Zwecke der bibliographischen Beschreibung wie z. B. Personen- und Schlagwortnormdateien, Klassifikationen etc., die ebenfalls unter den Begriff bibliographischer Daten fallen."
    Date
    22. 3.2011 18:22:29
  9. Dowding, H.; Gengenbach, M.; Graham, B.; Meister, S.; Moran, J.; Peltzman, S.; Seifert, J.; Waugh, D.: OSS4EVA: using open-source tools to fulfill digital preservation requirements (2016) 0.01
    0.0144263785 = product of:
      0.043279134 = sum of:
        0.029076494 = weight(_text_:b in 3200) [ClassicSimilarity], result of:
          0.029076494 = score(doc=3200,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.19572285 = fieldWeight in 3200, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3200)
        0.014202639 = product of:
          0.028405279 = sum of:
            0.028405279 = weight(_text_:22 in 3200) [ClassicSimilarity], result of:
              0.028405279 = score(doc=3200,freq=2.0), product of:
                0.1468348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041930884 = queryNorm
                0.19345059 = fieldWeight in 3200, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3200)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    28.10.2016 18:22:33
  10. Knowledge organization literature (2012-) 0.01
    0.01356903 = product of:
      0.08141418 = sum of:
        0.08141418 = weight(_text_:b in 7285) [ClassicSimilarity], result of:
          0.08141418 = score(doc=7285,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.54802394 = fieldWeight in 7285, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.109375 = fieldNorm(doc=7285)
      0.16666667 = coord(1/6)
    
    Type
    b
  11. Beebe, N.H.F.: ¬A complete bibliography of the Journal for General Philosophy of Science / Zeitschrift für allgemeine Wissenschaftstheorie (2019) 0.01
    0.01356903 = product of:
      0.08141418 = sum of:
        0.08141418 = weight(_text_:b in 3991) [ClassicSimilarity], result of:
          0.08141418 = score(doc=3991,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.54802394 = fieldWeight in 3991, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.109375 = fieldNorm(doc=3991)
      0.16666667 = coord(1/6)
    
    Type
    b
  12. Becker, M.: Auf dem Weg zum Psychotherapie-Bot (2018) 0.01
    0.0133604035 = product of:
      0.08016242 = sum of:
        0.08016242 = product of:
          0.16032484 = sum of:
            0.16032484 = weight(_text_:psychologie in 4070) [ClassicSimilarity], result of:
              0.16032484 = score(doc=4070,freq=2.0), product of:
                0.24666919 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.041930884 = queryNorm
                0.6499589 = fieldWeight in 4070, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4070)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Field
    Psychologie
  13. Eversberg, B.: Allegro-Fortbildung 2015 (2015) 0.01
    0.0116305975 = product of:
      0.06978358 = sum of:
        0.06978358 = weight(_text_:b in 1123) [ClassicSimilarity], result of:
          0.06978358 = score(doc=1123,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.46973482 = fieldWeight in 1123, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.09375 = fieldNorm(doc=1123)
      0.16666667 = coord(1/6)
    
  14. ORCID (2015) 0.01
    0.0116305975 = product of:
      0.06978358 = sum of:
        0.06978358 = weight(_text_:b in 1870) [ClassicSimilarity], result of:
          0.06978358 = score(doc=1870,freq=8.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.46973482 = fieldWeight in 1870, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
      0.16666667 = coord(1/6)
    
    Content
    ORCID soll die elektronische Zuordnung von Publikation und Autoren ermöglichen. Dies ist notwendig, da verschiedene Autoren gleiche Namen haben können, Namen sich ändern (z. B. bei Heirat) und Namen in verschiedenen Publikationen unterschiedlich angegeben werden (z. B. einmal die ausgeschriebenen Vornamen, ein anderes Mal aber nur die Initialen). ORCID soll zum De-facto-Standard für die Autorenidentifikation wissenschaftlicher Publikationen werden. Die Etablierung wird von der Non-Profit-Organisation Open Researcher Contributor Identification Initiative organisiert. Zu den Gründungsmitgliedern der Initiative gehören zahlreiche wissenschaftliche Verlagsgruppen (z. B. Elsevier, Nature Publishing Group, Springer) und Forschungsorganisationen (z. B. EMBO, CERN). Die Planungen für ORCID wurden 2010 auf Umfragen gestützt. ORCID ging am 16. Oktober 2012 offiziell an den Start. Am Jahresende 2012 hatte ORCID 42.918 Registrierte, Jahresende 2013 waren es 460.000 Registrierte und im November 2014 hatte ORCID 1 Million Autorenidentifikationen ausgestellt. Vgl. auch den Zusammenhang mit der GND und den Erfassungsleitfaden der DNB unter: https://wiki.dnb.de/x/vYYGAw.
  15. Molor-Erdene, B.: Was denken Chinesen selbst über das Sozialkreditsystem? (2019) 0.01
    0.0116305975 = product of:
      0.06978358 = sum of:
        0.06978358 = weight(_text_:b in 3191) [ClassicSimilarity], result of:
          0.06978358 = score(doc=3191,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.46973482 = fieldWeight in 3191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.09375 = fieldNorm(doc=3191)
      0.16666667 = coord(1/6)
    
  16. Gillitzer, B.: Yewno (2017) 0.01
    0.011541101 = product of:
      0.034623303 = sum of:
        0.023261193 = weight(_text_:b in 3447) [ClassicSimilarity], result of:
          0.023261193 = score(doc=3447,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.15657827 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.011362111 = product of:
          0.022724222 = sum of:
            0.022724222 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.022724222 = score(doc=3447,freq=2.0), product of:
                0.1468348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041930884 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 2.2017 10:16:49
  17. Wiesenmüller, H.: DNB-Sacherschließung : Neues für die Reihen A und B (2019) 0.01
    0.010072393 = product of:
      0.06043436 = sum of:
        0.06043436 = weight(_text_:b in 5212) [ClassicSimilarity], result of:
          0.06043436 = score(doc=5212,freq=6.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.40680233 = fieldWeight in 5212, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=5212)
      0.16666667 = coord(1/6)
    
    Abstract
    "Alle paar Jahre wird die Bibliothekscommunity mit Veränderungen in der inhaltlichen Erschließung durch die Deutsche Nationalbibliothek konfrontiert. Sicher werden sich viele noch an die Einschnitte des Jahres 2014 für die Reihe A erinnern: Seither werden u.a. Ratgeber, Sprachwörterbücher, Reiseführer und Kochbücher nicht mehr mit Schlagwörtern erschlossen (vgl. das DNB-Konzept von 2014). Das Jahr 2017 brachte die Einführung der maschinellen Indexierung für die Reihen B und H bei gleichzeitigem Verlust der DDC-Tiefenerschließung (vgl. DNB-Informationen von 2017). Virulent war seither die Frage, was mit der Reihe A passieren würde. Seit wenigen Tagen kann man dies nun auf der Website der DNB nachlesen. (Nebenbei: Es ist zu befürchten, dass viele Links in diesem Blog-Beitrag in absehbarer Zeit nicht mehr funktionieren werden, da ein Relaunch der DNB-Website angekündigt ist. Wie beim letzten Mal wird es vermutlich auch diesmal keine Weiterleitungen von den alten auf die neuen URLs geben.)"
    Source
    https://www.basiswissen-rda.de/dnb-sacherschliessung-reihen-a-und-b/
  18. Sprachtechnologie : ein Überblick (2012) 0.01
    0.009692165 = product of:
      0.05815299 = sum of:
        0.05815299 = weight(_text_:b in 1750) [ClassicSimilarity], result of:
          0.05815299 = score(doc=1750,freq=8.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.3914457 = fieldWeight in 1750, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
      0.16666667 = coord(1/6)
    
    Abstract
    Seit mehr als einem halben Jahrhundert existieren ernsthafte und ernst zu nehmende Versuche, menschliche Sprache maschinell zu verarbeiten. Maschinelle Übersetzung oder "natürliche" Dialoge mit Computern gehören zu den ersten Ideen, die den Bereich der späteren Computerlinguistik oder Sprachtechnologie abgesteckt und deren Vorhaben geleitet haben. Heute ist dieser auch maschinelle Sprachverarbeitung (natural language processing, NLP) genannte Bereich stark ausdiversifiziert: Durch die rapide Entwicklung der Informatik ist vieles vorher Unvorstellbare Realität (z. B. automatische Telefonauskunft), einiges früher Unmögliche immerhin möglich geworden (z. B. Handhelds mit Sprachein- und -ausgabe als digitale persönliche (Informations-)Assistenten). Es gibt verschiedene Anwendungen der Computerlinguistik, von denen einige den Sprung in die kommerzielle Nutzung geschafft haben (z. B. Diktiersysteme, Textklassifikation, maschinelle Übersetzung). Immer noch wird an natürlichsprachlichen Systemen (natural language systems, NLS) verschiedenster Funktionalität (z. B. zur Beantwortung beliebiger Fragen oder zur Generierung komplexer Texte) intensiv geforscht, auch wenn die hoch gesteckten Ziele von einst längst nicht erreicht sind (und deshalb entsprechend "heruntergefahren" wurden). Wo die maschinelle Sprachverarbeitung heute steht, ist allerdings angesichts der vielfältigen Aktivitäten in der Computerlinguistik und Sprachtechnologie weder offensichtlich noch leicht in Erfahrung zu bringen (für Studierende des Fachs und erst recht für Laien). Ein Ziel dieses Buches ist, es, die aktuelle Literaturlage in dieser Hinsicht zu verbessern, indem spezifisch systembezogene Aspekte der Computerlinguistik als Überblick über die Sprachtechnologie zusammengetragen werden.
  19. Aytac, S.; Slutsky, B.: Published librarian research, 2008 through 2012 : analyses and perspectives (2014) 0.01
    0.009692165 = product of:
      0.05815299 = sum of:
        0.05815299 = weight(_text_:b in 2507) [ClassicSimilarity], result of:
          0.05815299 = score(doc=2507,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.3914457 = fieldWeight in 2507, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.078125 = fieldNorm(doc=2507)
      0.16666667 = coord(1/6)
    
  20. Mayr, P.; Zapilko, B.; Sure, Y.: ¬Ein Mehr-Thesauri-Szenario auf Basis von SKOS und Crosskonkordanzen (2010) 0.01
    0.008224075 = product of:
      0.049344447 = sum of:
        0.049344447 = weight(_text_:b in 3392) [ClassicSimilarity], result of:
          0.049344447 = score(doc=3392,freq=4.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.3321527 = fieldWeight in 3392, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
      0.16666667 = coord(1/6)
    
    Abstract
    Im August 2009 wurde SKOS "Simple Knowledge Organization System" als neuer Standard für web-basierte kontrollierte Vokabulare durch das W3C veröffentlicht1. SKOS dient als Datenmodell, um kontrollierte Vokabulare über das Web anzubieten sowie technisch und semantisch interoperabel zu machen. Perspektivisch kann die heterogene Landschaft der Erschließungsvokabulare über SKOS vereinheitlicht und vor allem die Inhalte der klassischen Datenbanken (Bereich Fachinformation) für Anwendungen des Semantic Web, beispielsweise als Linked Open Data2 (LOD), zugänglich und stär-ker miteinander vernetzt werden. Vokabulare im SKOS-Format können dabei eine relevante Funktion einnehmen, indem sie als standardisiertes Brückenvokabular dienen und semantische Verlinkung zwischen erschlossenen, veröffentlichten Daten herstellen. Die folgende Fallstudie skizziert ein Szenario mit drei thematisch verwandten Thesauri, die ins SKOS-Format übertragen und inhaltlich über Crosskonkordanzen aus dem Projekt KoMoHe verbunden werden. Die Mapping Properties von SKOS bieten dazu standardisierte Relationen, die denen der Crosskonkordanzen entsprechen. Die beteiligten Thesauri der Fallstudie sind a) TheSoz (Thesaurus Sozialwissenschaften, GESIS), b) STW (Standard-Thesaurus Wirtschaft, ZBW) und c) IBLK-Thesaurus (SWP).

Languages

  • d 83
  • e 49
  • a 1
  • More… Less…

Types

  • a 88
  • m 4
  • b 2
  • r 2
  • s 2
  • i 1
  • p 1
  • x 1
  • More… Less…