Search (2756 results, page 1 of 138)

  • × year_i:[2010 TO 2020}
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.11
    0.11342943 = sum of:
      0.1063111 = product of:
        0.4252444 = sum of:
          0.4252444 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
            0.4252444 = score(doc=973,freq=2.0), product of:
              0.37831917 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.044623576 = queryNorm
              1.1240361 = fieldWeight in 973, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.09375 = fieldNorm(doc=973)
        0.25 = coord(1/4)
      0.007118329 = product of:
        0.021354986 = sum of:
          0.021354986 = weight(_text_:d in 973) [ClassicSimilarity], result of:
            0.021354986 = score(doc=973,freq=2.0), product of:
              0.084779084 = queryWeight, product of:
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.044623576 = queryNorm
              0.2518898 = fieldWeight in 973, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.09375 = fieldNorm(doc=973)
        0.33333334 = coord(1/3)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
    Language
    d
  2. (2013 ff.) 0.11
    0.10715015 = product of:
      0.2143003 = sum of:
        0.2143003 = product of:
          0.32145044 = sum of:
            0.22471638 = weight(_text_:z in 2851) [ClassicSimilarity], result of:
              0.22471638 = score(doc=2851,freq=2.0), product of:
                0.23817 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.044623576 = queryNorm
                0.94351256 = fieldWeight in 2851, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.125 = fieldNorm(doc=2851)
            0.096734054 = weight(_text_:22 in 2851) [ClassicSimilarity], result of:
              0.096734054 = score(doc=2851,freq=2.0), product of:
                0.15626416 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044623576 = queryNorm
                0.61904186 = fieldWeight in 2851, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=2851)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Date
    20. 1.2015 18:30:22
    Type
    z
  3. Lenzen, M.: Künstliche Intelligenz : was sie kann & was uns erwartet (2018) 0.07
    0.069219425 = product of:
      0.13843885 = sum of:
        0.13843885 = sum of:
          0.008897911 = weight(_text_:d in 4295) [ClassicSimilarity], result of:
            0.008897911 = score(doc=4295,freq=2.0), product of:
              0.084779084 = queryWeight, product of:
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.044623576 = queryNorm
              0.104954086 = fieldWeight in 4295, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4295)
          0.09931155 = weight(_text_:z in 4295) [ClassicSimilarity], result of:
            0.09931155 = score(doc=4295,freq=4.0), product of:
              0.23817 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.044623576 = queryNorm
              0.41697758 = fieldWeight in 4295, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4295)
          0.030229392 = weight(_text_:22 in 4295) [ClassicSimilarity], result of:
            0.030229392 = score(doc=4295,freq=2.0), product of:
              0.15626416 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044623576 = queryNorm
              0.19345059 = fieldWeight in 4295, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4295)
      0.5 = coord(1/2)
    
    Classification
    Z 010
    Date
    18. 6.2018 19:22:02
    KAB
    Z 010
    Language
    d
  4. Huang, M.-H.; Huang, W.-T.; Chang, C.-C.; Chen, D. Z.; Lin, C.-P.: The greater scattering phenomenon beyond Bradford's law in patent citation (2014) 0.07
    0.067822084 = product of:
      0.13564417 = sum of:
        0.13564417 = sum of:
          0.015100257 = weight(_text_:d in 1352) [ClassicSimilarity], result of:
            0.015100257 = score(doc=1352,freq=4.0), product of:
              0.084779084 = queryWeight, product of:
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.044623576 = queryNorm
              0.178113 = fieldWeight in 1352, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.046875 = fieldNorm(doc=1352)
          0.084268644 = weight(_text_:z in 1352) [ClassicSimilarity], result of:
            0.084268644 = score(doc=1352,freq=2.0), product of:
              0.23817 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.044623576 = queryNorm
              0.35381722 = fieldWeight in 1352, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=1352)
          0.036275268 = weight(_text_:22 in 1352) [ClassicSimilarity], result of:
            0.036275268 = score(doc=1352,freq=2.0), product of:
              0.15626416 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044623576 = queryNorm
              0.23214069 = fieldWeight in 1352, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1352)
      0.5 = coord(1/2)
    
    Abstract
    Patent analysis has become important for management as it offers timely and valuable information to evaluate R&D performance and identify the prospects of patents. This study explores the scattering patterns of patent impact based on citations in 3 distinct technological areas, the liquid crystal, semiconductor, and drug technological areas, to identify the core patents in each area. The research follows the approach from Bradford's law, which equally divides total citations into 3 zones. While the result suggests that the scattering of patent citations corresponded with features of Bradford's law, the proportion of patents in the 3 zones did not match the proportion as proposed by the law. As a result, the study shows that the distributions of citations in all 3 areas were more concentrated than what Bradford's law proposed. The Groos (1967) droop was also presented by the scattering of patent citations, and the growth rate of cumulative citation decreased in the third zone.
    Date
    22. 8.2014 17:11:29
  5. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.07
    0.06616717 = sum of:
      0.06201481 = product of:
        0.24805924 = sum of:
          0.24805924 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
            0.24805924 = score(doc=5955,freq=2.0), product of:
              0.37831917 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.044623576 = queryNorm
              0.65568775 = fieldWeight in 5955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5955)
        0.25 = coord(1/4)
      0.0041523585 = product of:
        0.0124570755 = sum of:
          0.0124570755 = weight(_text_:d in 5955) [ClassicSimilarity], result of:
            0.0124570755 = score(doc=5955,freq=2.0), product of:
              0.084779084 = queryWeight, product of:
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.044623576 = queryNorm
              0.14693572 = fieldWeight in 5955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5955)
        0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].
    Language
    d
  6. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.07
    0.06561071 = product of:
      0.13122141 = sum of:
        0.13122141 = sum of:
          0.010677493 = weight(_text_:d in 4408) [ClassicSimilarity], result of:
            0.010677493 = score(doc=4408,freq=2.0), product of:
              0.084779084 = queryWeight, product of:
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.044623576 = queryNorm
              0.1259449 = fieldWeight in 4408, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.046875 = fieldNorm(doc=4408)
          0.084268644 = weight(_text_:z in 4408) [ClassicSimilarity], result of:
            0.084268644 = score(doc=4408,freq=2.0), product of:
              0.23817 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.044623576 = queryNorm
              0.35381722 = fieldWeight in 4408, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=4408)
          0.036275268 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
            0.036275268 = score(doc=4408,freq=2.0), product of:
              0.15626416 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044623576 = queryNorm
              0.23214069 = fieldWeight in 4408, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4408)
      0.5 = coord(1/2)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Language
    d
    Pages
    22 S
  7. Engerer, V.: Metapher und Wissenstransfers im informationsbezogenen Diskurs (2013) 0.07
    0.06561071 = product of:
      0.13122141 = sum of:
        0.13122141 = sum of:
          0.010677493 = weight(_text_:d in 659) [ClassicSimilarity], result of:
            0.010677493 = score(doc=659,freq=2.0), product of:
              0.084779084 = queryWeight, product of:
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.044623576 = queryNorm
              0.1259449 = fieldWeight in 659, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.046875 = fieldNorm(doc=659)
          0.084268644 = weight(_text_:z in 659) [ClassicSimilarity], result of:
            0.084268644 = score(doc=659,freq=2.0), product of:
              0.23817 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.044623576 = queryNorm
              0.35381722 = fieldWeight in 659, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=659)
          0.036275268 = weight(_text_:22 in 659) [ClassicSimilarity], result of:
            0.036275268 = score(doc=659,freq=2.0), product of:
              0.15626416 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044623576 = queryNorm
              0.23214069 = fieldWeight in 659, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=659)
      0.5 = coord(1/2)
    
    Abstract
    Der vorliegende Beitrag1 ist ein Versuch, Eigenschaften von Schöns generativer Metapher auf das "statische" Resultat als Fachterminologie, entstanden durch Übertragung eines wissenschaftlichen Bereiches in einen anderen, anzuwenden. Metapher gilt in diesem Bereich als wissenstransferierendes Verfahren der Übertragung von Konzepten einer Disziplin auf eine andere. Weiterhin wird Metapher als Teil des sprachlichen Jargons in der informationswissenschaftlichen und bibliothekarischen Praxis thematisiert. Ein kurzer Durchgang des dänischen bibliotheksmetaphorischen Wortschatzes zeigt u. a., dass in dieser Domäne ein "ontologisches Erfahrungsgefälle" von abstrakt-konkret wirksam ist, da viele bibliothekstechnische, computer-interaktionsbezogene und informationswissenschaftliche Begriffe mit Hilfe konkreterer Konzepte aus besser verstandenen Domänen, z. B. dem Bereich der Nahrungsaufnahme, erklärt werden. Allerdings scheint auch hier der Anteil "entmetaphorisierter", ehemals metaphorischer Ausdrücke hoch zu sein, wie es bei "abgeschliffenen" Ausdrücken auch in der Gemeinsprache der Fall ist. Die Analyse wird abgerundet mit einem Ausblick auf ein Forschungsgebiet, das in dezidierter Weise von der konzeptuellen Ergiebigkeit des Metaphernbegriffs in der Untersuchung der terminologischen Wissenschaftsbeziehungen Gebrauch macht
    Date
    22. 3.2013 14:06:49
    Language
    d
  8. Luca, E.W. de; Dahlberg, I.: ¬Die Multilingual Lexical Linked Data Cloud : eine mögliche Zugangsoptimierung? (2014) 0.07
    0.06561071 = product of:
      0.13122141 = sum of:
        0.13122141 = sum of:
          0.010677493 = weight(_text_:d in 1736) [ClassicSimilarity], result of:
            0.010677493 = score(doc=1736,freq=2.0), product of:
              0.084779084 = queryWeight, product of:
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.044623576 = queryNorm
              0.1259449 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
          0.084268644 = weight(_text_:z in 1736) [ClassicSimilarity], result of:
            0.084268644 = score(doc=1736,freq=2.0), product of:
              0.23817 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.044623576 = queryNorm
              0.35381722 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
          0.036275268 = weight(_text_:22 in 1736) [ClassicSimilarity], result of:
            0.036275268 = score(doc=1736,freq=2.0), product of:
              0.15626416 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044623576 = queryNorm
              0.23214069 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
      0.5 = coord(1/2)
    
    Abstract
    Sehr viele Informationen sind bereits im Web verfügbar oder können aus isolierten strukturierten Datenspeichern wie Informationssystemen und sozialen Netzwerken gewonnen werden. Datenintegration durch Nachbearbeitung oder durch Suchmechanismen (z. B. D2R) ist deshalb wichtig, um Informationen allgemein verwendbar zu machen. Semantische Technologien ermöglichen die Verwendung definierter Verbindungen (typisierter Links), durch die ihre Beziehungen zueinander festgehalten werden, was Vorteile für jede Anwendung bietet, die das in Daten enthaltene Wissen wieder verwenden kann. Um ­eine semantische Daten-Landkarte herzustellen, benötigen wir Wissen über die einzelnen Daten und ihre Beziehung zu anderen Daten. Dieser Beitrag stellt unsere Arbeit zur Benutzung von Lexical Linked Data (LLD) durch ein Meta-Modell vor, das alle Ressourcen enthält und zudem die Möglichkeit bietet sie unter unterschiedlichen Gesichtspunkten aufzufinden. Wir verbinden damit bestehende Arbeiten über Wissensgebiete (basierend auf der Information Coding Classification) mit der Multilingual Lexical Linked Data Cloud (basierend auf der RDF/OWL-Repräsentation von EuroWordNet und den ähnlichen integrierten lexikalischen Ressourcen MultiWordNet, MEMODATA und die Hamburg Metapher DB).
    Date
    22. 9.2014 19:00:13
    Language
    d
  9. Open Knowledge Foundation: Prinzipien zu offenen bibliographischen Daten (2011) 0.06
    0.060936294 = product of:
      0.12187259 = sum of:
        0.12187259 = sum of:
          0.008897911 = weight(_text_:d in 4399) [ClassicSimilarity], result of:
            0.008897911 = score(doc=4399,freq=2.0), product of:
              0.084779084 = queryWeight, product of:
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.044623576 = queryNorm
              0.104954086 = fieldWeight in 4399, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4399)
          0.07022387 = weight(_text_:z in 4399) [ClassicSimilarity], result of:
            0.07022387 = score(doc=4399,freq=2.0), product of:
              0.23817 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.044623576 = queryNorm
              0.29484767 = fieldWeight in 4399, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4399)
          0.042750817 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
            0.042750817 = score(doc=4399,freq=4.0), product of:
              0.15626416 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044623576 = queryNorm
              0.27358043 = fieldWeight in 4399, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4399)
      0.5 = coord(1/2)
    
    Content
    "Bibliographische Daten Um den Geltungsbereich der Prinzipien festzulegen, wird in diesem ersten Teil der zugrundeliegende Begriff bibliographischer Daten erläutert. Kerndaten Bibliographische Daten bestehen aus bibliographischen Beschreibungen. Eine bibliographische Beschreibung beschreibt eine bibliographische Ressource (Artikel, Monographie etc. - ob gedruckt oder elektronisch) zum Zwecke 1. der Identifikation der beschriebenen Ressource, d.h. des Zeigens auf eine bestimmte Ressource in der Gesamtheit aller bibliographischer Ressourcen und 2. der Lokalisierung der beschriebenen Ressource, d.h. eines Hinweises, wo die beschriebene Ressource aufzufinden ist. Traditionellerweise erfüllte eine Beschreibung beide Zwecke gleichzeitig, indem sie Information lieferte über: Autor(en) und Herausgeber, Titel, Verlag, Veröffentlichungsdatum und -ort, Identifizierung des übergeordneten Werks (z.B. einer Zeitschrift), Seitenangaben. Im Web findet Identifikation statt mittels Uniform Resource Identifiers (URIs) wie z.B. URNs oder DOIs. Lokalisierung wird ermöglicht durch HTTP-URIs, die auch als Uniform Resource Locators (URLs) bezeichnet werden. Alle URIs für bibliographische Ressourcen fallen folglich unter den engen Begriff bibliographischer Daten. Sekundäre Daten Eine bibliographische Beschreibung kann andere Informationen enthalten, die unter den Begriff bibliographischer Daten fallen, beispielsweise Nicht-Web-Identifikatoren (ISBN, LCCN, OCLC etc.), Angaben zum Urheberrechtsstatus, administrative Daten und mehr; diese Daten können von Bibliotheken, Verlagen, Wissenschaftlern, Online-Communities für Buchliebhaber, sozialen Literaturverwaltungssystemen und Anderen produziert sein. Darüber hinaus produzieren Bibliotheken und verwandte Institutionen kontrollierte Vokabulare zum Zwecke der bibliographischen Beschreibung wie z. B. Personen- und Schlagwortnormdateien, Klassifikationen etc., die ebenfalls unter den Begriff bibliographischer Daten fallen."
    Date
    22. 3.2011 18:22:29
    Language
    d
  10. ORCID (2015) 0.06
    0.05973826 = product of:
      0.11947652 = sum of:
        0.11947652 = product of:
          0.17921478 = sum of:
            0.010677493 = weight(_text_:d in 1870) [ClassicSimilarity], result of:
              0.010677493 = score(doc=1870,freq=2.0), product of:
                0.084779084 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.044623576 = queryNorm
                0.1259449 = fieldWeight in 1870, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1870)
            0.16853729 = weight(_text_:z in 1870) [ClassicSimilarity], result of:
              0.16853729 = score(doc=1870,freq=8.0), product of:
                0.23817 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.044623576 = queryNorm
                0.70763445 = fieldWeight in 1870, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1870)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Content
    ORCID soll die elektronische Zuordnung von Publikation und Autoren ermöglichen. Dies ist notwendig, da verschiedene Autoren gleiche Namen haben können, Namen sich ändern (z. B. bei Heirat) und Namen in verschiedenen Publikationen unterschiedlich angegeben werden (z. B. einmal die ausgeschriebenen Vornamen, ein anderes Mal aber nur die Initialen). ORCID soll zum De-facto-Standard für die Autorenidentifikation wissenschaftlicher Publikationen werden. Die Etablierung wird von der Non-Profit-Organisation Open Researcher Contributor Identification Initiative organisiert. Zu den Gründungsmitgliedern der Initiative gehören zahlreiche wissenschaftliche Verlagsgruppen (z. B. Elsevier, Nature Publishing Group, Springer) und Forschungsorganisationen (z. B. EMBO, CERN). Die Planungen für ORCID wurden 2010 auf Umfragen gestützt. ORCID ging am 16. Oktober 2012 offiziell an den Start. Am Jahresende 2012 hatte ORCID 42.918 Registrierte, Jahresende 2013 waren es 460.000 Registrierte und im November 2014 hatte ORCID 1 Million Autorenidentifikationen ausgestellt. Vgl. auch den Zusammenhang mit der GND und den Erfassungsleitfaden der DNB unter: https://wiki.dnb.de/x/vYYGAw.
    Language
    d
  11. Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019) 0.06
    0.056714714 = sum of:
      0.05315555 = product of:
        0.2126222 = sum of:
          0.2126222 = weight(_text_:3a in 484) [ClassicSimilarity], result of:
            0.2126222 = score(doc=484,freq=2.0), product of:
              0.37831917 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.044623576 = queryNorm
              0.56201804 = fieldWeight in 484, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.046875 = fieldNorm(doc=484)
        0.25 = coord(1/4)
      0.0035591645 = product of:
        0.010677493 = sum of:
          0.010677493 = weight(_text_:d in 484) [ClassicSimilarity], result of:
            0.010677493 = score(doc=484,freq=2.0), product of:
              0.084779084 = queryWeight, product of:
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.044623576 = queryNorm
              0.1259449 = fieldWeight in 484, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.046875 = fieldNorm(doc=484)
        0.33333334 = coord(1/3)
    
    Footnote
    https%3A%2F%2Fjournals.univie.ac.at%2Findex.php%2Fvoebm%2Farticle%2Fdownload%2F5332%2F5271%2F&usg=AOvVaw2yQdFGHlmOwVls7ANCpTii.
    Language
    d
  12. Jiang, Z.; Gu, Q.; Yin, Y.; Wang, J.; Chen, D.: GRAW+ : a two-view graph propagation method with word coupling for readability assessment (2019) 0.05
    0.054675583 = product of:
      0.109351166 = sum of:
        0.109351166 = sum of:
          0.008897911 = weight(_text_:d in 5218) [ClassicSimilarity], result of:
            0.008897911 = score(doc=5218,freq=2.0), product of:
              0.084779084 = queryWeight, product of:
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.044623576 = queryNorm
              0.104954086 = fieldWeight in 5218, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5218)
          0.07022387 = weight(_text_:z in 5218) [ClassicSimilarity], result of:
            0.07022387 = score(doc=5218,freq=2.0), product of:
              0.23817 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.044623576 = queryNorm
              0.29484767 = fieldWeight in 5218, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5218)
          0.030229392 = weight(_text_:22 in 5218) [ClassicSimilarity], result of:
            0.030229392 = score(doc=5218,freq=2.0), product of:
              0.15626416 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044623576 = queryNorm
              0.19345059 = fieldWeight in 5218, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5218)
      0.5 = coord(1/2)
    
    Date
    15. 4.2019 13:46:22
  13. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.05
    0.050497748 = product of:
      0.100995496 = sum of:
        0.100995496 = product of:
          0.15149324 = sum of:
            0.0124570755 = weight(_text_:d in 4782) [ClassicSimilarity], result of:
              0.0124570755 = score(doc=4782,freq=2.0), product of:
                0.084779084 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.044623576 = queryNorm
                0.14693572 = fieldWeight in 4782, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4782)
            0.13903616 = weight(_text_:z in 4782) [ClassicSimilarity], result of:
              0.13903616 = score(doc=4782,freq=4.0), product of:
                0.23817 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.044623576 = queryNorm
                0.5837686 = fieldWeight in 4782, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4782)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
    Language
    d
  14. Sprachtechnologie : ein Überblick (2012) 0.05
    0.049781885 = product of:
      0.09956377 = sum of:
        0.09956377 = product of:
          0.14934565 = sum of:
            0.008897911 = weight(_text_:d in 1750) [ClassicSimilarity], result of:
              0.008897911 = score(doc=1750,freq=2.0), product of:
                0.084779084 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.044623576 = queryNorm
                0.104954086 = fieldWeight in 1750, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1750)
            0.14044774 = weight(_text_:z in 1750) [ClassicSimilarity], result of:
              0.14044774 = score(doc=1750,freq=8.0), product of:
                0.23817 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.044623576 = queryNorm
                0.58969533 = fieldWeight in 1750, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1750)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Seit mehr als einem halben Jahrhundert existieren ernsthafte und ernst zu nehmende Versuche, menschliche Sprache maschinell zu verarbeiten. Maschinelle Übersetzung oder "natürliche" Dialoge mit Computern gehören zu den ersten Ideen, die den Bereich der späteren Computerlinguistik oder Sprachtechnologie abgesteckt und deren Vorhaben geleitet haben. Heute ist dieser auch maschinelle Sprachverarbeitung (natural language processing, NLP) genannte Bereich stark ausdiversifiziert: Durch die rapide Entwicklung der Informatik ist vieles vorher Unvorstellbare Realität (z. B. automatische Telefonauskunft), einiges früher Unmögliche immerhin möglich geworden (z. B. Handhelds mit Sprachein- und -ausgabe als digitale persönliche (Informations-)Assistenten). Es gibt verschiedene Anwendungen der Computerlinguistik, von denen einige den Sprung in die kommerzielle Nutzung geschafft haben (z. B. Diktiersysteme, Textklassifikation, maschinelle Übersetzung). Immer noch wird an natürlichsprachlichen Systemen (natural language systems, NLS) verschiedenster Funktionalität (z. B. zur Beantwortung beliebiger Fragen oder zur Generierung komplexer Texte) intensiv geforscht, auch wenn die hoch gesteckten Ziele von einst längst nicht erreicht sind (und deshalb entsprechend "heruntergefahren" wurden). Wo die maschinelle Sprachverarbeitung heute steht, ist allerdings angesichts der vielfältigen Aktivitäten in der Computerlinguistik und Sprachtechnologie weder offensichtlich noch leicht in Erfahrung zu bringen (für Studierende des Fachs und erst recht für Laien). Ein Ziel dieses Buches ist, es, die aktuelle Literaturlage in dieser Hinsicht zu verbessern, indem spezifisch systembezogene Aspekte der Computerlinguistik als Überblick über die Sprachtechnologie zusammengetragen werden.
    Language
    d
  15. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.05
    0.047262266 = sum of:
      0.044296294 = product of:
        0.17718518 = sum of:
          0.17718518 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
            0.17718518 = score(doc=4388,freq=2.0), product of:
              0.37831917 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.044623576 = queryNorm
              0.46834838 = fieldWeight in 4388, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4388)
        0.25 = coord(1/4)
      0.0029659704 = product of:
        0.008897911 = sum of:
          0.008897911 = weight(_text_:d in 4388) [ClassicSimilarity], result of:
            0.008897911 = score(doc=4388,freq=2.0), product of:
              0.084779084 = queryWeight, product of:
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.044623576 = queryNorm
              0.104954086 = fieldWeight in 4388, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.899872 = idf(docFreq=17979, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4388)
        0.33333334 = coord(1/3)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
    Language
    d
  16. Hahn, M.; Neumann, J.; Razum, M.: RADAR - Ein Forschungsdaten-Repositorium als Dienstleistung für die Wissenschaft (2014) 0.04
    0.044758044 = product of:
      0.08951609 = sum of:
        0.08951609 = product of:
          0.13427413 = sum of:
            0.015100257 = weight(_text_:d in 2545) [ClassicSimilarity], result of:
              0.015100257 = score(doc=2545,freq=4.0), product of:
                0.084779084 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.044623576 = queryNorm
                0.178113 = fieldWeight in 2545, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2545)
            0.11917387 = weight(_text_:z in 2545) [ClassicSimilarity], result of:
              0.11917387 = score(doc=2545,freq=4.0), product of:
                0.23817 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.044623576 = queryNorm
                0.5003731 = fieldWeight in 2545, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2545)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Die Nachvollziehbarkeit und Reproduzierbarkeit wissenschaftlicher Erkenntnisse basieren zunehmend auf digitalen Daten. Deren Publikation, Verfügbarkeit und Nachnutzung muss im Rahmen guter wissenschaftlicher Praxis gewährleistet werden. Das Projekt RADAR geht diese Herausforderung durch die Etablierung einer generischen Infrastruktur für die Archivierung und Publikation von Forschungsdaten an. Es richtet sich an Wissenschaftler (z. B. in Projekten) und Institutionen (z. B. Bibliotheken) mit einem zweistufigen Ansatz: ein disziplinübergreifendes Einstiegsangebot zur formatunabhängigen Datenarchivierung mit minimalem Metadatensatz und ein höherwertiges Angebot mit integrierter Datenpublikation. Thematisch legt RADAR den Schwerpunkt auf die »small sciences«, in denen Forschungsdateninfrastrukturen meist noch fehlen. RADAR erlaubt eine temporäre oder - im Falle einer Datenpublikation - zeitlich unbegrenzte Datenarchivierung. Das angestrebte Geschäftsmodell zielt auf einen sich selbst tragenden Betrieb mit einer Kombination aus Einmalzahlungen und institutionellen Angeboten ab. RADAR ist als ein Baustein der internationalen Informationsinfrastruktur geplant, der sich über Schnittstellen auch in Dienste Dritter integrieren lässt.
    Language
    d
    Location
    D
  17. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.04
    0.044296294 = product of:
      0.08859259 = sum of:
        0.08859259 = product of:
          0.35437036 = sum of:
            0.35437036 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.35437036 = score(doc=1826,freq=2.0), product of:
                0.37831917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.044623576 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.25 = coord(1/4)
      0.5 = coord(1/2)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  18. Xie, Z.; Ouyang, Z.; Li, J.; Dong, E.: Modelling transition phenomena of scientific coauthorship networks (2018) 0.04
    0.043283787 = product of:
      0.08656757 = sum of:
        0.08656757 = product of:
          0.12985136 = sum of:
            0.010677493 = weight(_text_:d in 4043) [ClassicSimilarity], result of:
              0.010677493 = score(doc=4043,freq=2.0), product of:
                0.084779084 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.044623576 = queryNorm
                0.1259449 = fieldWeight in 4043, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4043)
            0.11917387 = weight(_text_:z in 4043) [ClassicSimilarity], result of:
              0.11917387 = score(doc=4043,freq=4.0), product of:
                0.23817 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.044623576 = queryNorm
                0.5003731 = fieldWeight in 4043, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4043)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Editor
    Yi, D.
  19. He, Z.; Lei, Z.; Wang, D.: Modeling citation dynamics of "atypical" articles (2018) 0.04
    0.043283787 = product of:
      0.08656757 = sum of:
        0.08656757 = product of:
          0.12985136 = sum of:
            0.010677493 = weight(_text_:d in 4365) [ClassicSimilarity], result of:
              0.010677493 = score(doc=4365,freq=2.0), product of:
                0.084779084 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.044623576 = queryNorm
                0.1259449 = fieldWeight in 4365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4365)
            0.11917387 = weight(_text_:z in 4365) [ClassicSimilarity], result of:
              0.11917387 = score(doc=4365,freq=4.0), product of:
                0.23817 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.044623576 = queryNorm
                0.5003731 = fieldWeight in 4365, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4365)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
  20. Zweig, K.A.: ¬Ein Algorithmus hat kein Taktgefühl : wo Künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können (2019) 0.04
    0.043283787 = product of:
      0.08656757 = sum of:
        0.08656757 = product of:
          0.12985136 = sum of:
            0.010677493 = weight(_text_:d in 5430) [ClassicSimilarity], result of:
              0.010677493 = score(doc=5430,freq=2.0), product of:
                0.084779084 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.044623576 = queryNorm
                0.1259449 = fieldWeight in 5430, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5430)
            0.11917387 = weight(_text_:z in 5430) [ClassicSimilarity], result of:
              0.11917387 = score(doc=5430,freq=4.0), product of:
                0.23817 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.044623576 = queryNorm
                0.5003731 = fieldWeight in 5430, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5430)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Classification
    Z 010
    KAB
    Z 010
    Language
    d

Languages

  • d 1744
  • e 1000
  • a 1
  • hu 1
  • More… Less…

Types

  • a 2230
  • el 482
  • m 282
  • x 78
  • s 72
  • r 27
  • n 8
  • b 7
  • i 2
  • p 2
  • l 1
  • v 1
  • z 1
  • More… Less…

Themes

Subjects

Classifications