Search (2349 results, page 1 of 118)

  • × year_i:[2010 TO 2020}
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.06
    0.064552516 = product of:
      0.3873151 = sum of:
        0.053756215 = product of:
          0.16126864 = sum of:
            0.16126864 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.16126864 = score(doc=973,freq=2.0), product of:
                0.14347284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016922936 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.16126864 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.16126864 = score(doc=973,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.16126864 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.16126864 = score(doc=973,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.011021618 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.011021618 = score(doc=973,freq=2.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.16666667 = coord(4/24)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019) 0.04
    0.04474085 = product of:
      0.26844507 = sum of:
        0.026878107 = product of:
          0.08063432 = sum of:
            0.08063432 = weight(_text_:3a in 484) [ClassicSimilarity], result of:
              0.08063432 = score(doc=484,freq=2.0), product of:
                0.14347284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016922936 = queryNorm
                0.56201804 = fieldWeight in 484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=484)
          0.33333334 = coord(1/3)
        0.114034146 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.114034146 = score(doc=484,freq=4.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.114034146 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.114034146 = score(doc=484,freq=4.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.0134986695 = weight(_text_:und in 484) [ClassicSimilarity], result of:
          0.0134986695 = score(doc=484,freq=12.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.35989314 = fieldWeight in 484, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
      0.16666667 = coord(4/24)
    
    Abstract
    Eine der wesentlichen Aufgaben als Fachreferent*in ist die inhaltliche Erschließung der neuerworbenen Literatur, sowie die Begutachtung und Auswahl der neu erschienenen Werke in den jeweiligen Fachgebieten hinsichtlich der Relevanz für die eigenen Sammlungen gemäß dem Sammlungsprofil der TU Wien Bibliothek. Im Zuge der Corona-Krise wurde die herkömmliche Arbeitsweise in der Sacherschließung beeinträchtigt, und es haben sich neue Herausforderungen, aber auch Möglichkeiten ergeben. Neben der fehlenden Autopsie der Literatur leidet auch die Sichtung und Erwerbung neuer Literatur unter der physischen Abwesenheit vom Arbeitsplatz bzw. der entsprechenden technischen Infrastruktur. Auch der persönliche Austausch mit den Kolleg*innen wurde deutlich erschwert. Neben den Schwierigkeiten wurden aber auch die neuen Handlungsoptionen auf beruflicher und individueller Ebene positiv gesehen. In dem Artikel werden unsere individuellen Erfahrungen an der TU Wien Bibliothek sowie Ausblicke in die Zukunft wiedergegeben.
    Footnote
    https%3A%2F%2Fjournals.univie.ac.at%2Findex.php%2Fvoebm%2Farticle%2Fdownload%2F5332%2F5271%2F&usg=AOvVaw2yQdFGHlmOwVls7ANCpTii.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 73(2020) H.3/4, S.496-503
  3. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.04
    0.039197244 = product of:
      0.31357795 = sum of:
        0.04479685 = product of:
          0.13439055 = sum of:
            0.13439055 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.13439055 = score(doc=1826,freq=2.0), product of:
                0.14347284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016922936 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.13439055 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.13439055 = score(doc=1826,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.13439055 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.13439055 = score(doc=1826,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.125 = coord(3/24)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  4. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.04
    0.03809949 = product of:
      0.22859694 = sum of:
        0.031357795 = product of:
          0.09407338 = sum of:
            0.09407338 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
              0.09407338 = score(doc=5955,freq=2.0), product of:
                0.14347284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016922936 = queryNorm
                0.65568775 = fieldWeight in 5955, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5955)
          0.33333334 = coord(1/3)
        0.09407338 = weight(_text_:2f in 5955) [ClassicSimilarity], result of:
          0.09407338 = score(doc=5955,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.65568775 = fieldWeight in 5955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5955)
        0.09407338 = weight(_text_:2f in 5955) [ClassicSimilarity], result of:
          0.09407338 = score(doc=5955,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.65568775 = fieldWeight in 5955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5955)
        0.009092371 = weight(_text_:und in 5955) [ClassicSimilarity], result of:
          0.009092371 = score(doc=5955,freq=4.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.24241515 = fieldWeight in 5955, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5955)
      0.16666667 = coord(4/24)
    
    Abstract
    Diskussionen um Datennetze und Informationstechnik drehen sich häufig um kompetentes Handeln. In der Publikation werden Voraussetzungen eines autonomen informationellen Handelns gezeigt: Abstrahieren, Analogien bilden, Plausibilitäten beachten, Schlussfolgern und kreativ sein. Informationelle Kompetenz ist gelebte Informationelle Autonomie. Es lassen sich Konsequenzen für ein zukünftiges Menschenbild in informationstechnischen Umgebungen ziehen.
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.04
    0.037110113 = product of:
      0.17812854 = sum of:
        0.022398425 = product of:
          0.067195274 = sum of:
            0.067195274 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.067195274 = score(doc=4388,freq=2.0), product of:
                0.14347284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016922936 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.067195274 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.067195274 = score(doc=4388,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.067195274 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.067195274 = score(doc=4388,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.007954167 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.007954167 = score(doc=4388,freq=6.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.013385398 = product of:
          0.026770797 = sum of:
            0.026770797 = weight(_text_:systeme in 4388) [ClassicSimilarity], result of:
              0.026770797 = score(doc=4388,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.2956176 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Sieglerschmidt, J.: Wissensordnungen im analogen und im digitalen Zeitalter (2017) 0.04
    0.036884952 = product of:
      0.2213097 = sum of:
        0.06869636 = weight(_text_:kooperative in 4026) [ClassicSimilarity], result of:
          0.06869636 = score(doc=4026,freq=2.0), product of:
            0.114685155 = queryWeight, product of:
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.016922936 = queryNorm
            0.59899956 = fieldWeight in 4026, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.0625 = fieldNorm(doc=4026)
        0.010391281 = weight(_text_:und in 4026) [ClassicSimilarity], result of:
          0.010391281 = score(doc=4026,freq=4.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.27704588 = fieldWeight in 4026, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4026)
        0.07111104 = product of:
          0.28444415 = sum of:
            0.28444415 = weight(_text_:c3 in 4026) [ClassicSimilarity], result of:
              0.28444415 = score(doc=4026,freq=8.0), product of:
                0.16501516 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.016922936 = queryNorm
                1.7237456 = fieldWeight in 4026, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4026)
          0.25 = coord(1/4)
        0.07111104 = product of:
          0.28444415 = sum of:
            0.28444415 = weight(_text_:c3 in 4026) [ClassicSimilarity], result of:
              0.28444415 = score(doc=4026,freq=8.0), product of:
                0.16501516 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.016922936 = queryNorm
                1.7237456 = fieldWeight in 4026, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4026)
          0.25 = coord(1/4)
      0.16666667 = coord(4/24)
    
    Content
    Vgl. unter: https://books.google.de/books?hl=de&lr=&id=0rtGDwAAQBAJ&oi=fnd&pg=PA35&dq=inhaltserschlie%C3%9Fung+OR+sacherschlie%C3%9Fung&ots=5u0TwCbFqE&sig=GGw3Coc21CINkone-6Lx8LaSAjY#v=onepage&q=inhaltserschlie%C3%9Fung%20OR%20sacherschlie%C3%9Fung&f=false.
    Footnote
    Wierabdruck aus: Handbuch Kulturportale: Online-Angebote aus Kultur und Wissenschaft. Hrsg.: Ellen Euler u.a. Berlin 2015.
    Source
    Studiolo: Kooperative Forschungsumgebungen in den eHumanities. Hrsg: Eva-MariaSeng, Reinhard Keil
  7. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.03
    0.030657211 = product of:
      0.105110444 = sum of:
        0.022753382 = weight(_text_:physik in 331) [ClassicSimilarity], result of:
          0.022753382 = score(doc=331,freq=2.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            0.21110487 = fieldWeight in 331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
        0.030435717 = weight(_text_:statistische in 331) [ClassicSimilarity], result of:
          0.030435717 = score(doc=331,freq=2.0), product of:
            0.124656945 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.016922936 = queryNorm
            0.24415581 = fieldWeight in 331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
        0.011376691 = product of:
          0.022753382 = sum of:
            0.022753382 = weight(_text_:physik in 331) [ClassicSimilarity], result of:
              0.022753382 = score(doc=331,freq=2.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                0.21110487 = fieldWeight in 331, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=331)
          0.5 = coord(1/2)
        0.008713353 = weight(_text_:und in 331) [ClassicSimilarity], result of:
          0.008713353 = score(doc=331,freq=20.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.23231003 = fieldWeight in 331, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
        0.011900029 = product of:
          0.047600117 = sum of:
            0.047600117 = weight(_text_:ph in 331) [ClassicSimilarity], result of:
              0.047600117 = score(doc=331,freq=2.0), product of:
                0.15589376 = queryWeight, product of:
                  9.211981 = idf(docFreq=11, maxDocs=44218)
                  0.016922936 = queryNorm
                0.3053369 = fieldWeight in 331, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.211981 = idf(docFreq=11, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=331)
          0.25 = coord(1/4)
        0.00803124 = product of:
          0.01606248 = sum of:
            0.01606248 = weight(_text_:systeme in 331) [ClassicSimilarity], result of:
              0.01606248 = score(doc=331,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.17737058 = fieldWeight in 331, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=331)
          0.5 = coord(1/2)
        0.011900029 = product of:
          0.047600117 = sum of:
            0.047600117 = weight(_text_:ph in 331) [ClassicSimilarity], result of:
              0.047600117 = score(doc=331,freq=2.0), product of:
                0.15589376 = queryWeight, product of:
                  9.211981 = idf(docFreq=11, maxDocs=44218)
                  0.016922936 = queryNorm
                0.3053369 = fieldWeight in 331, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.211981 = idf(docFreq=11, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=331)
          0.25 = coord(1/4)
      0.29166666 = coord(7/24)
    
    Abstract
    Der Mensch kann komplexe Sachverhalte in eine eindimensionale Abfolge von Buchstaben umwandeln und niederschreiben. Dabei dienen Schlüsselwörter dazu, den Inhalt des Textes zu vermitteln. Wie Buchstaben und Wörtern mit dem Thema eines Textes zusammenhängen, haben Eduardo Altmann und seine Kollegen vom Max-Planck-Institut für die Physik komplexer Systeme und der Universität Bologna mit Hilfe von statistischen Methoden untersucht. Dabei haben sie herausgefunden, dass Schlüsselwörter nicht dadurch gekennzeichnet sind, dass sie im ganzen Text besonders häufig vorkommen, sondern nur an bestimmten Stellen vermehrt zu finden sind. Außerdem gibt es Beziehungen zwischen weit entfernten Textabschnitten, in der Form, dass dieselben Wörter und Buchstaben bevorzugt verwendet werden.
    Content
    "Die Dresdner Wissenschaftler haben die semantischen Eigenschaften von Texten mathematisch untersucht, indem sie zehn verschiedene englische Texte in unterschiedlichen Formen kodierten. Dazu zählt unter anderem die englische Ausgabe von Leo Tolstois "Krieg und Frieden". Beispielsweise übersetzten die Forscher Buchstaben innerhalb eines Textes in eine Binär-Sequenz. Dazu ersetzten sie alle Vokale durch eine Eins und alle Konsonanten durch eine Null. Mit Hilfe weiterer mathematischer Funktionen beleuchteten die Wissenschaftler dabei verschiedene Ebenen des Textes, also sowohl einzelne Vokale, Buchstaben als auch ganze Wörter, die in verschiedenen Formen kodiert wurden. Innerhalb des ganzen Textes lassen sich so wiederkehrende Muster finden. Diesen Zusammenhang innerhalb des Textes bezeichnet man als Langzeitkorrelation. Diese gibt an, ob zwei Buchstaben an beliebig weit voneinander entfernten Textstellen miteinander in Verbindung stehen - beispielsweise gibt es wenn wir an einer Stelle einen Buchstaben "K" finden, eine messbare höhere Wahrscheinlichkeit den Buchstaben "K" einige Seiten später nochmal zu finden. "Es ist zu erwarten, dass wenn es in einem Buch an einer Stelle um Krieg geht, die Wahrscheinlichkeit hoch ist das Wort Krieg auch einige Seiten später zu finden. Überraschend ist es, dass wir die hohe Wahrscheinlichkeit auch auf der Buchstabenebene finden", so Altmann.
    Schlüsselwörter häufen sich in einzelnen Textpassagen Dabei haben sie die Langzeitkorrelation sowohl zwischen einzelnen Buchstaben, als auch innerhalb höherer sprachlicher Ebenen wie Wörtern gefunden. Innerhalb einzelner Ebenen bleibt die Korrelation dabei erhalten, wenn man verschiedene Texte betrachtet. "Viel interessanter ist es für uns zu überprüfen, wie die Korrelation sich zwischen den Ebenen ändert", sagt Altmann. Die Langzeitkorrelation erlaubt Rückschlüsse, inwieweit einzelne Wörter mit einem Thema in Verbindungen stehen. "Auch die Verbindung zwischen einem Wort und den Buchstaben, aus denen es sich zusammensetzt, lässt sich so analysieren", so Altmann. Darüber hinaus untersuchten die Wissenschaftler auch die sogenannte "Burstiness", die beschreibt, ob ein Zeichenmuster in einer Textpassage vermehrt zu finden ist. Sie zeigt also beispielsweise an, ob ein Wort in einem bestimmten Abschnitt gehäuft vorkommt. Je häufiger ein bestimmtes Wort in einer Passage verwendet wird, desto wahrscheinlicher ist es, dass diese repräsentativ für ein bestimmtes Thema ist. Die Wissenschaftler zeigten, dass bestimmte Wörter zwar im ganzen Text immer wieder vorkommen, aber nicht in einem bestimmten Abschnitt verstärkt zu finden sind. Diese Wörter weisen zwar eine Langzeitkorrelation auf, stehen aber nicht in einer engen Verbindung mit dem Thema. "Das beste Beispiel dafür sind Artikel. Sie kommen in jedem Text sehr oft vor, sind aber nicht entscheidend um ein bestimmtes Thema zu vermitteln", so Altmann.
    Die statistische Textanalyse funktioniert unabhängig von der Sprache Während sowohl Buchstaben als auch Wörter Langzeit-korreliert sind, kommen Buchstaben nur selten an bestimmten Stellen eines Textes gehäuft vor. "Ein Buchstabe ist eben nur sehr selten so eng mit einem Thema verknüpft wie das Wort zu dem er einen Teil beiträgt. Buchstaben sind sozusagen flexibler einsetzbar", sagt Altmann. Ein "a" beispielsweise kann zu einer ganzen Reihe von Wörtern beitragen, die nicht mit demselben Thema in Verbindung stehen. Mit Hilfe der statistischen Analyse von Texten ist es den Forschern gelungen, die prägenden Wörter eines Textes auf einfache Weise zu ermitteln. "Dabei ist es vollkommen egal, in welcher Sprache ein Text geschrieben ist. Es geht nur noch um die Geschichte und nicht um sprachspezifische Regeln", sagt Altmann. Die Ergebnisse könnten zukünftig zur Verbesserung von Internetsuchmaschinen beitragen, aber auch bei Textanalysen und der Suche nach Plagiaten helfen."
  8. Herb, U.; Beucke, D.: ¬Die Zukunft der Impact-Messung : Social Media, Nutzung und Zitate im World Wide Web (2013) 0.03
    0.028715044 = product of:
      0.22972035 = sum of:
        0.10751243 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.10751243 = score(doc=2188,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.10751243 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.10751243 = score(doc=2188,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.014695491 = weight(_text_:und in 2188) [ClassicSimilarity], result of:
          0.014695491 = score(doc=2188,freq=8.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.39180204 = fieldWeight in 2188, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
      0.125 = coord(3/24)
    
    Abstract
    Wissenschaftliche Karrieren und Publikationen benötigen Reputation und möglichst viel Beachtung. Literatur, die diese Aufmerksamkeit findet, wird - so die gängige Annahme - häufig zitiert. Ausgehend von dieser Überlegung wurden Verfahren der Zitationsmessung entwickelt, die Auskunft über die Relevanz oder (wie im- und explizit oft auch postuliert wird) gar die Qualität einer Publikation oder eines Wissenschaftlers geben sollen.
    Content
    Vgl. unter: https://www.leibniz-science20.de%2Fforschung%2Fprojekte%2Faltmetrics-in-verschiedenen-wissenschaftsdisziplinen%2F&ei=2jTgVaaXGcK4Udj1qdgB&usg=AFQjCNFOPdONj4RKBDf9YDJOLuz3lkGYlg&sig2=5YI3KWIGxBmk5_kv0P_8iQ.
  9. Unzicker, A.: Vom Urknall zum Durchknall (2010) 0.03
    0.027284889 = product of:
      0.21827911 = sum of:
        0.1365203 = weight(_text_:physik in 3143) [ClassicSimilarity], result of:
          0.1365203 = score(doc=3143,freq=18.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            1.2666292 = fieldWeight in 3143, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.046875 = fieldNorm(doc=3143)
        0.06826015 = product of:
          0.1365203 = sum of:
            0.1365203 = weight(_text_:physik in 3143) [ClassicSimilarity], result of:
              0.1365203 = score(doc=3143,freq=18.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                1.2666292 = fieldWeight in 3143, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3143)
          0.5 = coord(1/2)
        0.0134986695 = weight(_text_:und in 3143) [ClassicSimilarity], result of:
          0.0134986695 = score(doc=3143,freq=12.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.35989314 = fieldWeight in 3143, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3143)
      0.125 = coord(3/24)
    
    Abstract
    Die Physik ist bei der Jagd nach der Weltformel in einer Sackgasse gelandet. Immer wieder wird verkündet, die Formel sei fast gefunden. Nur: Wo bleibt sie dann? Der Autor zeichnet nach, wie die theoretische Physik vom Weg abkam und nun mit immer größeren Spekulationsblasen in die Esoterik abdriftet. Witzig-bissig und mit unterhaltsamen Anekdoten, aber auch fundiert bis ins Detail nimmt er die heutige Mode der Physik aufs Korn und erinnert an die unbeantworteten Fragen, die die wirklichen Größen der Physik bewegt haben. Trotz oder gerade wegen der kritischen Töne ein faszinierendes und nachdenklich machendes Plädoyer für die Wissenschaft.
    BK
    33.50 / Physik der Elementarteilchen und Felder: Allgemeines
    Classification
    33.50 / Physik der Elementarteilchen und Felder: Allgemeines
    Field
    Physik
    RSWK
    Physik / Wechselwirkung / Vereinheitlichung
    Subject
    Physik / Wechselwirkung / Vereinheitlichung
  10. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.02
    0.023518343 = product of:
      0.18814674 = sum of:
        0.026878107 = product of:
          0.08063432 = sum of:
            0.08063432 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.08063432 = score(doc=400,freq=2.0), product of:
                0.14347284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016922936 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
        0.08063432 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.08063432 = score(doc=400,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.08063432 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.08063432 = score(doc=400,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
      0.125 = coord(3/24)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  11. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.02
    0.022527993 = product of:
      0.13516796 = sum of:
        0.078820035 = weight(_text_:physik in 4408) [ClassicSimilarity], result of:
          0.078820035 = score(doc=4408,freq=6.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            0.7312888 = fieldWeight in 4408, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.039410017 = product of:
          0.078820035 = sum of:
            0.078820035 = weight(_text_:physik in 4408) [ClassicSimilarity], result of:
              0.078820035 = score(doc=4408,freq=6.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                0.7312888 = fieldWeight in 4408, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
        0.0134986695 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.0134986695 = score(doc=4408,freq=12.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.003439236 = product of:
          0.013756944 = sum of:
            0.013756944 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.013756944 = score(doc=4408,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.25 = coord(1/4)
      0.16666667 = coord(4/24)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Field
    Physik
    Imprint
    Innsbruck : Universitäts- und Landesbibliothek Tirol
    Pages
    22 S
  12. Apel, J.: ¬Ein neues Aufgabenfeld für Bibliotheken? : Virtuelle Forschungsumgebungen in den Naturwissenschaften am Beispiel des Fachs Physik (2012) 0.02
    0.021706246 = product of:
      0.17364997 = sum of:
        0.10618245 = weight(_text_:physik in 2451) [ClassicSimilarity], result of:
          0.10618245 = score(doc=2451,freq=8.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            0.98515606 = fieldWeight in 2451, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2451)
        0.053091224 = product of:
          0.10618245 = sum of:
            0.10618245 = weight(_text_:physik in 2451) [ClassicSimilarity], result of:
              0.10618245 = score(doc=2451,freq=8.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                0.98515606 = fieldWeight in 2451, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2451)
          0.5 = coord(1/2)
        0.014376301 = weight(_text_:und in 2451) [ClassicSimilarity], result of:
          0.014376301 = score(doc=2451,freq=10.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.38329202 = fieldWeight in 2451, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2451)
      0.125 = coord(3/24)
    
    Abstract
    Dieser Artikel untersucht am Beispiel des Fachs Physik die folgenden beiden Fragen: Was müssen Virtuelle Forschungsumgebungen leisten, um moderne naturwissenschaftliche Forschung adäquat zu unterstützen, und auf welche Weise können Bibliotheken zur Realisierung dieser Leistungen beitragen? Im Hinblick auf diese Fragestellungen werden die Bereiche Projektmanagement, Informationsretrival und -management, Forschungsprimärdatenmanagement, elektronisches Publizieren und Langzeitarchivierung sowie organisatorische Querschnittsaufgaben in den Blick genommen. Es wird ein Katalog von möglichen Diensten und Anwendungen Virtueller Forschungsumgebungen in der Physik entwickelt und diskutiert welche Dienstleistungen Bibliotheken in diesem Zusammenhang anbieten könnten. Anhand dreier Fallbeispiele (HEP-CG, GAVO, AWOB) werden diese Überlegungen zudem mit der Praxis abgeglichen.
    Field
    Physik
  13. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.02
    0.021245535 = product of:
      0.16996428 = sum of:
        0.01791874 = product of:
          0.053756215 = sum of:
            0.053756215 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.053756215 = score(doc=5820,freq=2.0), product of:
                0.14347284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016922936 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.07602277 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.07602277 = score(doc=5820,freq=4.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.07602277 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.07602277 = score(doc=5820,freq=4.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.125 = coord(3/24)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  14. Neunzert, H.: Mathematische Modellierung : ein "curriculum vitae" (2012) 0.02
    0.020804528 = product of:
      0.16643623 = sum of:
        0.015586922 = weight(_text_:und in 2255) [ClassicSimilarity], result of:
          0.015586922 = score(doc=2255,freq=4.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.41556883 = fieldWeight in 2255, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2255)
        0.07542465 = product of:
          0.3016986 = sum of:
            0.3016986 = weight(_text_:c3 in 2255) [ClassicSimilarity], result of:
              0.3016986 = score(doc=2255,freq=4.0), product of:
                0.16501516 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.016922936 = queryNorm
                1.8283083 = fieldWeight in 2255, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2255)
          0.25 = coord(1/4)
        0.07542465 = product of:
          0.3016986 = sum of:
            0.3016986 = weight(_text_:c3 in 2255) [ClassicSimilarity], result of:
              0.3016986 = score(doc=2255,freq=4.0), product of:
                0.16501516 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.016922936 = queryNorm
                1.8283083 = fieldWeight in 2255, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2255)
          0.25 = coord(1/4)
      0.125 = coord(3/24)
    
    Content
    Vortrag auf der Tagung "Geschichte und Modellierung", Jena, 3. Februar 2012. Vgl. unter: http://www.fmi.uni-jena.de/Fakult%C3%A4t/Institute+und+Abteilungen/Abteilung+f%C3%BCr+Didaktik/Kolloquien.html?highlight=neunzert.
  15. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.02
    0.020588484 = product of:
      0.16470787 = sum of:
        0.08063432 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.08063432 = score(doc=563,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.08063432 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.08063432 = score(doc=563,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.003439236 = product of:
          0.013756944 = sum of:
            0.013756944 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.013756944 = score(doc=563,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.25 = coord(1/4)
      0.125 = coord(3/24)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  16. Niemann, C.: Tag-Science : Ein Analysemodell zur Nutzbarkeit von Tagging-Daten (2011) 0.02
    0.019732293 = product of:
      0.11839375 = sum of:
        0.009545001 = weight(_text_:und in 164) [ClassicSimilarity], result of:
          0.009545001 = score(doc=164,freq=6.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.2544829 = fieldWeight in 164, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=164)
        0.089347035 = weight(_text_:chaotische in 164) [ClassicSimilarity], result of:
          0.089347035 = score(doc=164,freq=2.0), product of:
            0.15102533 = queryWeight, product of:
              8.924298 = idf(docFreq=15, maxDocs=44218)
              0.016922936 = queryNorm
            0.591603 = fieldWeight in 164, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.924298 = idf(docFreq=15, maxDocs=44218)
              0.046875 = fieldNorm(doc=164)
        0.01606248 = product of:
          0.03212496 = sum of:
            0.03212496 = weight(_text_:systeme in 164) [ClassicSimilarity], result of:
              0.03212496 = score(doc=164,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.35474116 = fieldWeight in 164, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.046875 = fieldNorm(doc=164)
          0.5 = coord(1/2)
        0.003439236 = product of:
          0.013756944 = sum of:
            0.013756944 = weight(_text_:22 in 164) [ClassicSimilarity], result of:
              0.013756944 = score(doc=164,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.23214069 = fieldWeight in 164, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=164)
          0.25 = coord(1/4)
      0.16666667 = coord(4/24)
    
    Abstract
    Social-Tagging-Systeme, die sich für das Wissensmanagement rapide wachsender Informationsmengen zunehmend durchsetzen, sind ein ambivalentes Phänomen. Sie bieten Kundennähe und entfalten ein beachtliches kreatives Potenzial. Sie erzeugen aber ebenso große Mengen völlig unkontrollierter Meta-Informationen. Aus Sicht gepflegter Vokabularien, wie sie sich etwa in Thesauri finden, handelt es sich bei völlig frei vergebenen Nutzerschlagwörtern (den "Tags") deshalb um "chaotische" Sacherschließung. Andererseits ist auch die These einer "Schwarmintelligenz", die in diesem Chaos wertvolles Wissen als Gemeinschaftsprodukt erzeugt, nicht von der Hand zu weisen. Die Frage ist also: Wie lassen sich aus Tagging-Daten Meta-Informationen generieren, die nach Qualität und Ordnung wissenschaftlichen Standards entsprechen - nicht zuletzt zur Optimierung eines kontrollierten Vokabulars? Der Beitrag stellt ein Analysemodell zur Nutzbarkeit von Tagging-Daten vor.
    Source
    ¬Die Kraft der digitalen Unordnung: 32. Arbeits- und Fortbildungstagung der ASpB e. V., Sektion 5 im Deutschen Bibliotheksverband, 22.-25. September 2009 in der Universität Karlsruhe. Hrsg: Jadwiga Warmbrunn u.a
  17. Koch, M.: Ist Physik noch Wissenschaft? (2016) 0.02
    0.019705009 = product of:
      0.2364601 = sum of:
        0.15764007 = weight(_text_:physik in 3461) [ClassicSimilarity], result of:
          0.15764007 = score(doc=3461,freq=6.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            1.4625776 = fieldWeight in 3461, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.09375 = fieldNorm(doc=3461)
        0.078820035 = product of:
          0.15764007 = sum of:
            0.15764007 = weight(_text_:physik in 3461) [ClassicSimilarity], result of:
              0.15764007 = score(doc=3461,freq=6.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                1.4625776 = fieldWeight in 3461, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3461)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Content
    Vgl. auch: http://www.neues-deutschland.de/artikel/998163.ist-physik-noch-wissenschaft.html.
    Field
    Physik
  18. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.02
    0.019598622 = product of:
      0.15678898 = sum of:
        0.022398425 = product of:
          0.067195274 = sum of:
            0.067195274 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.067195274 = score(doc=4997,freq=2.0), product of:
                0.14347284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016922936 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.067195274 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.067195274 = score(doc=4997,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.067195274 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.067195274 = score(doc=4997,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.125 = coord(3/24)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  19. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.02
    0.019598622 = product of:
      0.15678898 = sum of:
        0.022398425 = product of:
          0.067195274 = sum of:
            0.067195274 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.067195274 = score(doc=855,freq=2.0), product of:
                0.14347284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016922936 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.067195274 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.067195274 = score(doc=855,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.067195274 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.067195274 = score(doc=855,freq=2.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.125 = coord(3/24)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  20. Czap, H.: Erkennen durch künstliche Systeme (2013) 0.02
    0.019468734 = product of:
      0.15574987 = sum of:
        0.011135834 = weight(_text_:und in 934) [ClassicSimilarity], result of:
          0.011135834 = score(doc=934,freq=6.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.2968967 = fieldWeight in 934, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=934)
        0.11811229 = weight(_text_:selbstorganisierende in 934) [ClassicSimilarity], result of:
          0.11811229 = score(doc=934,freq=2.0), product of:
            0.16076218 = queryWeight, product of:
              9.499662 = idf(docFreq=8, maxDocs=44218)
              0.016922936 = queryNorm
            0.734702 = fieldWeight in 934, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.499662 = idf(docFreq=8, maxDocs=44218)
              0.0546875 = fieldNorm(doc=934)
        0.02650174 = product of:
          0.05300348 = sum of:
            0.05300348 = weight(_text_:systeme in 934) [ClassicSimilarity], result of:
              0.05300348 = score(doc=934,freq=4.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.58529305 = fieldWeight in 934, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=934)
          0.5 = coord(1/2)
      0.125 = coord(3/24)
    
    Abstract
    Ziel des Beitrags ist die Konstruktion eines künstlichen Systems, dem die Eigenschaft "erkennen zu können" zuzuschreiben ist. Dazu ist es einleitend erforderlich, den Begriff "Erkennen" bei autopoietischen und selbstreferentiellen Systemen zu präzisieren. Er wird auf systemischer Ebene als äquivalent zur Selbstorganisation gedeutet, die auf der Ebene des externen Beobachters beobachtbar und interpretierbar ist. In Anlehnung an naturanaloge Verfahren wird eine Architektur für sich selbstorganisierende Systeme entwickelt, deren Umsetzung am konkreten Beispiel demonstriert wird. Dies verdeutlicht, wie der Prozess der Selbstorganisation "Erkennen" ermöglicht und dass die Interpretation durch den Menschen eine qualitative Dimension beinhaltet, die auf einer übergeordneten Ebene stattfindet.

Languages

  • d 1643
  • e 670
  • a 2
  • hu 1
  • More… Less…

Types

  • a 1819
  • el 420
  • m 299
  • x 79
  • s 68
  • r 27
  • n 8
  • b 6
  • i 3
  • p 2
  • v 2
  • ms 1
  • z 1
  • More… Less…

Themes

Subjects

Classifications