Search (2287 results, page 2 of 115)

  • × year_i:[2010 TO 2020}
  1. Hartmann, S.; Pampel, H.: GND und ORCID : Brückenschlag zwischen zwei Systemen zur Autorenidentifikation (2017) 0.06
    0.058006823 = product of:
      0.17402047 = sum of:
        0.1351014 = weight(_text_:einzelne in 5115) [ClassicSimilarity], result of:
          0.1351014 = score(doc=5115,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.5517887 = fieldWeight in 5115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
        0.03891907 = weight(_text_:der in 5115) [ClassicSimilarity], result of:
          0.03891907 = score(doc=5115,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4188313 = fieldWeight in 5115, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Uneindeutigkeit von Personennamen erschwert im Rahmen der bibliothekarischen Erschließung die eindeutige Zuordnung von Autorinnen und Autoren zu ihren Werken. Bibliotheken im deutschsprachigen Raum adressieren das Problem der Mehrdeutigkeit von Namen durch den Einsatz der Gemeinsamen Normdatei (GND). Die internationale Initiative ORCID (Open Researcher and Contributor ID) verfolgt das gleiche Ziel. Akteur ist hier jedoch die einzelne Wissenschaftlerin oder der einzelne Wissenschaftler. Das Projekt "ORCID DE - Förderung der Open Researcher and Contributor ID in Deutschland" hat sich, dank der Förderung der Deutschen Forschungsgemeinschaft (DFG), unter anderem zum Ziel gesetzt, einen Brückenschlag zwischen den beiden Systemen - GND und ORCID - zu schaffen, um damit die Datenqualität beider Systeme wechselseitig zu erhöhen. Der vorliegende Beitrag gibt einen Überblick über ORCID und das Projekt ORCID DE. Dabei wird insbesondere auf die angestrebte Verlinkung von GND und ORCID eingegangen.
  2. Hubrich, J.: Semantische Interoperabilität zwischen Klassifikationen und anderen Wissenssystemen (2018) 0.05
    0.053050704 = product of:
      0.1591521 = sum of:
        0.12737481 = weight(_text_:einzelne in 4272) [ClassicSimilarity], result of:
          0.12737481 = score(doc=4272,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.52023137 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=4272)
        0.03177729 = weight(_text_:der in 4272) [ClassicSimilarity], result of:
          0.03177729 = score(doc=4272,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34197432 = fieldWeight in 4272, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4272)
      0.33333334 = coord(2/6)
    
    Abstract
    Heutzutage sind Informationsräume häufig durch die Heterogenität der in ihr enthaltenen Ressourcen geprägt, deren inhaltliche Beschreibungen aus unterschiedlichen Quellen stammen und auf der Basis verschiedener, sich strukturell und typologisch unterscheidender Erschließungsinstrumente erstellt wurden. Einzelne Klassifikationen können in solchen Räumen nur bedingt Suchunterstützung bieten, da sie stets nur auf einen Teilbestand zugreifen. Dieser Artikel beschreibt ausgehend von den Charakteristiken von Indexierungssprachen, wie durch semantische Interoperabilität eine Verbesserung der Retrievalsituation erreicht werden kann.
  3. Loh, J.: Trans- und Posthumanismus zur Einführung (2018) 0.05
    0.051683456 = product of:
      0.15505037 = sum of:
        0.13899708 = weight(_text_:theorien in 1655) [ClassicSimilarity], result of:
          0.13899708 = score(doc=1655,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.5083486 = fieldWeight in 1655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1655)
        0.016053297 = weight(_text_:der in 1655) [ClassicSimilarity], result of:
          0.016053297 = score(doc=1655,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.17275909 = fieldWeight in 1655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1655)
      0.33333334 = coord(2/6)
    
    Abstract
    In diesem Band setzt sich Janina Loh kritisch mit den unterschiedlichen Theorien zur Perfektionierung sowie zur Überwindung des Menschen und seiner Sterblichkeit auseinander, die in den Strömungen des Transhumanismus und Posthumanismus versammelt sind. Sie stellt die wichtigsten Ansätzen vor und diskutiert die zahlreichen Herausforderungen, die mit den Technologien des Human Enhancements, der Verschmelzung von Mensch und Maschine sowie einer technologischen Weiterführung des Humanismus bzw. seiner Verabschiedung verbunden sind. Die Entwicklung einer artifiziellen Superintelligenz, die Übertragung des menschlichen Geistes auf den Computer und die Infragestellung tradierter Kategorien wie Natur/Kultur, Frau/Mann und Subjekt/Objekt durch Trans- und Posthumanismus sind weitere Themen dieser Einführung.
  4. Jackermeier, R.: Code I've Seen : Verhalten von Programmierern beim Wiederfinden von Code-Stellen (2015) 0.05
    0.051683456 = product of:
      0.15505037 = sum of:
        0.13899708 = weight(_text_:theorien in 1740) [ClassicSimilarity], result of:
          0.13899708 = score(doc=1740,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.5083486 = fieldWeight in 1740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1740)
        0.016053297 = weight(_text_:der in 1740) [ClassicSimilarity], result of:
          0.016053297 = score(doc=1740,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.17275909 = fieldWeight in 1740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1740)
      0.33333334 = coord(2/6)
    
    Abstract
    In dieser Arbeit werden Theorien und Erkenntnisse über das Information Re-Finding aus dem PIM-Bereich auf das Wiederfinden von Programmiercode, insbesondere einzelner Code-Snippets, angewendet. Als Grundlage dienen empirische Daten von Studien über das Verhalten von Programmierern, die besagen, dass Suchen und Finden häufig ausgeübte Tätigkeiten sind. Ausgehend davon wird gezeigt, dass sich zwischen Re-Finding-Verhalten, wie es in der Vergangenheit für verschiedene andere Bereiche untersucht wurde, und dem Wiederfinden von Quellcode Parallelen ziehen lassen: Bekannte Strategien wie Orienteering und Teleporting haben Entsprechungen beim Navigieren durch eine Codebasis. Schließlich werden offene Fragen angesprochen und Vorschläge gemacht, wie dieses Verhalten in zukünftigen Experimenten genauer untersucht werden kann.
  5. Detel, W.: Geist und Verstehen : historische Grundlagen einer modernen Hermeneutik (2011) 0.05
    0.051425233 = product of:
      0.1542757 = sum of:
        0.09928363 = weight(_text_:theorien in 506) [ClassicSimilarity], result of:
          0.09928363 = score(doc=506,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.36310613 = fieldWeight in 506, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0390625 = fieldNorm(doc=506)
        0.054992076 = weight(_text_:der in 506) [ClassicSimilarity], result of:
          0.054992076 = score(doc=506,freq=46.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5918025 = fieldWeight in 506, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=506)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieses Buch geht davon aus, dass eine moderne Hermeneutik als Theorie des Verstehens im begrifflichen Rahmen der gegenwärtigen Theorie des Geistes und der Semantik rekonstruiert werden sollte. Vor diesem theoretischen Hintergrund, der in einem eigenen Kapitel näher umrissen wird, soll die Geschichte der Hermeneutik neu gelesen werden. Dabei wird deutlich, dass diese Lesart vielfach neue historische Interpretationen zu entwickeln und die wichtigsten Stationen der Geschichte der Hermeneutik theoretisch auf neue Weise zu integrieren vermag. Über die hermeneutischen Positionen hinaus, die in den bisherigen Gesamtdarstellungen auftauchen, werden auch Entwürfe diskutiert, die besonders unter geist-theoretischen Gesichtspunkten interessant sind, zum Beispiel die antike Hermeneutik, die Hermeneutik Max Webers, die Hermeneutik der logischen Empiristen und die naturalistische Hermeneutik. Vor allem aber wird belegt, dass die Geschichte der Hermeneutik teilweise zu großen Einsichten gelangt ist, an die eine moderne Hermeneutik anknüpfen kann. Das Buch wendet sich nicht nur an Spezialisten der Hermeneutik-Geschichte, sondern an alle Interessierten, denen das Schicksal der verstehenden Wissenschaften am Herzen liegt, und möchte ihnen eine Perspektive empfehlen, unter der sich der Status und die Autonomie der Geisteswissenschaften sowie ihr Bezug auf das Humane unter Heranziehung substantieller Theorien auf neue Weise würdigen lassen.
    BK
    10.02 Philosophie und Theorie der Geisteswissenschaften
    10.03 Methoden und Techniken der geisteswissenschaftlichen Forschung
    08.03 Grundlagen und Methoden der Philosophie
    Classification
    CC 3800: Zur Theorie der Geisteswissenschaften; Hermeneutik / Philosophie / Systematische Philosophie
    CI 1110: Lebensphilosophie, Pragmatismus, Historismus, Hermeneutik / Philosophie / Geschichte der Philosophie
    10.02 Philosophie und Theorie der Geisteswissenschaften
    10.03 Methoden und Techniken der geisteswissenschaftlichen Forschung
    08.03 Grundlagen und Methoden der Philosophie
    RVK
    CC 3800: Zur Theorie der Geisteswissenschaften; Hermeneutik / Philosophie / Systematische Philosophie
    CI 1110: Lebensphilosophie, Pragmatismus, Historismus, Hermeneutik / Philosophie / Geschichte der Philosophie
  6. Chomsky, N.: Was für Lebewesen sind wir? (2016) 0.05
    0.051309355 = product of:
      0.15392806 = sum of:
        0.112584494 = weight(_text_:einzelne in 1621) [ClassicSimilarity], result of:
          0.112584494 = score(doc=1621,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.4598239 = fieldWeight in 1621, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1621)
        0.041343562 = weight(_text_:der in 1621) [ClassicSimilarity], result of:
          0.041343562 = score(doc=1621,freq=26.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4449227 = fieldWeight in 1621, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1621)
      0.33333334 = coord(2/6)
    
    Abstract
    Noam Chomsky gilt als der Begründer der modernen Linguistik und als einer der Gründerväter der Kognitionswissenschaften. Zugleich ist er einer der meistgelesenen politischen Denker der Welt. Dieses Buch ist die philosophische Summe seines Lebens: Erstmals führt er alle seine großen Themen zusammen und begibt sich auf die Suche nach dem Wesen des Menschen. Chomsky nimmt seinen Ausgang bei der Sprache. Diese ist für ihn ein angeborener Mechanismus, der ein keineswegs zwingendes Muster aufweist und unser Denken bestimmt. Wir alle denken gemäß diesem Muster - und daher können wir auch nur das wissen, was die menschliche Sprache zu denken erlaubt. Einige Geheimisse der Natur könnten uns deshalb für immer verborgen bleiben. Zugleich eröffnet die Sprache aber eine kreative Freiheit; uns ist ein Freiheitsinstinkt gegeben, der uns gegen Herrschaft aufbegehren und eine freie Entfaltung suchen lässt. In der libertären Tradition von Wilhelm von Humboldt, John Stuart Mill und Rudolf Rocker zeichnet uns Chomsky als anarchische Lebewesen, die nach einer Assoziation freier Menschen streben.
    BK
    17.10 (Sprache in Beziehung zu anderen Bereichen der Wissenschaft und Kultur)
    18.00 (Einzelne Sprachen und Literaturen allgemein)
    Classification
    17.10 (Sprache in Beziehung zu anderen Bereichen der Wissenschaft und Kultur)
    18.00 (Einzelne Sprachen und Literaturen allgemein)
  7. Ohly, H.P.: Wissens- und informationssoziologische Aspekte der Wissensorganisation (2013) 0.05
    0.05130867 = product of:
      0.153926 = sum of:
        0.11145297 = weight(_text_:einzelne in 910) [ClassicSimilarity], result of:
          0.11145297 = score(doc=910,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=910)
        0.042473033 = weight(_text_:der in 910) [ClassicSimilarity], result of:
          0.042473033 = score(doc=910,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4570776 = fieldWeight in 910, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=910)
      0.33333334 = coord(2/6)
    
    Abstract
    Noch vor 50 Jahren hat man Wissensorganisation, das Entwickeln und Ordnen von wissenschaftlichen Konzepten, als ein logisches und damit universelles Problem gesehen. Altere Ansätze sehen die Wissensgebiete als naturgegeben und entsprechend organisch gewachsen an. Spätestens mit dem 'Konstruktivismus' ist eine Wende eingetreten, die Wissensorganisation als soziale Konvention begreift und entsprechend skeptisch universellen Ansprüchen gegenübersteht. Gleichzeitig hat in den Wissenschaften eine stärkere Beschäftigung mit historischen und soziologischen Untersuchungen der Grundlagen und in der Wissenschaftstheorie die Rückbesinnung auf Relativierungen unterschiedlicher Art an Bedeutung gewonnen. In dem Beitrag werden einzelne klassische wissenssoziologische Positionen erläutert, Folgerungen für Wissen und Information sowie Wissenschaft und Wissensorganisation gezogen und Einwände genannt.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
    Source
    Wissen - Wissenschaft - Organisation: Proceedings der 12. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Bonn, 19. bis 21. Oktober 2009. Hrsg.: H.P. Ohly
  8. Neues zum RDA-Projekt (2013) 0.05
    0.049116414 = product of:
      0.14734924 = sum of:
        0.11145297 = weight(_text_:einzelne in 2584) [ClassicSimilarity], result of:
          0.11145297 = score(doc=2584,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 2584, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2584)
        0.035896264 = weight(_text_:der in 2584) [ClassicSimilarity], result of:
          0.035896264 = score(doc=2584,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.38630107 = fieldWeight in 2584, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2584)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit dem Beschluss des Standardisierungsausschusses vom Mai 2012, den Standard Resource Description and Access (RDA) im deutschsprachigen Raum einzuführen, wurde eine Arbeitsgruppe RDA für die kooperative Durchführung der Implementierung in Deutschland, Österreich und der Schweiz eingerichtet. Diese Arbeitsgruppe hat nun einen aktualisierten Gesamtzeitplan für das RDA-Projekt vorgelegt, dem der Standardisierungsausschuss im Oktober 2013 einstimmig zugestimmt hat. Einzelne Arbeitspakete wurden neu berechnet und die Gesamtlaufzeit des Projekts wurde um ein halbes Jahr verlängert. Die Normdaten der Gemeinsamen Normdatei (GND) werden nun ab Juli 2014 nach RDA erfasst und die Katalogisierung für den Bereich der Titeldaten wird Ende des Jahres 2015 beginnen. Den aktualisierten Zeitplan finden Sie unter https://wiki.dnb.de/pages/viewpage.action?pageId=83792636.
  9. Becker, H.-G.; Höhner, K.: ¬Die ORCID-Integration der Technischen Universität Dortmund (2019) 0.05
    0.049116414 = product of:
      0.14734924 = sum of:
        0.11145297 = weight(_text_:einzelne in 5347) [ClassicSimilarity], result of:
          0.11145297 = score(doc=5347,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 5347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5347)
        0.035896264 = weight(_text_:der in 5347) [ClassicSimilarity], result of:
          0.035896264 = score(doc=5347,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.38630107 = fieldWeight in 5347, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5347)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Universitätsbibliothek Dortmund (UB) steht vor der Herausforderung, künftig Aussagen zum Publikationsverhalten ihrer Angehörigen treffen zu müssen. Dabei liegt die eine Schwierigkeit darin, Personen eindeutig Publikationen zuzuordnen. Zweitens müssen die Publikationsleistungen möglichst sowohl für einzelne Autoren als auch für alle Disziplinen umfassend nachgewiesen werden. Um beiden Herausforderungen zu begegnen, wurde ein Metadatenmanagementsystem entwickelt. Bereits bei der Konzeption dieses Systems wurde eine ORCID-Integration angestrebt, denn die UB sieht für beide genannten Herausforderungen die ORCID iD als Teil einer möglichen Lösung an. Die Ziele und die technische Umsetzung der Integration werden anhand der fünf Integrationsstufen, die ORCID bietet, vorgestellt.
  10. Herb, U.: Kostenpflichtiger Open Access : auch Open Access kann zu mehr Konzentration und höheren Kosten führen (2016) 0.05
    0.047853187 = product of:
      0.14355956 = sum of:
        0.11145297 = weight(_text_:einzelne in 959) [ClassicSimilarity], result of:
          0.11145297 = score(doc=959,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 959, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=959)
        0.032106593 = weight(_text_:der in 959) [ClassicSimilarity], result of:
          0.032106593 = score(doc=959,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 959, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=959)
      0.33333334 = coord(2/6)
    
    Abstract
    Open Access kennt verschiedene Spielarten. Der grüne Open Access ist in der Regel kostenfrei, denn hier werden Nutzern bereits in wissenschaftlichen Journalen publizierte Artikel in einer Art Zweitverwertung auf Open-Access-Servern entgeltfrei bereitgestellt. Im goldenen Open Access hingegen finden sich Journale, die Artikel ohne Publikationsgebühren im Open Access veröffentlichen, und solche, die für die Veröffentlichung der Texte eine sogenannte Article Processing Charge (APC) erheben. Daneben existiert noch der hybride Open Access: Dabei werden einzelne Artikel aus Journalen, die nicht im Open Access erscheinen, gegen entsprechende Zahlungen für die entgeltfreie Verfügbarkeit freigekauft.
  11. Weller, K.: Anforderungen an die Wissensrepräsentation im Social Semantic Web (2010) 0.05
    0.047853187 = product of:
      0.14355956 = sum of:
        0.11145297 = weight(_text_:einzelne in 4061) [ClassicSimilarity], result of:
          0.11145297 = score(doc=4061,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 4061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4061)
        0.032106593 = weight(_text_:der in 4061) [ClassicSimilarity], result of:
          0.032106593 = score(doc=4061,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 4061, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4061)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieser Artikel gibt einen Einblick in die aktuelle Verschmelzung von Web 2.0-und Semantic Web-Ansätzen, die als Social Semantic Web beschrieben werden kann. Die Grundidee des Social Semantic Web wird beschrieben und einzelne erste Anwendungsbeispiele vorgestellt. Ein wesentlicher Schwerpunkt dieser Entwicklung besteht in der Umsetzung neuer Methoden und Herangehensweisen im Bereich der Wissensrepräsentation. Dieser Artikel stellt vier Schwerpunkte vor, in denen sich die Wissensrepräsentationsmethoden im Social Semantic Web weiterentwickeln müssen und geht dabei jeweils auf den aktuellen Stand ein.
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  12. Koch, G.; Koch, W.: Aggregation and management of metadata in the context of Europeana (2017) 0.05
    0.047853187 = product of:
      0.14355956 = sum of:
        0.11145297 = weight(_text_:einzelne in 3910) [ClassicSimilarity], result of:
          0.11145297 = score(doc=3910,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 3910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3910)
        0.032106593 = weight(_text_:der in 3910) [ClassicSimilarity], result of:
          0.032106593 = score(doc=3910,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 3910, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3910)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit dem In-Beziehung-Setzen und Verlinken von Daten im Internet wird der Weg zur Umsetzung des semantischen Webs geebnet. Erst die semantische Verbindung von heterogenen Datenbeständen ermöglicht übergreifende Suchvorgänge und späteres "Machine Learning". Im Artikel werden die Aktivitäten der Europäischen Digitalen Bibliothek im Bereich des Metadatenmanagements und der semantischen Verlinkung von Daten skizziert. Dabei wird einerseits ein kurzer Überblick zu aktuellen Forschungsschwerpunkten und Umsetzungsstrategien gegeben, und darüber hinaus werden einzelne Projekte und maßgeschneiderte Serviceangebote für naturhistorische Daten, regionale Kultureinrichtungen und Audiosammlungen beschrieben.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.170-178
  13. Wiesenmüller, H.: ¬Die Zukunft der Bibliotheksverbünde : Ein kritischer Blick auf die Empfehlungen des Wissenschaftsrates und der Deutschen Forschungsgemeinschaft (2011) 0.05
    0.046347987 = product of:
      0.13904396 = sum of:
        0.09553111 = weight(_text_:einzelne in 202) [ClassicSimilarity], result of:
          0.09553111 = score(doc=202,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.39017352 = fieldWeight in 202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=202)
        0.043512844 = weight(_text_:der in 202) [ClassicSimilarity], result of:
          0.043512844 = score(doc=202,freq=20.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.46826762 = fieldWeight in 202, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=202)
      0.33333334 = coord(2/6)
    
    Abstract
    Ende 2006 beauftragte die Kultusministerkonferenz den Wissenschaftsrat mit einer Evaluierung der deutschen Bibliotheksverbünde - Mitte 2009 begannen die Arbeiten. Als Abschlussbericht wurden am 28. Januar 2011 »Empfehlungen zur Zukunft des bibliothekarischen Verbundsystems in Deutschland« vorgelegt. Die Gutachter hatten dabei nicht mehr einzelne regionale Verbünde, sondern ein Gesamtsystem auf nationaler Ebene vor Augen. Parallel dazu beschäftigte sich der »Ausschuss für wissenschaftliche Bibliotheken und Informationssysteme« der Deutschen Forschungsgemeinschaft mit dem Thema und veröffentlichte am 2. Februar 2011 ein knapper gehaltenes »Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur«. Die Papiere unterscheiden sich in Nuancen, haben aber denselben Grundtenor. Schließlich präsentierten die beiden eine dreiseitige gemeinsame Erklärung »Zur Zukunft der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur«. Ihr Gesamturteil ist überaus kritisch. Im folgenden Beitrag nimmt Heidrun Wiesenmüller, Professorin an der Hochschule der Medien in Stuttgart, Stellung zu den Empfehlungen.
    Series
    Lesesaal: Schwerpunkt Neuausrichtung der Verbünde
  14. Jasberg, K.; Sizov, S.: Unsicherheiten menschlicher Entscheidungsfindung in Empfehlungssystemen : oder: Was wir von den klassischen Naturwissenschaften übernehmen können (2018) 0.05
    0.046335083 = product of:
      0.13900524 = sum of:
        0.09928363 = weight(_text_:theorien in 4237) [ClassicSimilarity], result of:
          0.09928363 = score(doc=4237,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.36310613 = fieldWeight in 4237, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4237)
        0.03972161 = weight(_text_:der in 4237) [ClassicSimilarity], result of:
          0.03972161 = score(doc=4237,freq=24.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.42746788 = fieldWeight in 4237, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4237)
      0.33333334 = coord(2/6)
    
    Abstract
    Eines der wichtigsten Anliegen adaptiver Informationssysteme ist die Modellierung menschlichen Verhaltes, um unter anderem Benutzerpersonalisierung und Empfehlungen anbieten zu können. Dies geschieht gewöhnlich durch die Beobachtung der Nutzerinteraktionen und durch das direkte Befragen der Benutzer selbst. Wie im Alltag, so auch im Umgang mit Informationssystemen, erweisen sich Menschen in ihren Entscheidungen als unbeständig und sprunghaft; komplexe Kognitionen führen nicht immer zu demselben Ergebnis, sodass sich Wahrscheinlichkeiten für eine Vielzahl möglicher Entscheidungen ergeben. Dieses Phänomen besitzt einen großen Einfluss auf heutige Informationssysteme. Daher stellt sich die Frage nach einer effektiven Modellierung dieser Unsicherheit in der menschlichen Entscheidungsfindung. In diesem Beitrag betrachten wir die Grundidee der Unsicherheit aus drei verschiedenen Perspektiven: der Mensch-Maschine-Interaktion, der Metrologie bzw. Physik sowie der Neurowissenschaft. Durch das Zusammenführen dieser Theorien bzw. der Übertragung ihrer spezifischen Methoden können wir eine wichtige Quelle der Unsicherheit menschlicher Entscheidungsfindung identifizieren und die begrenzte Möglichkeit ihrer Vermessung thematisieren. Der Einfluss dieser Unsicherheit wird dabei exemplarisch am Beispiel der komparativen Bewertung von Empfehlungsdiensten illustriert. Basierend auf unseren Ergebnissen diskutieren wir die möglichen Auswirkungen auf Informationssysteme im Allgemeinen und geben einen kurzen Überblick über mögliche Lösungsstrategien.
  15. Singer, P.: Praktische Ethik (2013) 0.05
    0.046199962 = product of:
      0.13859989 = sum of:
        0.11914036 = weight(_text_:theorien in 984) [ClassicSimilarity], result of:
          0.11914036 = score(doc=984,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.43572736 = fieldWeight in 984, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.046875 = fieldNorm(doc=984)
        0.019459534 = weight(_text_:der in 984) [ClassicSimilarity], result of:
          0.019459534 = score(doc=984,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.20941564 = fieldWeight in 984, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=984)
      0.33333334 = coord(2/6)
    
    Abstract
    Peter Singers »Praktische Ethik«, 1979 in erster Auflage erschienen, ist in seiner ebenso präzisen wie nachvollziehbaren Argumentationsstruktur ein Musterbeispiel für klares, philosophisches Denken. Besonders wichtig ist der von Singer eingeführte Begriff des Speziesismus (Menschen denken über Tiere anders, weil Tiere keine Menschen sind, obwohl es sachlich begründete Argumente gibt, genau dies nicht zu tun). Für Kontroversen sorgten seine Theorien über Sterbehilfe und Euthanasie. Für diese dritte Auflage hat der Autor den Band komplett durchgearbeitet und um ein neues Kapitel über den Klimawandel und die sich aus diesem ergebenden Verpflichtungen gegenüber kommenden Generationen ergänzt.
  16. Gerlach, A.; Prölß, P.: Forschungs-Verbunddatenbank "Provenienzforschung" (2012) 0.05
    0.045603674 = product of:
      0.13681102 = sum of:
        0.09553111 = weight(_text_:einzelne in 4890) [ClassicSimilarity], result of:
          0.09553111 = score(doc=4890,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.39017352 = fieldWeight in 4890, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=4890)
        0.041279905 = weight(_text_:der in 4890) [ClassicSimilarity], result of:
          0.041279905 = score(doc=4890,freq=18.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44423765 = fieldWeight in 4890, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4890)
      0.33333334 = coord(2/6)
    
    Abstract
    In den deutschen Bibliotheken befinden sich hunderttausende Bücher, die ihren rechtmäßigen Eigentümern in der Zeit der nationalsozialistischen Herrschaft entzogen wurden. Die Provenienzforschung steht vor der Aufgabe nicht nur diese Exemplare zu ermitteln, sondern für die Identifizierung der beraubten Eigentümer und deren Erben zu sorgen: mit dem klaren Ziel das NS-Raubgut zurückzugeben. Bücher einer Provenienz wurden zwischen Bibliotheken aufgeteilt und finden sich meist sogar innerhalb einer Einrichtung weit über den Bestand verteilt. Oft führen nur die Autopsie der Exemplare und eine genaue Erfassung der darin enthaltenen Spuren zu verwertbaren Informationen. Diese Provenienzhinweise, wie Stempel, Exlibris und Autogramme, müssen dann analysiert, mit bereits erfassten verglichen und alle ermittelten Namen mit den verschiedensten Quellen abgeglichen werden. Allein die große Anzahl an Büchern und potentiellen Eigentümern sowie die komplizierten Bücherwege führen dazu, dass eine einzelne Bibliothek diese Aufgabe nicht alleine lösen kann. Nur durch den Austausch der gefundenen Spuren, der gesicherten Rechercheergebnisse und der vermuteten Zusammenhänge, ist eine sinnvolle Provenienzrecherche möglich. Leider gibt es bis heute weder die technische Ausstattung noch Strukturen, die dies leisten können.
  17. Munzinger-Archiv GmbH: Standardwerke von Duden jetzt in Munzinger Online (2010) 0.05
    0.045527723 = product of:
      0.13658316 = sum of:
        0.03033788 = weight(_text_:der in 4084) [ClassicSimilarity], result of:
          0.03033788 = score(doc=4084,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.326484 = fieldWeight in 4084, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4084)
        0.10624529 = product of:
          0.21249057 = sum of:
            0.21249057 = weight(_text_:grammatik in 4084) [ClassicSimilarity], result of:
              0.21249057 = score(doc=4084,freq=4.0), product of:
                0.33637026 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.04159925 = queryNorm
                0.6317163 = fieldWeight in 4084, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4084)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Ab sofort bietet der Informationsdienstleister Munzinger-Archiv GmbH den Online-Zugriff auf drei Standardwerke von Duden. Auf www.munzinger.de können »Die deutsche Rechtschreibung«, das »Deutsche Universalwörterbuch« und »Das große Fremdwörterbuch« genutzt werden.
    Content
    "Schon bisher standen ausgewählte Duden-Publikationen in Munzinger Online zur Auswahl, jetzt erweitert Munzinger sein digitales Angebot: Die drei viel genutzten und anerkannten Duden-Publikationen können einzeln oder in beliebiger Kombination abonniert und mit bestehenden Abonnements in Munzinger Online verknüpft werden. »Dank der Integration der Standardwerke von Duden können wir unseren Kunden eine komplette, komfortable und zuverlässige Wissensdatenbank anbieten«, sagt Geschäftsführer Ernst Munzinger. Munzinger Online bietet Datenbanken mit Biografien von Personen aus Politik, Wirtschaft, Sport, Film, Literatur, Musik und Kultur sowie die Informationsdienste Länder, Gedenktage und die zeitgeschichtliche Chronik. Ergänzt wird das Angebot durch die Literaturdienste KLG und KLfG sowie die Komponisten-Datenbank KDG aus der edition text + kritik, die Brockhaus Enzyklopädie sowie die drei Duden-Publikationen. »Die deutsche Rechtschreibung« ist das Standardwerk, wenn es um Rechtschreibung und Grammatik geht. Mit rund 135000 Stichwörtern, mehr als 500000 Beispielen, Bedeutungserklärungen und Angaben zu Worttrennung, Aussprache, Grammatik, Etymologie und Stil lässt der Rechtschreib-Duden keine Frage offen. Das »Deutsche Universalwörterbuch« ist das umfassende Bedeutungswörterbuch der deutschen Gegenwartssprache. Es ersetzt in Munzinger Online das bisher angebotene »Große Wörterbuch der deutschen Sprache« von Duden und bietet einen einfachen und schnellen Zugriff auf alles Wissenswerte zur deutschen Sprache. »Das große Fremdwörterbuch« erklärt mehr als 85 000 aktuelle und traditionelle Fremd- und Fachwörter. Firmen und Institutionen können einen kostenlosen, zweiwöchigen Testzugang zu den Duden-Publikationen in Munzinger Online beantragen."
  18. Dreier, V.: Fotografien als empirische Daten (2013) 0.05
    0.045181446 = product of:
      0.13554433 = sum of:
        0.09928363 = weight(_text_:theorien in 911) [ClassicSimilarity], result of:
          0.09928363 = score(doc=911,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.36310613 = fieldWeight in 911, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0390625 = fieldNorm(doc=911)
        0.0362607 = weight(_text_:der in 911) [ClassicSimilarity], result of:
          0.0362607 = score(doc=911,freq=20.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.390223 = fieldWeight in 911, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=911)
      0.33333334 = coord(2/6)
    
    Abstract
    Fotografien werden in den deutschen Sozialwissenschaften vornehmlich als Objekte der Interpretation, Illustration, Exploration oder als mit Textlegenden versehene Dokumentationen sozialer Realität forschungspraktisch verwendet. Sehr selten werden Fotografien jedoch dezidiert als empirische Daten behandelt und in der empirischen Sozialforschung zur Generierung oder Überprüfung von Theorien eingesetzt. Dieser Umstand kann auf eine generelle Bilderfeindlichkeit wie bspw. in der deutschen Soziologie zurückgeführt werden oder auf die Annahme, class speziell Fotografien. zu vieldeutig und voraussetzungsgeladen sind, um ernsthaft als "empirische Daten" in. Betracht gezogen werden zu können. Diese Annahme ist jedoch ungerechtfertigt, wenn wir dazu kontrastierend die "konventionelle" Auffassung von empirischen Daten in der empirischen Sozialforschung einer wissenschaftstheoretischen Analyse unterziehen. Die Analysen zeigen, dass Fotografien, wenn sie Ergebnis eines kontrollierten und methodengeleiteten Konstruktionsprozesses sind, als empirische Daten bestimmt werden können. Sie besitzen die gleichen Merkmale wie "konventionelle" empirische Daten in der empirischen Sozialforschung, d.h. sie werden erst dann zu Informationen und Werkzeugen der Theoriegenerierung und -überprüfung, wenn wir sie mit Bedeutung versehen. Fotografien sind so, wie generell alle empirischen Daten, zunächst einmal potenziell ohne eine eigene, ihnen inhärente Bedeutung - jedoch nicht absolut, sondern theoriebeladen wie die wissenschaftliche Beobachtung selbst auch.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
    Source
    Wissen - Wissenschaft - Organisation: Proceedings der 12. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Bonn, 19. bis 21. Oktober 2009. Hrsg.: H.P. Ohly
  19. Sieben Fragen zu Bibliometrie : Antworten von Ilka Agricola, Friedrich Götze, Martin Grötschel, Klaus Hulek, Peter Michor, Gabriele Nebe, Hans Jürgen Prömel, Jens Vygen, Gerhard Woeginger (2017) 0.05
    0.045172594 = product of:
      0.13551778 = sum of:
        0.112584494 = weight(_text_:einzelne in 4216) [ClassicSimilarity], result of:
          0.112584494 = score(doc=4216,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.4598239 = fieldWeight in 4216, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4216)
        0.02293328 = weight(_text_:der in 4216) [ClassicSimilarity], result of:
          0.02293328 = score(doc=4216,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.2467987 = fieldWeight in 4216, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4216)
      0.33333334 = coord(2/6)
    
    Abstract
    Wissenschaftliche Institutionen und einzelne WissenschaftlerInnen werden zunehmend nach bibliometrischen Daten beurteilt. Jeder Mathematiker hat Vorbehalte gegenüber dieser Praxis. Über diese beiden Dinge waren sich alle TeilnemerInnen und Wortmeldungen des Panels zur Bibliometrie auf der DMV-Jahrestagung in Salzburg einig. Für einzelne WissenschaftlerInnen hat die IMU bereits 2014 (tinyurl.com/ycd7wvh7) die Vorbehalte gegenüber rein bibliometrischen Beurteilungen klar formuliert. Universitätsleitungen, Politik und andere bis hin zur öffentlichen Diskussion verlassen sich aber teilweise aif diese Art der Bewertung. Konkret kann das so aussehen: Zur Beurteilung von Departements zählt eine Universität Publikationen und gewichtet sie nach ihrer Güte. Die Güte entnimmt man einer Einteilung von Fachzeitschriften etwa in A, B und C. Liegt eine solche Einteilung nicht vor, sind alle Journale des Faches mit 1 gewichtet, d.h. 'junk'. Die Diskrepanz zwischen unserer Einschätzung und der allgemeinen Wirkmächtigkeit von Biblimetrie wirft für die DMV als Fachgegsellschaft die Frage auf, wie sie Einfluss nehmen kann und soll. Die 'Mitteilungen' versuchen an dieser Stelle zunächst, ein möglichst breites Meinungsbild zu sammeln. Wir haben sieben Fragen an eine Reihe von Kolleginnen und Kollegen gestellt, die am Panel teilgenmmen haben oder aus anderen Gründen mit dem Thema besfasst sind.
    Source
    Mitteilungen der Deutschen Mathematiker-Vereinigung. 2017, H.4, S.215-224
  20. Nassehi, A.: ¬Die letzte Stunde der Wahrheit : Kritik der komplexitätsvergessenen Vernunft (2017) 0.04
    0.044561185 = product of:
      0.13368355 = sum of:
        0.09928363 = weight(_text_:theorien in 4367) [ClassicSimilarity], result of:
          0.09928363 = score(doc=4367,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.36310613 = fieldWeight in 4367, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4367)
        0.03439992 = weight(_text_:der in 4367) [ClassicSimilarity], result of:
          0.03439992 = score(doc=4367,freq=18.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.37019804 = fieldWeight in 4367, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4367)
      0.33333334 = coord(2/6)
    
    Abstract
    Komplexität - mehr als ein Schlagwort! Eindimensionales Denken regiert eine mehrdimensionale Welt. Doch die Ära der Eindeutigkeiten geht zu Ende. An ihre Stelle tritt ein neues vernetztes Denken, das die Komplexität der Gesellschaft versteht und würdigt, statt sie zu bekämpfen. Die Welt scheint aus den Fugen zu geraten: Das Vertrauen in Politik schwindet, Märkte sind nur schwer zu bändigen, gesellschaftliche Konflikte werden kaum mehr zivilisiert geführt, Demokratie verliert ihre Integrationskraft, gesellschaftliche Selbstverständlichkeiten lösen sich auf. Wir bleiben verfangen in politischen und gesellschaftlichen Konzepten des 19. Jahrhunderts und scheitern damit an der erreichten Komplexität unserer Gesellschaft - im richtigen Leben ebenso wie auch in unseren Theorien und Denkkonzepten. Worum es geht, ist ein vernetztes Denken zu entwickeln, das mit Instabilität rechnet und Abweichungen liebt, das Komplexität nicht vermeidet und wegredet, sondern versteht und entfaltet und sie mit ihren eigenen Mitteln schlägt.
    BK
    71.02 Theorie der Soziologie
    Classification
    71.02 Theorie der Soziologie
    Footnote
    Das Buch ist eine grundlegend überarbeitete, in Teilen neu geschriebene und aktualisierte Ausgabe von "Die letzte Stunde der Wahrheit.Warum rechts und links keine Alternativen mehr sind und Gesellschaft ganz anders beschrieben werden muss" (2015).
    Issue
    Völlig überarbeitete und in Teilen neu beziehungsweise umgeschriebene Ausgabe von "Die letzte Stunde der Wahrheit" ; Illustration

Languages

  • d 1604
  • e 649
  • a 2
  • hu 1
  • no 1
  • More… Less…

Types

  • a 1767
  • el 425
  • m 278
  • x 77
  • s 63
  • r 26
  • n 8
  • b 7
  • i 2
  • p 2
  • v 2
  • l 1
  • ms 1
  • z 1
  • More… Less…

Themes

Subjects

Classifications