Search (402 results, page 1 of 21)

  • × language_ss:"d"
  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Schöneberg, U.; Gödert, W.: Erschließung mathematischer Publikationen mittels linguistischer Verfahren (2012) 0.13
    0.12779684 = product of:
      0.20447494 = sum of:
        0.031385876 = weight(_text_:und in 1055) [ClassicSimilarity], result of:
          0.031385876 = score(doc=1055,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.35989314 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.099063665 = weight(_text_:methoden in 1055) [ClassicSimilarity], result of:
          0.099063665 = score(doc=1055,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.48582888 = fieldWeight in 1055, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.031880606 = weight(_text_:der in 1055) [ClassicSimilarity], result of:
          0.031880606 = score(doc=1055,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.36271852 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.031385876 = weight(_text_:und in 1055) [ClassicSimilarity], result of:
          0.031385876 = score(doc=1055,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.35989314 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.010758916 = product of:
          0.032276746 = sum of:
            0.032276746 = weight(_text_:29 in 1055) [ClassicSimilarity], result of:
              0.032276746 = score(doc=1055,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23319192 = fieldWeight in 1055, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1055)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Die Zahl der mathematik-relevanten Publikationn steigt von Jahr zu Jahr an. Referatedienste wie da Zentralblatt MATH und Mathematical Reviews erfassen die bibliographischen Daten, erschließen die Arbeiten inhaltlich und machen sie - heute über Datenbanken, früher in gedruckter Form - für den Nutzer suchbar. Keywords sind ein wesentlicher Bestandteil der inhaltlichen Erschließung der Publikationen. Keywords sind meist keine einzelnen Wörter, sondern Mehrwortphrasen. Das legt die Anwendung linguistischer Methoden und Verfahren nahe. Die an der FH Köln entwickelte Software 'Lingo' wurde für die speziellen Anforderungen mathematischer Texte angepasst und sowohl zum Aufbau eines kontrollierten Vokabulars als auch zur Extraction von Keywords aus mathematischen Publikationen genutzt. Es ist geplant, über eine Verknüpfung von kontrolliertem Vokabular und der Mathematical Subject Classification Methoden für die automatische Klassifikation für den Referatedienst Zentralblatt MATH zu entwickeln und zu erproben.
    Date
    12. 9.2013 12:29:05
    Footnote
    Vortrag anlässlich der DMV-Tagung in Saarbrücken, 17.-20.09.2012.
  2. Saitta, E.: Algorithmische Ausnahmezustände : wie könnte eine aufständische Staatsbürgerschaft aussehen? (2017) 0.12
    0.122830465 = product of:
      0.24566093 = sum of:
        0.033426467 = weight(_text_:und in 3985) [ClassicSimilarity], result of:
          0.033426467 = score(doc=3985,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.38329202 = fieldWeight in 3985, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3985)
        0.03719404 = weight(_text_:der in 3985) [ClassicSimilarity], result of:
          0.03719404 = score(doc=3985,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4231716 = fieldWeight in 3985, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3985)
        0.14161396 = weight(_text_:sprach in 3985) [ClassicSimilarity], result of:
          0.14161396 = score(doc=3985,freq=2.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.5275882 = fieldWeight in 3985, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3985)
        0.033426467 = weight(_text_:und in 3985) [ClassicSimilarity], result of:
          0.033426467 = score(doc=3985,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.38329202 = fieldWeight in 3985, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3985)
      0.5 = coord(4/8)
    
    Abstract
    Das Netz ist kein Raum, der jenseits der Machtpolitiken von Nationalstaaten existiert: Leben und Internet sind heute untrennbar miteinander verknüpft. Welche Auswirkungen hat das auf das Konzept der Staatsbürgerschaft, auf die Rolle von politischen Akteuren und Formen des Widerstands? Die IT-Sicherheitsexpertin und politische Theoretikerin Eleanor Saitta, die zu diesen Fragen bei Berliner Gazette-Jahreskonferenz FRIENDLY FIRE einen Vortrag, unternimmt hier eine Bestandsaufnahme. Ein Interview.
    Content
    Eleanor Saitta sprach am 2.11.2017 auf dem Eröffnungs-Panel der Berliner-Gazette-Jahreskonferenz FRIENDLY FIRE. Eine Dokumentation der Konferenz kann hier abgerufen werden. Die Interview-Fragen oben stellte die Berliner Gazette-Redaktion. Übersetzung aus dem Englischen: Edward Viesel.
    Source
    Berliner Gazette: Kultur, Politik und Digitales. Vom 22.11.2017 [https://berlinergazette.de/politik-macht-und-widerstand-in-der-post-snowden-welt/]
  3. Knoll, A.: Kompetenzprofil von Information Professionals in Unternehmen (2016) 0.12
    0.11589661 = product of:
      0.18543458 = sum of:
        0.028651254 = weight(_text_:und in 3069) [ClassicSimilarity], result of:
          0.028651254 = score(doc=3069,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.328536 = fieldWeight in 3069, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3069)
        0.099063665 = weight(_text_:methoden in 3069) [ClassicSimilarity], result of:
          0.099063665 = score(doc=3069,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.48582888 = fieldWeight in 3069, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=3069)
        0.018406278 = weight(_text_:der in 3069) [ClassicSimilarity], result of:
          0.018406278 = score(doc=3069,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.20941564 = fieldWeight in 3069, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3069)
        0.028651254 = weight(_text_:und in 3069) [ClassicSimilarity], result of:
          0.028651254 = score(doc=3069,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.328536 = fieldWeight in 3069, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3069)
        0.010662131 = product of:
          0.031986393 = sum of:
            0.031986393 = weight(_text_:22 in 3069) [ClassicSimilarity], result of:
              0.031986393 = score(doc=3069,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23214069 = fieldWeight in 3069, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3069)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Zielsetzung - Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der vorliegenden Arbeit eine Begriffsbestimmung unternommen. Methode - Mit Hilfe dreier Methoden - einer Auswertung von relevanter Fachliteratur, der Untersuchung von einschlägigen Stellenausschreibungen und dem Führen von Experteninterviews - wird ein Kompetenzprofil für Information Professionals erstellt. Ergebnisse - Die 16 wichtigsten Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen sind IT-Kenntnisse, Sprachkenntnisse, Quellenkenntnisse, Recherchekenntnisse, Projektmanagement, Darstellungskompetenz, Problemlösungskompetenz, selbständiges Arbeiten, Kommunikationsfähigkeit, Teamfähigkeit, Servicementalität, Interkulturelle Kompetenz, Analytische Fähigkeiten, Eigenmarketing, Veränderungsbereitschaft und Stressresistenz. Schlussfolgerung - Die Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst. Ein Kompetenzrad kann als Visualisierung dienen.
    Date
    28. 7.2016 16:22:54
  4. Seefried, E.: ¬Die Gestaltbarkeit der Zukunft und ihre Grenzen : zur Geschichte der Zukunftsforschung (2015) 0.12
    0.115852095 = product of:
      0.18536335 = sum of:
        0.0354139 = weight(_text_:und in 4312) [ClassicSimilarity], result of:
          0.0354139 = score(doc=4312,freq=22.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.40608138 = fieldWeight in 4312, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.058373824 = weight(_text_:methoden in 4312) [ClassicSimilarity], result of:
          0.058373824 = score(doc=4312,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.2862774 = fieldWeight in 4312, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.04727663 = weight(_text_:der in 4312) [ClassicSimilarity], result of:
          0.04727663 = score(doc=4312,freq=38.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.5378853 = fieldWeight in 4312, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.0354139 = weight(_text_:und in 4312) [ClassicSimilarity], result of:
          0.0354139 = score(doc=4312,freq=22.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.40608138 = fieldWeight in 4312, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.00888511 = product of:
          0.02665533 = sum of:
            0.02665533 = weight(_text_:22 in 4312) [ClassicSimilarity], result of:
              0.02665533 = score(doc=4312,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.19345059 = fieldWeight in 4312, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4312)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Dieser Beitrag beleuchtet die Geschichte der Zukunftsforschung in der Bundesrepublik und in den westlichen Industriegesellschaften vom 19. Jahrhundert bis in die Gegenwart. Er charakterisiert die Vorläufer der modernen Zukunftsforschung am Beginn der europäischen "Hochmoderne" um 1900, stellt aber die Formierungs- und Transformationsphase der 1950er- bis frühen 1980er-Jahre in den Mittelpunkt. Zentrale Faktoren für die Konzeptionierung einer Meta-Disziplin Zukunftsforschung waren der Systemwettlauf des Kalten Krieges, welcher der Entwicklung von Methoden der Vorausschau und Planung Dynamik verlieh, und ein teilweise frappantes wissenschaftliches Vertrauen in diese neuen methodisch-theoretischen Zugänge und Techniken der Vorausschau - insbesondere die Kybernetik -, welche die Zukunft prognostizierbar und damit plan- und steuerbar zu machen schienen. Den Kontext bildeten eine gesellschaftliche Aufbruchstimmung und eine hohe politische Technik- und Planungsaffinität der 1960er-Jahre, welche das Verständnis der Zukunftsforschung bestärkten, dass der Mensch aus der Fülle der möglichen Zukünfte wählen und so die Zukunft geradezu frei gestalten könne. Dieses überzogene Machbarkeitsdenken betraf insbesondere die bundesdeutsche Zukunftsforschung. In den 1970er-Jahren wurden allerdings die Grenzen dieses Anspruchs deutlich. In der Folge pragmatisierte sich die Zukunftsforschung in methodischer Hinsicht. Nicht zuletzt trug dieser übersteigerte Machbarkeitsglaube der 1960er-Jahre dazu bei, dass die Zukunftsforschung in der Bundesrepublik lange wenig institutionalisiert war.
    Date
    22. 6.2018 13:47:33
  5. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.10
    0.1042895 = product of:
      0.1668632 = sum of:
        0.0354139 = weight(_text_:und in 4599) [ClassicSimilarity], result of:
          0.0354139 = score(doc=4599,freq=22.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.40608138 = fieldWeight in 4599, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.058373824 = weight(_text_:methoden in 4599) [ClassicSimilarity], result of:
          0.058373824 = score(doc=4599,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.2862774 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.028695825 = weight(_text_:der in 4599) [ClassicSimilarity], result of:
          0.028695825 = score(doc=4599,freq=14.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.326484 = fieldWeight in 4599, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.0354139 = weight(_text_:und in 4599) [ClassicSimilarity], result of:
          0.0354139 = score(doc=4599,freq=22.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.40608138 = fieldWeight in 4599, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.008965762 = product of:
          0.026897287 = sum of:
            0.026897287 = weight(_text_:29 in 4599) [ClassicSimilarity], result of:
              0.026897287 = score(doc=4599,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.19432661 = fieldWeight in 4599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4599)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
    Date
    13.12.2018 13:29:07
  6. Gillitzer, B.: Yewno (2017) 0.10
    0.10300389 = product of:
      0.16480622 = sum of:
        0.030799175 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.030799175 = score(doc=3447,freq=26.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.06604244 = weight(_text_:methoden in 3447) [ClassicSimilarity], result of:
          0.06604244 = score(doc=3447,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.32388592 = fieldWeight in 3447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.030057326 = weight(_text_:der in 3447) [ClassicSimilarity], result of:
          0.030057326 = score(doc=3447,freq=24.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.34197432 = fieldWeight in 3447, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.030799175 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.030799175 = score(doc=3447,freq=26.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.007108088 = product of:
          0.021324264 = sum of:
            0.021324264 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.021324264 = score(doc=3447,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
  7. Hensinger, P.: Trojanisches Pferd "Digitale Bildung" : Auf dem Weg zur Konditionierungsanstalt in einer Schule ohne Lehrer? (2017) 0.10
    0.09594135 = product of:
      0.15350616 = sum of:
        0.031961814 = weight(_text_:und in 5000) [ClassicSimilarity], result of:
          0.031961814 = score(doc=5000,freq=28.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.36649725 = fieldWeight in 5000, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.04669906 = weight(_text_:methoden in 5000) [ClassicSimilarity], result of:
          0.04669906 = score(doc=5000,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.22902192 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.03577537 = weight(_text_:der in 5000) [ClassicSimilarity], result of:
          0.03577537 = score(doc=5000,freq=34.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.40703082 = fieldWeight in 5000, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.031961814 = weight(_text_:und in 5000) [ClassicSimilarity], result of:
          0.031961814 = score(doc=5000,freq=28.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.36649725 = fieldWeight in 5000, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.007108088 = product of:
          0.021324264 = sum of:
            0.021324264 = weight(_text_:22 in 5000) [ClassicSimilarity], result of:
              0.021324264 = score(doc=5000,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.15476047 = fieldWeight in 5000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5000)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Wir hatten schon viele Schulreformen, und nun wird von der Kultusministerkonferenz eine weitere angekün-digt, die "Digitale Bildung": Unterricht mit digitalen Medien wie Smartphone und Tablet-PC über WLAN.1Medien und Bildungspolitiker predigen Eltern, ihre Kinder seien in Schule und Beruf chancenlos, wenn sie nicht schon in der Grundschule Apps programmieren lernen.Die Hauptinitiative der Digitalisierung der Bildung kommt von der IT-Branche. Im Zwischenbericht der Platt-form "Digitalisierung in Bildung und Wissenschaft" steht, wer das Bundeswissenschaftsministerium berät - nämlich Akteure der IT-Wirtschaft: Vom Bitkom, der Gesellschaft für Informatik (GI) über Microsoft, SAP bis zur Telekom sind alle vertreten (BUNDESMINISTERIUM 2016:23). Nicht vertreten dagegen sind Kinderärzte, Päda-gogen, Lernpsychologen oder Neurowissenschaftler, die sich mit den Folgen der Nutzung von Bildschirm-medien bei Kindern und Jugendlichen beschäftigen. Die New York Times schlägt in einer Analyse Alarm: "How Google Took Over the Classroom" (13.05.2017).2 Mit ausgeklügelten Methoden, den Hype um digitale Medien nutzend, greift Google nach der Kontrolle des US-Bildungswesens, auch der Kontrolle über die Inhalte. Wer bei der Analyse und Bewertung dieser Entwicklung nur fragt "Nützen digitale Medien im Unterricht?", verengt den Blick, reduziert auf Methodik und Didaktik und schließt Gesamtzusammenhänge aus. Denn die digitalen Medien sind mehr als nur Unterrichts-Hilfsmittel. Diesen Tunnelblick weitet die IT-Unternehmerin Yvonne Hofstetter. Sie schreibt in ihrem Buch "Das Ende der Demokratie": "Mit der Digitalisierung verwandeln wir unser Leben, privat wie beruflich, in einen Riesencomputer. Alles wird gemessen, gespeichert, analysiert und prognostiziert, um es anschließend zu steuern und zu optimieren"(HOFSTETTER 2016:37). Grundlage dafür ist das Data-Mining - das Sammeln von Daten - für BigData Analysen. Die Haupt-Schürfwerkzeuge dazu sind dasSmartphone, der TabletPC und das WLAN-Netz.
    Content
    Vgl. auch: Häring, N. u. Hensinger, P.: "Digitale Bildung": Der abschüssige Weg zur Konditionierungsanstalt. Unter: http://norberthaering.de/de/27-german/news/1100-digitale-bildung [27.01.2019].
    Date
    22. 2.2019 11:45:19
    Issue
    Ein Vortrag zu den Bestrebungen von Google, Apple, Microsoft, Bertelsmann und der Telekom, die Bildung in die Hand zu bekommen. Und warum fast keiner diese Unterwanderung bemerkt..
  8. Jellen, R.: Wissen ohne Relevanz : Philosophen über Leben und Technik (2015) 0.09
    0.094750114 = product of:
      0.18950023 = sum of:
        0.041847836 = weight(_text_:und in 3370) [ClassicSimilarity], result of:
          0.041847836 = score(doc=3370,freq=48.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.47985753 = fieldWeight in 3370, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3370)
        0.06604244 = weight(_text_:methoden in 3370) [ClassicSimilarity], result of:
          0.06604244 = score(doc=3370,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.32388592 = fieldWeight in 3370, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=3370)
        0.039762102 = weight(_text_:der in 3370) [ClassicSimilarity], result of:
          0.039762102 = score(doc=3370,freq=42.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.45238948 = fieldWeight in 3370, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3370)
        0.041847836 = weight(_text_:und in 3370) [ClassicSimilarity], result of:
          0.041847836 = score(doc=3370,freq=48.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.47985753 = fieldWeight in 3370, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3370)
      0.5 = coord(4/8)
    
    Abstract
    Haben sich Geisteswissenschaftler zu lange im postmodernen Dogmatismus ausgeruht und nichts wirklich Neues auf die Beine gestellt? Haben sie mit unscharfen "Buh-Wörtern" wie "Szientismus" und "Reduktionismus" Strohmänner aufgebaut, die es in der Wirklichkeit gar nicht gibt, die sich dafür aber umso besser angreifen und zerlegen lassen? Haben sie die auf neuen Möglichkeiten, die die Neurowissenschaften, die Verhaltensgenetik oder die digitale Technik boten, lediglich mit behäbiger Abscheu und mit Tabus reagiert und sich in ihren abgehobenen Elfenbeinturm zurückgezogen? Um das herauszufinden, hat Reinhard Jellen mit zehn Philosophen gesprochen: Der Wissenschaftsphilosoph Klaus Mainzer klärt ihn darüber auf, wie er mit Big Data und der Algorithmisierung der Welt umgeht. Thomas Metzinger zeigt, wie man in seinem Fach an den Schnittstellen zur Hirnforschung operiert. Klaus Kornwachs, der Physiker und Philosoph ist, legt dar, warum er glaubt, dass die Philosophie Probleme nicht direkt lösen, aber das Bewusstsein dafür schärfen kann. Und der Moralforscher Rainer Hegselmann glaubt, dass die Computersimulation "schon bald zum Methoden-Kanon einer Philosophie gehört, die auf der Höhe der Zeit sein will". Der Marxist Reinhard Meiners schwärmt dagegen nicht etwa von der Entwicklung der Produktivkräfte, sondern bemängelt eine "Fortschritts- und Wachstumsideologie". Eher skeptisch zeigt sich auch die Foucault-Expertin Petra Gehring, die der Philosophie nur eine begrenzte Vermittlungsfunktion zur Naturwissenschaft zubilligt. Der Literatur- und Medienwissenschaftler Joseph Vogl betrachtet Philosophie und Naturwissenschaft sogar als "zwei getrennte Kontinente". Der Derrida-Fachmann Hans-Jörg Rheinberger hat die Trennung als historisches Faktum akzeptiert. Für mehr Verwissenschaftlichung spricht sich hingegen der Münsteraner Tractatus-Preisträger Kurt Bayertz aus, der zugibt, dass sich die Philosophie zu "Weltfremdheiten" verleiten ließ.
    Content
    - "Der Philosophie kommt die Aufgabe der Kommunikation zu" - Klaus Mainzer über "Big Data" und die Algorithmisierung der Welt - "Eine Welt am Rande des Nervenzusammenbruchs" - Petra Gehring über die begrenzte Vermittlungsfunktion der Philosophie - Die normative Dimension - Thomas Metzinger über Philosophie, Gehirnforschung und marktkonforme Wissenschaften - Bewusstseinsschärfung statt direkte Problemlösung - Klaus Kornwachs über Philosophie, Technik und den Ideologiecharakter der Wirtschaftswissenschaften - "Zwei getrennte Kontinente" - Joseph Vogl über das Verhältnis von Wissen, Philosophie und Wissenschaft - Nachhaltigkeit und Naturwissenschaft - Reinhard Meiners über Ethik und Technik - Trennung als historisches Faktum akzeptieren - Hans-Jörg Rheinberger über Philosophie, Wissenschaft, das Experiment und Jacques Derrida - Gewinn aus Verwissenschaftlichung - Kurt Bayertz über Berührungspunkte und Trennendes in Wissenschaft und Philosophie - Umsichgreifen des Spezialistentums - Michael Hampe über die Professionalisierung in Philosophie und Wissenschaft und über wissenschaftliche Umbrüche - Digitaler Methoden-Kanon - Rainer Hegselmann über Philosophie und Computersimulation Vgl.: URN: urn:nbn:de:101:1-20150723405.
  9. Baierer, K.; Zumstein, P.: Verbesserung der OCR in digitalen Sammlungen von Bibliotheken (2016) 0.09
    0.09364355 = product of:
      0.1872871 = sum of:
        0.02959089 = weight(_text_:und in 2818) [ClassicSimilarity], result of:
          0.02959089 = score(doc=2818,freq=6.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.33931053 = fieldWeight in 2818, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
        0.09339812 = weight(_text_:methoden in 2818) [ClassicSimilarity], result of:
          0.09339812 = score(doc=2818,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.45804384 = fieldWeight in 2818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
        0.034707207 = weight(_text_:der in 2818) [ClassicSimilarity], result of:
          0.034707207 = score(doc=2818,freq=8.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.3948779 = fieldWeight in 2818, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
        0.02959089 = weight(_text_:und in 2818) [ClassicSimilarity], result of:
          0.02959089 = score(doc=2818,freq=6.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.33931053 = fieldWeight in 2818, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
      0.5 = coord(4/8)
    
    Abstract
    Möglichkeiten zur Verbesserung der automatischen Texterkennung (OCR) in digitalen Sammlungen insbesondere durch computerlinguistische Methoden werden beschrieben und bisherige PostOCR-Verfahren analysiert. Im Gegensatz zu diesen Möglichkeiten aus der Forschung oder aus einzelnen Projekten unterscheidet sich die momentane Anwendung von OCR in der Bibliothekspraxis wesentlich und nutzt das Potential nur teilweise aus.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/155/353.
  10. Mache, B.; Klaffki, L.: ¬Das DARIAH-DE Repository : Elementarer Teil einer modularen Infrastruktur für geistes- und kulturwissenschaftliche Forschungsdaten (2018) 0.09
    0.0880046 = product of:
      0.1760092 = sum of:
        0.039550725 = weight(_text_:und in 4485) [ClassicSimilarity], result of:
          0.039550725 = score(doc=4485,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 4485, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4485)
        0.08172335 = weight(_text_:methoden in 4485) [ClassicSimilarity], result of:
          0.08172335 = score(doc=4485,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.40078837 = fieldWeight in 4485, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4485)
        0.015184403 = weight(_text_:der in 4485) [ClassicSimilarity], result of:
          0.015184403 = score(doc=4485,freq=2.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.17275909 = fieldWeight in 4485, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4485)
        0.039550725 = weight(_text_:und in 4485) [ClassicSimilarity], result of:
          0.039550725 = score(doc=4485,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 4485, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4485)
      0.5 = coord(4/8)
    
    Abstract
    DARIAH-DE unterstützt mit digitalen Ressourcen und Methoden arbeitende Geistes- und Kulturwissenschaftler/innen in Forschung und Lehre. Forschungsdaten und Wissenschaftliche Sammlungen haben dabei eine zentrale Bedeutung. Im Rahmen einer Forschungsdaten-Föderationsarchitektur stehen eine Reihe von Werkzeugen zur Verfügung, mit denen Daten gefunden, vernetzt, publiziert und archiviert werden können. Hierzu zählt auch das DARIAH-DE Repository, das den Forschenden eine sichere, langfristige und nachhaltige Speicherung sowie die Veröffentlichung der Forschungsdaten ermöglicht.
  11. Haake, E.; Blenkle, M.; Ellis, R.; Zillmann, H.: Nur die ersten Drei zählen! : Optimierung der Rankingverfahren über Popularitätsfaktoren bei der Elektronischen Bibliothek Bremen (E-LIB) (2015) 0.09
    0.08720589 = product of:
      0.17441177 = sum of:
        0.03624129 = weight(_text_:und in 2150) [ClassicSimilarity], result of:
          0.03624129 = score(doc=2150,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41556883 = fieldWeight in 2150, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2150)
        0.070048586 = weight(_text_:methoden in 2150) [ClassicSimilarity], result of:
          0.070048586 = score(doc=2150,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 2150, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=2150)
        0.031880606 = weight(_text_:der in 2150) [ClassicSimilarity], result of:
          0.031880606 = score(doc=2150,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.36271852 = fieldWeight in 2150, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2150)
        0.03624129 = weight(_text_:und in 2150) [ClassicSimilarity], result of:
          0.03624129 = score(doc=2150,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41556883 = fieldWeight in 2150, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2150)
      0.5 = coord(4/8)
    
    Abstract
    Seit Einführung der neuen Discovery-Kataloge stehen unseren Nutzerinnen und Nutzern zusätzlich Millionen von Dokumenten neben dem lokalen Buchbestand zur Verfügung. Diese Zielgruppe muss in die Lage versetzt werden, die für sie relevanten Titel einfach und sicher zu finden. Die Qualität von Empfehlungsfunktionen und besonders der Relevanz-Ranking-Methoden sind daher für den Erfolg eines Discovery-Systems besonders wichtig. Das Ranking bibliothekarischer Suchmaschinentechnik ignoriert bisher das Feedback durch Nutzerinnen und Nutzer. Die Staats- und Universitätsbibliothek Bremen (SuUB) setzt mit dem in Bremen entwickelten Discovery-System "E-LIB" seit Sommer 2011 zusätzlich auf eine Modifikation des Treffer-Rankings über Popularitätsfaktoren der Medien wie Klickstatistik, Auflagen- und Exemplarzahl. Die maßgeschneiderte Entwicklung eines eigenen Bibliothekskataloges, den die SuUB seit 2004 mit dem Discovery-System "E-LIB" in Bremen betreibt, erlaubt die schnelle und flexible Anpassung von Retrievalfunktionen an die Bedürfnisse der Nutzerinnen und Nutzer vor Ort.
  12. ¬Der Katalog der Zukunft : Teil 3 (2010) 0.08
    0.078979105 = product of:
      0.15795821 = sum of:
        0.021140752 = weight(_text_:und in 4037) [ClassicSimilarity], result of:
          0.021140752 = score(doc=4037,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.24241515 = fieldWeight in 4037, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4037)
        0.08172335 = weight(_text_:methoden in 4037) [ClassicSimilarity], result of:
          0.08172335 = score(doc=4037,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.40078837 = fieldWeight in 4037, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4037)
        0.033953357 = weight(_text_:der in 4037) [ClassicSimilarity], result of:
          0.033953357 = score(doc=4037,freq=10.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.38630107 = fieldWeight in 4037, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4037)
        0.021140752 = weight(_text_:und in 4037) [ClassicSimilarity], result of:
          0.021140752 = score(doc=4037,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.24241515 = fieldWeight in 4037, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4037)
      0.5 = coord(4/8)
    
    Abstract
    Am 11.11. fand an der UB Stuttgart die Fortbildungsveranstaltung "Der Katalog der Zukunft (Teil 3): Die Benutzer in den Mittelpunkt!" statt, die gemeinsam vom VDB-Regionalverband Südwest und dem BIB Baden-Württemberg organisiert wurde.
    Content
    Beiträge: Leonhard Maylein (UB Heidelberg): Dauerbaustelle OPAC? - HEIDI hält sich fit für die Zukunft / Martin Blenkle (SuUB Bremen): 10 Jahre E-LIB Bremen - Erfahrungen beim Betrieb eines etwas anderen Kataloges / Sonja Öttl (HTW Chur): Usability in Bibliothekskatalogen - Werkzeuge, Methoden und Erfahrungen / Hans-Bodo Pohla (Stadtbibliothek Amberg): Mit einer App zum Katalog? - Kataloganwendungen für mobile Endgeräte / Heidrun Wiesenmüller (HdM Stuttgart): Erschließungsdaten besser nutzen - geographische Recherche mit SWD-Ländercodes / Harald Reiterer (Universität Konstanz): Blended Library - mögliche neue Einsatzformen von IKT im Bibliotheksbereich
  13. axk: Fortschritt im Schneckentempo : die Deutsche Digitale Bibliothek (2012) 0.08
    0.078764684 = product of:
      0.15752937 = sum of:
        0.023636078 = weight(_text_:und in 313) [ClassicSimilarity], result of:
          0.023636078 = score(doc=313,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.27102837 = fieldWeight in 313, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
        0.03945024 = weight(_text_:der in 313) [ClassicSimilarity], result of:
          0.03945024 = score(doc=313,freq=54.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.44884127 = fieldWeight in 313, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
        0.07080698 = weight(_text_:sprach in 313) [ClassicSimilarity], result of:
          0.07080698 = score(doc=313,freq=2.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.2637941 = fieldWeight in 313, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
        0.023636078 = weight(_text_:und in 313) [ClassicSimilarity], result of:
          0.023636078 = score(doc=313,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.27102837 = fieldWeight in 313, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
      0.5 = coord(4/8)
    
    Content
    "Die Bestände von rund 30.000 deutschen Kulturinstitutionen sollen als Online-Kopie zukünftig in der Deutschen Digitalen Bibliothek (DDB) zu finden sein. Doch dahin scheint es noch ein langer Weg zu sein: Das Online-Portal läuft bislang nur im internen Testbetrieb. Und die öffentliche Hand kann den Aufwand für die Digitalisierung der ganzen Werke kaum alleine stemmen, wie Kulturstaatsminister Bernd Neumann (CDU) bereits mehrfach betonte. Um die Verwandlung von gemeinfreien Kulturgütern in Bits und Bytes schneller voranzubringen, sollte über eine im April 2011 veröffentlichte Ausschreibung ein großes Unternehmen als Digitalisierungspartner gewonnen werden. Der Konzessionsinhaber hätte dann die Rahmenvereinbarung abnicken und auf dieser Basis die Verträge mit den einzelnen Kulturinstitutionen aushandeln müssen. Bei der Digitalisierung hätte der potentielle Partner aus der Wirtschaft der jeweiligen Einrichtung eine digitale Kopie überlassen müssen und ein nicht-exklusives Verwertungsrecht an der eigenen Kopie erhalten - all das auf "eigenes wirtschaftliches Risiko". Informierten Kreisen zufolge war diese Ausschreibung von vornherein auf den Suchmaschinenriesen Google zugeschnitten. Der kooperiert seit 2007 mit der Bayerischen Staatsbibliothek und digitalisiert auf eigene Kosten urheberrechtsfreie Bücher aus deren Beständen. Man ging wohl davon aus, dass sich Google aus Imagegründen auch für die unattraktiv gestaltete Lizenz zur deutschlandweiten Digitalisierung interessieren würde - was aber nicht der Fall war. Stattdessen musste die Ausschreibung mangels passender Bewerber erfolglos zurückgezogen werden, wie im Juni 2012 bekannt gemacht wurde. Neue Ausschreibungen für exklusive Partnerschaften soll es laut der Pressestelle des Kulturstaatsminister nicht geben, aber einzelne Kooperationen mit verschiedenen Unternehmen. Hier sollen bereits Verhandlungen mit nicht weiter benannten Interessenten laufen.
    Immer wieder in die Kritik gerät die angesetzte Finanzierung der DDB: So sind seit 2011 jährlich 2,6 Millionen Euro für den Betrieb der Plattform vorgesehen, für die Digitalisierung von Inhalten stehen aber keine direkten Bundesmittel zur Verfügung. Dr. Ellen Euler zufolge, der Geschäftsführerin der Deutschen Digitalen Bibliothek, seien Aufstockungen zumindest im Gespräch. Von den Dimensionen der 750 Millionen Euro, die der damalige französische Premier Nicholas Sarkozy für die Digitalisierung in seinem Land zusagte, dürfte man jedoch noch weit entfernt sein. Derzeit wird die Digitalisierung der Inhalte vor allem von den Ländern und den ihnen unterstellten Einrichtungen vorangetrieben. So plant etwa das Land Berlin laut einer parlamentarischen Anfrage (PDF-Datei) 2012 und 2013 jeweils 900.000 Euro für ein eigenes "Kompetenzzentrum Digitalisierung" bereitzustellen, das die Arbeit von Bibliotheken, Archiven und Museen koordinieren soll. Inwgesamt richte sich ein Großteil der Bemühungen der Länder auf vom Verfall bedrohte Bestände, wie Dr. Euler verriet. Eine übergreifende Strategie seitens der Bundesregierung, wie sie auch von der Opposition gefordert wurde, gibt es derzeit nicht.
    Der Anfang des Jahres vom Bundestag beschlossene Antrag für eine "Digitalisierungsoffensive" (PDF-Datei) überlässt es "vor allem auch Angebot und Nachfrage", was digitalisiert wird. Für den Ausgleich der Interessen sollen dabei das Kompetenznetzwerk Deutsche Digitale Bibliothek sorgen, in dem 13 große Einrichtungen vertreten sind, sowie ein Kuratorium mit Vertretern aus Bund, Länder und Kommunen. Immerhin plant die DDB laut Euler ein zentrales Register, mit dem die verschiedenen Institutionen ihre Vorhaben abgleichen könnten, um unnötige Doppeldigitalisierungen zu vermeiden. Nach wie vor offen ist auch noch, wann die Beta-Version der DDB nun endlich öffentlich zugänglich gemacht wird: Ursprünglich für Ende 2011 angekündigt, nennt die Webseite des Kulturstaatsministers zur Stunde noch das inzwischen abgelaufene zweite Quartal 2012 als Starttermin. Dr. Euler von der DDB sprach vom Herbst 2012, im September werde möglicherweise ein konkreter Termin bekanntgegeben."
  14. Hartmann, S.; Haffner, A.: Linked-RDA-Data in der Praxis (2010) 0.07
    0.07318095 = product of:
      0.1463619 = sum of:
        0.02959089 = weight(_text_:und in 1679) [ClassicSimilarity], result of:
          0.02959089 = score(doc=1679,freq=6.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.33931053 = fieldWeight in 1679, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1679)
        0.030057326 = weight(_text_:der in 1679) [ClassicSimilarity], result of:
          0.030057326 = score(doc=1679,freq=6.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.34197432 = fieldWeight in 1679, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1679)
        0.02959089 = weight(_text_:und in 1679) [ClassicSimilarity], result of:
          0.02959089 = score(doc=1679,freq=6.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.33931053 = fieldWeight in 1679, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1679)
        0.057122793 = product of:
          0.08568419 = sum of:
            0.04303566 = weight(_text_:29 in 1679) [ClassicSimilarity], result of:
              0.04303566 = score(doc=1679,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.31092256 = fieldWeight in 1679, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1679)
            0.042648528 = weight(_text_:22 in 1679) [ClassicSimilarity], result of:
              0.042648528 = score(doc=1679,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.30952093 = fieldWeight in 1679, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1679)
          0.6666667 = coord(2/3)
      0.5 = coord(4/8)
    
    Abstract
    Durch den neuen Erschließungsstandard "Resource Description and Access" (RDA) lassen sich bibliografische Daten sowie Normdaten Semantic-Web-konform repräsentieren. Der Vortrag soll aufzeigen, welche Auswirkungen RDA auf die Katalogisierung in Bibliotheken und den Zugang zu den erschlossenen Ressourcen im Semantic Web hat. Anhand erster Erfahrungen aus praktischen Umsetzungen wird erläutert, wie bibliografische Daten durch RDA und Linked-Data-Technologien besser zugänglich gemacht und vor allem nachgenutzt werden können.
    Content
    Vortrag, anlässlich der SWIB 2010, 29./30.11.2010 in Köln.
    Date
    13. 2.2011 20:22:23
  15. Tappenbeck, I.; Franke, F.: Qualifikationsprofil "Teaching Librarian" : Anforderungen und Schwerpunkte einer praxisbezogenen Qualifikation für die Vermittlung von Informationskompetenz (2017) 0.07
    0.07214521 = product of:
      0.14429042 = sum of:
        0.047272157 = weight(_text_:und in 3998) [ClassicSimilarity], result of:
          0.047272157 = score(doc=3998,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.54205674 = fieldWeight in 3998, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3998)
        0.03719404 = weight(_text_:der in 3998) [ClassicSimilarity], result of:
          0.03719404 = score(doc=3998,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4231716 = fieldWeight in 3998, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3998)
        0.047272157 = weight(_text_:und in 3998) [ClassicSimilarity], result of:
          0.047272157 = score(doc=3998,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.54205674 = fieldWeight in 3998, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3998)
        0.012552067 = product of:
          0.0376562 = sum of:
            0.0376562 = weight(_text_:29 in 3998) [ClassicSimilarity], result of:
              0.0376562 = score(doc=3998,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.27205724 = fieldWeight in 3998, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3998)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Der Beitrag stellt das in Zusammenarbeit zwischen Expertinnen und Experten aus Bibliotheken und Hochschulen erarbeitete Qualifikationsprofil "Teaching Librarian" vor und präsentiert die Ergebnisse einer Online-Befragung unter Vertreterinnen und Vertretern der bibliothekarischen Berufspraxis zu der Relevanz der darin aufgeführten Kenntnisse und Fähigkeiten für die verschiedenen bibliothekarischen Qualifikationsstufen. Darauf aufbauend zeigt er Wege auf, diese von der Praxis geforderten Kenntnisse und Fähigkeiten in Studium und Ausbildung praxisbezogen zu vermitteln. Hochschulen und Ausbildungseinrichtungen erhalten dadurch eine Orientierungshilfe für die Weiterentwicklung ihrer Curricula und die Gestaltung ihrer Lehre im Bereich der Vermittlung von Informationskompetenz.
    Date
    18.12.2017 13:53:29
  16. Rieble, V.: Wer hat die Wissensbilanz erfunden? (2011) 0.07
    0.070046514 = product of:
      0.14009303 = sum of:
        0.032474935 = weight(_text_:und in 4430) [ClassicSimilarity], result of:
          0.032474935 = score(doc=4430,freq=74.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.37238106 = fieldWeight in 4430, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4430)
        0.041276526 = weight(_text_:methoden in 4430) [ClassicSimilarity], result of:
          0.041276526 = score(doc=4430,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.2024287 = fieldWeight in 4430, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4430)
        0.03386663 = weight(_text_:der in 4430) [ClassicSimilarity], result of:
          0.03386663 = score(doc=4430,freq=78.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.3853143 = fieldWeight in 4430, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4430)
        0.032474935 = weight(_text_:und in 4430) [ClassicSimilarity], result of:
          0.032474935 = score(doc=4430,freq=74.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.37238106 = fieldWeight in 4430, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4430)
      0.5 = coord(4/8)
    
    Abstract
    Plagiate sind besonders pikant, wenn sie von Ministerien verantwortet werden. Original und Weiterentwicklung sind kaum noch zu unterscheiden, die Quelle bleibt ungenannt.
    Content
    "14. Mai 2011 - Wissensbilanzen sind ein Instrument des Wissensmanagements: Es geht darum, das in Organisationen und also in Unternehmen vorhandene individuelle und kollektive (organisationale) Humankapital zu erfassen und als Ressource nutzbar zu machen. Deutsche haben die Nase gefühlt vorn und feiern dies nächste Woche mit dem Kongress "Standortvorteil Wissen" in Berlin (am 19. und 20. Mai). 2004 hat das Wirtschaftsministerium erkannt, dass Wissensgesellschaften im Wissenswettbewerb stehen und dabei eigenes und fremdes Wissen in höchst komplexer Weise erfassen, steuern und nutzen müssen. Den steuernd-strategischen Wissenszugriff zugunsten des eigenen Wissensstandortes hat das Ministerium in größtmöglicher wissender Weitsicht gemeinsam mit dem Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik (IPK) entwickelt. Im Zentrum steht die Wissensbilanz, die 2004 und 2005 in einer vom Ministerium herausgegebenen und von IPK-Wissenschaftlern verfassten Broschüre "Wissensbilanz - Made in Germany" vorgestellt wird. 2008 erscheint die "Wissensbilanz 2.0", wieder mit dem Herstellungszusatz (online abrufbar). Das Projekt ist auf Wissenstransfer ausgelegt und wird vermarktet: Wissensmoderatoren stehen zum kostenpflichtigen Einsatz auch in Ihrem Unternehmen bereit.
    Die Wissensbilanz hat einen hübschen Nebeneffekt: Sie kann helfen, Plagiate abzuwehren, weil das Wissen um das eigene Wissen steigt und Schutzvorkehrungen gegen Wissensdiebe installiert werden können. So weit, so schön. Beim Feiern eigener Wissensbewirtschaftungserfolge bleibt die Skepsis ausgeschlossen. Skepsis in der Sache heißt: Wie kann ich wissen, was ich weiß? Was ist überhaupt "Wissen"? Ist das organisationale Wissen nicht ein zu komplexes Phänomen, als dass jede konkrete Aussage eine (unzulässige) Wissensanmaßung bedeutet - wie das von Hayek mit Blick auf Marktverhältnisse herausgearbeitet hat? Ist nicht für ein solches Wissensbilanzsystem der mathematisch-formale Unvollständigkeitssatz von Gödel aufzugreifen: Wenn kein Aussagensystem eine valide Aussage über sich selbst treffen kann, dann ist die Aussage über das vorhandene organisationale Wissen in der Organisation von dieser selbst gerade nicht zu leisten. Man kann nicht selbst wissen, was man weiß. Damit erzeugen der "ganzheitliche" Anspruch und die fehlende Messbarkeit eine wabernde Wissensunschärfe! - Der Werbespruch "Made in Germany" ist eine Täuschung Der vom Wissenschaftsministerium tönende Werbespruch "Made in Germany" ist nicht bloß anmaßend, sondern eine Täuschung. Wer bei Wikipedia unter Wissensbilanz zu suchen anfängt, dem wird offenbar, dass es sich mitnichten um eine deutsche Erfindung oder gar ein deutsches Konzept handelt. Die Ricola-Frage "Wer hat's erfunden?" darf diesmal aus Österreich gestellt werden: Neu ist der Ansatz von Wirtschaftsministerium und Fraunhofer-Institut nämlich nicht. Die Idee, solches "Intellectual Capital" als Wert zu erfassen und in den Finanzbericht einzustellen (IC Reporting), stammt aus Skandinavien (Sveiby, Edvinsson, Mouritsen). Der wesentliche Schritt zu einer komplexen "mehrdimensionalen" und steuerungstauglichen Methode wurde im Austrian Research Center (ARC, heute: AIT Austrian Institute of Technology) getan und schon 2000 publiziert (Koch, Leitner und Bornemann in einem Papier für die OECD-Konferenz). Die "Wissensstrategie" fordert strategische Wissensziele; das Wissenspotential wird verstanden als "Humankapital", "Beziehungskapital" und "Strukturkapital". Entscheidend aber ist die Prozesssteuerung, also die dynamische Betrachtung, die es den Organisationen erlaubt, ihr Wissenskapital gezielt zu erhalten und zu vermehren. Schon 2002 wurde daraus eine gesetzliche Verpflichtung für österreichische Universitäten zur Wissensbilanzierung.
    Das "deutsche" Modell ist, um es vorsichtig zu sagen, dem österreichischen doch sehr ähnlich. Das betrifft sowohl die Einteilung des Wissenskapitals als auch den Steuerungsansatz. Die Entwicklungsgeschichte des Konzepts vom Wissenskapital zeigt der Ricardis-Bericht (Ricardis steht für Reporting Intellectual Capital to Augment Research, Development and Innovation in SMEs) der Europäischen Union auf; aufschlussreich sind Seite 61 und folgende und das Literaturverzeichnis. Wie nun sind die "Deutschen" vorgegangen, um zu einem "Made in Germany" zu gelangen? Sie engagierten ausländische Pioniere, einmal Kivikas, der in Schweden als Mitarbeiter von Professor Edvinsson arbeitete, und zum anderen Bornemann aus der österreichischen Forschungsgruppe um Professor Koch - und zwar in einem Projektkonsortium, das schließlich in den deutschen Arbeitskreis Wissensbilanz (Alwert, Bornemann, Kivikas) mündet. Ein weiterer Mitarbeiter aus Österreich (Leitner) wird in das Expertenteam berufen. Im Leitfaden wird behauptet, der eigene Ansatz baue auf "den Methoden der skandinavischen Wissensbilanz-Pioniere" auf. Immerhin gibt es einen Fußnotenhinweis. Ganz nach Bauernopferart werden verschiedene "neuere Ansätze" vorgestellt, in einer Fußnote auch der des ARC. Eine kühne Idee: Man schnappt sich die Mitarbeiter der (ausländischen) Vordenker und gibt das Produkt des eigenen Nach-Denkens als Original aus. Das ist so, als hätte Porsche nach der damaligen Hilfe durch japanische Ingenieure vom kontinuierlichen Verbesserungsprozess als deutscher Erfindung gesprochen.
    - Die Zitierweise in den Ministeriums-Leitfäden ist als selektiv zu werten In der Broschüre "Wissensbilanz 2.0" wird die eigene Forscherbrust nicht mehr ganz so keck gereckt. Zwischenzeitliche Internetpublikationen zeigen die erstaunliche Ähnlichkeit. Nun wird der Begriff der Wissensbilanz den Österreichern gutgeschrieben (S. 53). "Ähnlichkeiten in den abstrakten Modellen und im Namen" werden zugegeben. Doch dann folgt der große Rechtfertigungsversuch: Die "Methoden zur Wissensbilanzierung" unterschieden sich "teilweise erheblich". Das behauptete Alleinstellungsmerkmal der Steuerungsbezogenheit ist im österreichischen Modell mehr als nur vorhanden. Und die spezifisch deutsche "workshopbasierte Selbstbewertungsmethode" kann schwerlich als herausragende Weiterentwicklung gesehen werden. Im Literaturverzeichnis taucht nun auch der zentrale publizierte Beitrag der Österreicher aus dem Jahre 2000 auf, der es irgendwie nicht in die Erstauflage 2004 geschafft hatte. "Teilweise erheblich" ist eine kühne Unterscheidung, denn sie gesteht ja zu, dass es im anderen Teil eben doch große Übereinstimmung oder gar Identität im Modell gibt. Vor diesem Hintergrund ist die Zitierweise in den Ministeriums-Leitfäden nicht nur als selektiv zu werten; zitiert werden (natürlich) vor allem die Arbeiten der eigenen Mitstreiter, die der Vorarbeiter werden allenfalls in der Darstellungsperipherie geduldet. Auch die Neuerungen müssen nicht alle auf dem eigenen Mist gewachsen sein. Eine österreichische Arbeit von Gertraud Denscher, die schon 2003 den Praxistest der Wissensbilanz beschreibt, wird nicht zitiert, auch nicht deren spätere Gemeinschaftsveröffentlichung mit Bornemann und Sammer. All das mutet merkwürdig an - und das ausgerechnet in einer Publikation, die sich um den richtigen Umgang mit Wissen sorgt. Aber in einer Wissensbilanz muss nicht angegeben werden, wo man sein Wissen entlehnt oder geklaut hat. Das Haben ist entscheidend, nicht das Soll. Wissensschulden gibt es nicht.
    Die Wertung fällt dennoch leicht: Es handelt sich um ein Entwicklungsplagiat, weil Konzepte in wesentlichen Teilen identisch sind und das Ausmaß der Übernahme von Vorarbeiten nicht nur nicht ausgewiesen, sondern gezielt verschleiert wird. Anders lassen sich die Änderungen in der Ministerialbroschüre und der verschämte Neutext kaum deuten. "Made in Germany" ist das jedenfalls nicht. Sondern "researched & developed in Austria" und nur "modified in Germany". Doppelt anrüchig wird das Plagiat zuerst durch die Beteiligung der öffentlichen Hand: Das Wirtschaftsministerium wirbt als Auftraggeber des Konzeptes und als Herausgeber der Broschüre. Insofern darf man spöttisch von einem Staatsplagiat sprechen, wenigstens aber von staatlicher Wissenshehlerei. Durchaus problematisch ist der Umstand, dass hier mit fremden Federn in der Praxisberatung Geld verdient wird. Damit erlangt der Vorgang eine wirtschaftsrechtliche Perspektive - vom unlauteren Wettbewerb durch Produktnachahmung bis hin zur gezielten Nutzung fremden Mitarbeiterwissens. Pikant ist das allemal. Noch schöner: Eine rheinland-pfälzische Landeswissensbilanz lehnt sich eng an die Bundeswissensbilanz an - und setzt damit das Plagiat fort, mit noch eigentümlicheren Zitierungen. Daran wird das eigentliche Übel des Wissenschaftsplagiates sichtbar: Das persönliche Fehlverhalten verblasst nach einiger Zeit; doch die Plagiate bleiben in Umlauf und "pflanzen sich fort". Aber all das soll die Freude in der nächsten Woche nicht trüben. Es ist kein Spielverderber in Sicht, der konfrontativ fragen könnte: "Wer hat's erfunden?""
  17. Vorndran, A.: Hervorholen, was in unseren Daten steckt! : Mehrwerte durch Analysen großer Bibliotheksdatenbestände (2018) 0.07
    0.06968972 = product of:
      0.13937944 = sum of:
        0.026154898 = weight(_text_:und in 4601) [ClassicSimilarity], result of:
          0.026154898 = score(doc=4601,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29991096 = fieldWeight in 4601, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4601)
        0.058373824 = weight(_text_:methoden in 4601) [ClassicSimilarity], result of:
          0.058373824 = score(doc=4601,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.2862774 = fieldWeight in 4601, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4601)
        0.028695825 = weight(_text_:der in 4601) [ClassicSimilarity], result of:
          0.028695825 = score(doc=4601,freq=14.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.326484 = fieldWeight in 4601, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4601)
        0.026154898 = weight(_text_:und in 4601) [ClassicSimilarity], result of:
          0.026154898 = score(doc=4601,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29991096 = fieldWeight in 4601, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4601)
      0.5 = coord(4/8)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) verfolgt das Ziel, den unter Culturegraph.org verfügbaren großen Datenbestand von mehr als 160 Millionen Titeldaten deutschsprachiger Bibliotheksverbünde sowie der Deutschen Nationalbibliothek und der British National Bibliography über Analysen, Verknüpfungen und Auswertungen in größerem Umfang nutzbar zu machen. Der Beitrag gibt einen Überblick, welche Themenstellungen und Methoden bislang im Zentrum stehen. Dies ist einerseits die Bündelung von Werken, die erlaubt, mehrere Ausgaben, Auflagen oder Übersetzungen eines Werks zusammenzuführen. Inhaltserschließende Informationen wie Klassifikation oder verbale Erschließung, ebenso wie Normdatenverknüpfungen, können so auf alle Mitglieder eines Bündels übertragen werden, so dass ein Gewinn an Standardisierung und Erschließungstiefe zu erreichen ist. Andererseits können über bibliothekarische Daten hinaus auch externe Datenquellen zur Anreicherung herangezogen werden. Dies wird anhand eines Abgleichs von Personen in der Gemeinsamen Normdatei (GND) und der Datenbank Open Researcher and Contributor ID (ORCID) dargestellt. Unter Verwendung der Culturegraph-Titeldaten werden Personen mittels der von ihnen verfassten Publikationen abgeglichen und zusammengeführt. Abschließend werden einige statistische Auswertungen des Datenbestandes vorgestellt.
  18. Lehmann, K.: Neues vom Gehirn : Essays zu Erkenntnissen der Neurobiologie (2017) 0.07
    0.069030575 = product of:
      0.13806115 = sum of:
        0.031961814 = weight(_text_:und in 3665) [ClassicSimilarity], result of:
          0.031961814 = score(doc=3665,freq=28.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.36649725 = fieldWeight in 3665, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3665)
        0.04669906 = weight(_text_:methoden in 3665) [ClassicSimilarity], result of:
          0.04669906 = score(doc=3665,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.22902192 = fieldWeight in 3665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=3665)
        0.027438458 = weight(_text_:der in 3665) [ClassicSimilarity], result of:
          0.027438458 = score(doc=3665,freq=20.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.3121784 = fieldWeight in 3665, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3665)
        0.031961814 = weight(_text_:und in 3665) [ClassicSimilarity], result of:
          0.031961814 = score(doc=3665,freq=28.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.36649725 = fieldWeight in 3665, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3665)
      0.5 = coord(4/8)
    
    Abstract
    Eine Lawine von Wissensbrocken prasselt hernieder, die unser Verständnis von uns selbst enorm erweitern können. Man muss sie nur passend zusammensetzen. Die raffinierten modernen Methoden der Neurobiologie lassen uns verstehen und sogar berechnen, was uns zum Handeln antreibt: Wie der Wert eines Handlungsziels neuronal kodiert wird, wo und woraus dieser Wert abgeschätzt wird, und warum auch Information einen Wert hat. Sie zeigen auch, wie das gewonnene Wissen im Gehirn gespeichert wird: Wie Wissen über räumliche Zusammenhänge abgespeichert wird. Oder: Welche Wege das neuronale Netz gefunden hat, um zeitlich oder örtlich begrenzt die Lernfähigkeit zu erhöhen, während andererseits Stabilität gewährleistet wird. Denn auch wenn Flexibilität und Plastizität nützliche Fähigkeiten sind: Ebenso wichtig kann es sein, einmal optimierte Verschaltungen zu bewahren. Die Verschiebung des Gleichgewichts zwischen erregenden und hemmenden Nervenzellen ist ein Regler, um diese Grenze zu ziehen. Die Einbringung neuer Nervenzellen ein anderer. Und wenn die neuen Zellen künstlich eingebracht werden, können sich die beiden Regler sogar verbinden. Sogar den großen Fragen widmet sich die aktuelle Hirnforschung mit großem Gewinn. Wir verstehen zunehmend, was den Menschen zum Menschen macht: Soziale Fähigkeiten wie Empathie, Sprache und Musik, die ihn von seinen nächsten Verwandten im Tierreich unterscheiden (und erstaunlicherweise den Vögeln ähnlich macht). Wie das Gehirn kreativ die Gedanken und Bilder hervorbringt, aus denen Kunst und auch Wissenschaft werden, wird begreiflich. Wir sehen mit Staunen, dass die individuelle Persönlichkeit nicht allein im Gehirn steckt, sondern auch im Gedärm. Und können uns sogar der letzten Grenze nähern: der Frage nach dem Bewusstsein. Dr. Konrad Lehmann forscht und lehrt als Neurobiologe an der Friedrich Schiller-Universität Jena. Sein Forschungsschwerpunkt ist die Fähigkeit der Hirnrinde, sich an veränderte Umweltbedingungen anzupassen.
    Content
    - Was wollen wir tun? Warum nicht einfach aufgeben? -- Das war schön! Nochmal! -- Warum wollen Sie diesen Artikel lesen? -- Einsamkeit ist ein Grundgefühl -- Das mütterliche Gehirn - Was können wir wissen? Wie entsteht Wissen? -- Was Hirnchen nicht lernt ... -- Schlaf, der Gedächtnisgärtner -- Unser Gehirn kartiert auch Beziehungen räumlich -- Die leuchtende Spur der Erinnerung -- Neuronales Upgrade -- Warum erzeugt das Gehirn neue Neuronen? -- Frischzellen fürs Gehirn - Was ist der Mensch? Gleichgeschaltete Meisen -- Von wegen: "Spatzenhirn" -- Ich verdaue, also bin ich -- Ideen aus dem neuronalen Untergrund -- Homo musicus - Was können wir hoffen? Denken mit Leib und Seele
    Footnote
    Vgl. auch den Beitrag unter: https://www.heise.de/tp/features/Denken-mit-Leib-und-Seele-3593478.html.
  19. Lenzen, M.: Vor der Quadratwurzel steht die Quadratzahl (2015) 0.07
    0.068436 = product of:
      0.136872 = sum of:
        0.036616858 = weight(_text_:und in 1647) [ClassicSimilarity], result of:
          0.036616858 = score(doc=1647,freq=48.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41987535 = fieldWeight in 1647, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1647)
        0.040861674 = weight(_text_:methoden in 1647) [ClassicSimilarity], result of:
          0.040861674 = score(doc=1647,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.20039418 = fieldWeight in 1647, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1647)
        0.022776606 = weight(_text_:der in 1647) [ClassicSimilarity], result of:
          0.022776606 = score(doc=1647,freq=18.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.25913864 = fieldWeight in 1647, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1647)
        0.036616858 = weight(_text_:und in 1647) [ClassicSimilarity], result of:
          0.036616858 = score(doc=1647,freq=48.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41987535 = fieldWeight in 1647, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1647)
      0.5 = coord(4/8)
    
    Abstract
    Wissenschaftliche Sammelbände sind oft teuer. Das Mainzer "Open Mind"-Projekt stellt deshalb eine ganze Textsammlung zu Geist und Bewusstsein frei ins Netz. Es ist eine umfangreiche und anregende Gedankenspende.
    Content
    "um Jubiläum eine aufwendige Konferenz und Monate bis Jahre später ein teurer Sammelband, den sich bestenfalls die Universitätsbibliotheken ins Regal stellen: Zum zehnjährigen Bestehen der MIND-Group der Universität Mainz sollte es anders laufen. Deshalb hat die von dem Philosophen Thomas Metzinger geleitete Gruppe aus über neunzig Forschern gerade eine rund zweitausend Seiten umfassende Sammlung von 39 Originalarbeiten zu Geist, Gehirn und Bewusstsein ins Internet gestellt. Kostenlos und frei zugänglich für alle unter www.open-mind.net. Die Texte stammen von den Stars und Aufsteigern der Szene: Paul Churchland erklärt Moral mit Prototypen statt Regeln, Wolf Singer sucht nach den Korrelaten des Bewusstseins, Antti Revonsuo erklärt Träume als soziale Simulation, und Jacob Hohwy präsentiert die hoch gehandelte Theorie vom Gehirn als Voraussagemaschine. Metzinger und Jennifer Windt (Mainz/Melbourne), die als Herausgeber fungieren, wollten mit dem ungewöhnlichen Publikationsformat schneller sein als die üblichen wissenschaftlichen Veröffentlichungen, ohne dabei auf professionelle Qualitätskontrolle zu verzichten. Gleichzeitig wollen sie Nachwuchsforscher einbinden, die sich bisweilen schwertun, den Einstieg in die internationale Debatte zu finden. Dazu erdachten sie einen komplexen Review-Prozess: Alle Texte erscheinen mit ausführlichen Kommentaren und Repliken. So entsteht manch lesenswerte Debatte, etwa wenn Kathinka Evers (Uppsala) und ihr Kommentator Stefan Schleim (Groningen) darum ringen, ob es möglich und wünschenswert ist, Menschen auf epigenetischem Weg friedfertiger zu machen. Leserdiskussionen sind allerdings nicht vorgesehen.
    Die Mainzer Gedankenspende soll auch von Studenten in weniger privilegierten Ländern genutzt werden können. Sie gibt einen guten Überblick über die Vielfalt der Baustellen in der Kognitionsforschung: den flexiblen, voraussagenden, kulturbedingten Geist, den schlafenden, träumenden und moralischen Geist, den künstlichen und den aufgebesserten Geist; über Wahrnehmung und Illusion, Intuition, Bewusstsein, das Selbst und soziale Kognition. Aber auch philosophische Klassiker wie die mentale Verursachung bekommen neuen Schub. Das Bewusstsein ist kein Homunkulus Gemeinsam ist vielen Autoren die Unzufriedenheit mit bestehenden Versuchen. Anders als die Theorie vom voraussagenden Gehirn, die sich mit dessen selbst generierter Aktivität befasst, versucht Richard Menary (Sydney), das dynamische Organ in unserem Kopf in seinen kulturellen Kontext zu stellen. Er erklärt, wie moderne Rechenfertigkeiten mittels Schrift und Rechenzeichen aus unserem angeborenen Sinn für Quantitäten hervorgingen. Erst wenn wir ein System der öffentlichen Manipulation von Zahlen haben, können wir Kuriosa wie Quadratwurzeln entdecken.
    Eine Dauerbaustelle ist der methodische Zugang zu den Inhalten des Bewusstseins. Tim Bayne (Manchester) hat es unternommen, die viel geschmähte Introspektion näher zu untersuchen, und gefunden, dass ihre Brauchbarkeit stark vom zu beobachtenden Phänomen abhängt. Kenneth Williford (Arlington, Texas) wagt sich an die klassisch-kontinentale Diskussion um Selbstbewusstsein und Selbstwissen. Das Bewusstsein, so Williford, ist mit sich selbst vertraut, nicht mit einem Ich, einem Homunkulus. Deshalb finden wir auch kein solches, wenn wir nach innen schauen. Und deshalb brauchen wir auch keine Theorien über Gedanken höherer Ordnung oder die Repräsentation eines ganz besonderen Objekts namens Ich. Das Gefühl, ein Individuum zu sein, ist einfach die Folge dieser Selbstvertrautheit, so Williford. Die versammelten Texte sind so unterschiedlich wie ihre Methoden. Für eine echte interdisziplinäre Geisteswissenschaft braucht es einen offenen Geist, der sich mit schnellen Urteilen zurückhält und tolerant gegenüber unvereinbaren Ansätzen ist, so die Herausgeber. Denn das eine große konsistente Bild des Geistes sei bislang kaum in Ansätzen erkennbar; und dass es intuitiv plausibel und für unser Selbstbild schmeichelhaft ausfallen wird, ist eher zweifelhaft." Vgl.: www.open-mind.net.
    Footnote
    Druckfassung in: FAZ. Nr. 17 vom 21.01.2015, S.N4 (Forschung und Lehre)
    Source
    http://www.faz.net/aktuell/feuilleton/forschung-und-lehre/uni-mainz-stellt-publikationen-von-hirnforschern-online-13379697.html
  20. Open Knowledge Foundation: Prinzipien zu offenen bibliographischen Daten (2011) 0.07
    0.066930756 = product of:
      0.13386151 = sum of:
        0.028250515 = weight(_text_:und in 4399) [ClassicSimilarity], result of:
          0.028250515 = score(doc=4399,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.32394084 = fieldWeight in 4399, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4399)
        0.03429807 = weight(_text_:der in 4399) [ClassicSimilarity], result of:
          0.03429807 = score(doc=4399,freq=20.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.390223 = fieldWeight in 4399, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4399)
        0.028250515 = weight(_text_:und in 4399) [ClassicSimilarity], result of:
          0.028250515 = score(doc=4399,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.32394084 = fieldWeight in 4399, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4399)
        0.04306241 = product of:
          0.06459361 = sum of:
            0.026897287 = weight(_text_:29 in 4399) [ClassicSimilarity], result of:
              0.026897287 = score(doc=4399,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.19432661 = fieldWeight in 4399, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4399)
            0.037696328 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
              0.037696328 = score(doc=4399,freq=4.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.27358043 = fieldWeight in 4399, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4399)
          0.6666667 = coord(2/3)
      0.5 = coord(4/8)
    
    Abstract
    Produzenten bibliographischer Daten wie Bibliotheken, Verlage, Universitäten, Wissenschaftler oder soziale, webbasierte Literaturverwaltungsplattformen spielen eine wichtige Rolle bei der Entwicklung menschlichen Wissens. Damit ihre Arbeit der Gesellschaft in vollem Umfang zugutekommt, ist es zwingend erforderlich, bibliographische Daten zu öffnen, das heißt für alle zur beliebigen Nutzung frei verfügbar zu machen.
    Content
    "Bibliographische Daten Um den Geltungsbereich der Prinzipien festzulegen, wird in diesem ersten Teil der zugrundeliegende Begriff bibliographischer Daten erläutert. Kerndaten Bibliographische Daten bestehen aus bibliographischen Beschreibungen. Eine bibliographische Beschreibung beschreibt eine bibliographische Ressource (Artikel, Monographie etc. - ob gedruckt oder elektronisch) zum Zwecke 1. der Identifikation der beschriebenen Ressource, d.h. des Zeigens auf eine bestimmte Ressource in der Gesamtheit aller bibliographischer Ressourcen und 2. der Lokalisierung der beschriebenen Ressource, d.h. eines Hinweises, wo die beschriebene Ressource aufzufinden ist. Traditionellerweise erfüllte eine Beschreibung beide Zwecke gleichzeitig, indem sie Information lieferte über: Autor(en) und Herausgeber, Titel, Verlag, Veröffentlichungsdatum und -ort, Identifizierung des übergeordneten Werks (z.B. einer Zeitschrift), Seitenangaben. Im Web findet Identifikation statt mittels Uniform Resource Identifiers (URIs) wie z.B. URNs oder DOIs. Lokalisierung wird ermöglicht durch HTTP-URIs, die auch als Uniform Resource Locators (URLs) bezeichnet werden. Alle URIs für bibliographische Ressourcen fallen folglich unter den engen Begriff bibliographischer Daten. Sekundäre Daten Eine bibliographische Beschreibung kann andere Informationen enthalten, die unter den Begriff bibliographischer Daten fallen, beispielsweise Nicht-Web-Identifikatoren (ISBN, LCCN, OCLC etc.), Angaben zum Urheberrechtsstatus, administrative Daten und mehr; diese Daten können von Bibliotheken, Verlagen, Wissenschaftlern, Online-Communities für Buchliebhaber, sozialen Literaturverwaltungssystemen und Anderen produziert sein. Darüber hinaus produzieren Bibliotheken und verwandte Institutionen kontrollierte Vokabulare zum Zwecke der bibliographischen Beschreibung wie z. B. Personen- und Schlagwortnormdateien, Klassifikationen etc., die ebenfalls unter den Begriff bibliographischer Daten fallen."
    Date
    22. 3.2011 18:22:29

Authors

Types

  • a 291
  • r 6
  • m 5
  • s 3
  • x 3
  • p 2
  • b 1
  • i 1
  • l 1
  • More… Less…