Search (3266 results, page 2 of 164)

  • × year_i:[2010 TO 2020}
  1. Kasprzik, A.: Automatisierte und semiautomatisierte Klassifizierung : eine Analyse aktueller Projekte (2014) 0.06
    0.055782747 = product of:
      0.22313099 = sum of:
        0.020231893 = weight(_text_:und in 2470) [ClassicSimilarity], result of:
          0.020231893 = score(doc=2470,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 2470, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.07613816 = weight(_text_:methodik in 2470) [ClassicSimilarity], result of:
          0.07613816 = score(doc=2470,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.011167361 = weight(_text_:des in 2470) [ClassicSimilarity], result of:
          0.011167361 = score(doc=2470,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.019223517 = weight(_text_:der in 2470) [ClassicSimilarity], result of:
          0.019223517 = score(doc=2470,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3917808 = fieldWeight in 2470, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.07613816 = weight(_text_:methodik in 2470) [ClassicSimilarity], result of:
          0.07613816 = score(doc=2470,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.020231893 = weight(_text_:und in 2470) [ClassicSimilarity], result of:
          0.020231893 = score(doc=2470,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 2470, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
      0.25 = coord(6/24)
    
    Abstract
    Das sprunghafte Anwachsen der Menge digital verfügbarer Dokumente gepaart mit dem Zeit- und Personalmangel an wissenschaftlichen Bibliotheken legt den Einsatz von halb- oder vollautomatischen Verfahren für die verbale und klassifikatorische Inhaltserschließung nahe. Nach einer kurzen allgemeinen Einführung in die gängige Methodik beleuchtet dieser Artikel eine Reihe von Projekten zur automatisierten Klassifizierung aus dem Zeitraum 2007-2012 und aus dem deutschsprachigen Raum. Ein Großteil der vorgestellten Projekte verwendet Methoden des Maschinellen Lernens aus der Künstlichen Intelligenz, arbeitet meist mit angepassten Versionen einer kommerziellen Software und bezieht sich in der Regel auf die Dewey Decimal Classification (DDC). Als Datengrundlage dienen Metadatensätze, Abstracs, Inhaltsverzeichnisse und Volltexte in diversen Datenformaten. Die abschließende Analyse enthält eine Anordnung der Projekte nach einer Reihe von verschiedenen Kriterien und eine Zusammenfassung der aktuellen Lage und der größten Herausfordungen für automatisierte Klassifizierungsverfahren.
  2. Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010) 0.05
    0.05495512 = product of:
      0.18841757 = sum of:
        0.018849954 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.018849954 = score(doc=4315,freq=80.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 4315, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.04486484 = weight(_text_:methodik in 4315) [ClassicSimilarity], result of:
          0.04486484 = score(doc=4315,freq=4.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.28246012 = fieldWeight in 4315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.014714291 = weight(_text_:des in 4315) [ClassicSimilarity], result of:
          0.014714291 = score(doc=4315,freq=20.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24188907 = fieldWeight in 4315, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.022244297 = weight(_text_:fragen in 4315) [ClassicSimilarity], result of:
          0.022244297 = score(doc=4315,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.19889021 = fieldWeight in 4315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.024029395 = weight(_text_:der in 4315) [ClassicSimilarity], result of:
          0.024029395 = score(doc=4315,freq=126.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.48972595 = fieldWeight in 4315, product of:
              11.224972 = tf(freq=126.0), with freq of:
                126.0 = termFreq=126.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.04486484 = weight(_text_:methodik in 4315) [ClassicSimilarity], result of:
          0.04486484 = score(doc=4315,freq=4.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.28246012 = fieldWeight in 4315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.018849954 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.018849954 = score(doc=4315,freq=80.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 4315, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
      0.29166666 = coord(7/24)
    
    Content
    "Am 19. und 20. Juli 2010 fand in der Fachhochschule Köln die internationale Tagung "Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization" statt. Ausgerichtet wurde sie mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft (DFG) vom Institut für Informationsmanagement (IIM) der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek (DNB). Im Mittelpunkt der Veranstaltung standen Fragen der Modellierung von Interoperabilität und semantischen Informationen in der Wissensorganisation, die einen unmittelbaren thematischen Zusammenhang mit den am Institut für Informationsmanagement angesiedelten Projekten CrissCross und RESEDA aufweisen. Das Programm umfasste 11 Beiträge aus 5 verschiedenen Ländern sowohl zu praktischen als auch zu theoretischen Aspekten der Wissensorganisation unter besonderer Berücksichtigung moderner Technologien, aktueller Entwicklungen und zukunftsbezogener Perspektiven. Der erste Tag war als Abschlussworkshop für das CrissCross-Projekt konzipiert und bot in zwei Sessions neben einem umfassenden Überblick über das Projekt auch weitere Best-Practice-Beispiele für die Gestaltung von Interoperabilität vor allem im Rahmen von Ansätzen der Semantic-Web- und Linked-Data-Initiativen. Eine vertiefte Auseinandersetzung mit sich in der Entwicklung befindlichen oder auch erst kürzlich fertiggestellten Standards und Modellen der Interoperabilität und Wissensorganisation erfolgte am zweiten Tag, der mit einer Keynote von Dagobert Soergel von der University at Buffalo (USA) eröffnet wurde und in zwei weitere Sessions unterteilt war. Zu der Veranstaltung konnten Prof. Dr. Klaus-Dirk Schmitz, Leiter des Kölner Instituts für Informationsmanagement, sowie Ulrike Junger, Leiterin der Abteilung Sacherschließung der Deutschen Nationalbibliothek in Stellvertretung der Generaldirektorin, Dr. Elisabeth Niggemann, ca. 120 Teilnehmer aus insgesamt 16 Ländern begrüßen. Prof. Klaus-Dirk Schmitz stellte in seiner Eröffnungsrede die Fachhochschule Köln und insbesondere das Institut für Informationsmanagement vor und erörterte das Konferenzthema mit Beispielen aus Forschungsgebieten der Terminologiearbeit. Ulrike Junger ging auf die gelungene Zusammenarbeit zwischen der Fachhochschule Köln und der Deutschen Nationalbibliothek ein, die mit dem DFG-Projekt DDC Deutsch begonnen und in dem DFG-Projekt CrissCross eine Fortsetzung gefunden hatte. Eine Einführung in die spezifischen Konferenzinhalte gab schließlich Prof. Winfried Gödert, Leiter des RESEDA-Projekts sowie - seitens der Fachhochschule Köln - des CrissCross-Projekts.
    Die erste Session der Veranstaltung war dem von der DFG geförderten Projekt CrissCross gewidmet, das von der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek durchgeführt wird. Das Projekt, das 2006 begann und im Herbst diesen Jahres endet, verfolgt das Ziel, ein multilinguales, thesaurusbasiertes und nutzerfreundliches Recherchevokabular zu heterogen erschlossenen Informationsressourcen zu schaffen. Hierzu wird einerseits eine unidirektionale Verbindung zwischen Sachschlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation hergestellt, andererseits werden - in Fortführung der in dem Projekt Multilingual Access to Subject Headings (MACS) entwickelten Methodik - häufig verwendete SWD-Schlagwörter mit ihren Äquivalenten in der englischen Schlagwortsprache Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (RAMEAU) verknüpft. Jan-Helge Jacobs, Katrin Müller und Tina Mengel von der Fachhochschule Köln gaben einen Überblick über das für das Projekt spezifische SWD-DDC-Mapping. Sie erläuterten die zugrunde liegende Methodik und stellten den mit den Daten gegebenen möglichen Mehrwert sowohl zur Verbesserung des Zugangs zur DDC und zu DDC-erschlossenen Informationsressourcen im Allgemeinen als auch zur Unterstützung von explorativen Suchprozessen im Speziellen dar. Ergänzend präsentierten Yvonne Jahns und Helga Karg von der Deutschen Nationalbibliothek den im MACSProjekt praktizierten Ansatz zur Verbindung von Indexierungsinstrumenten verschiedener Sprachen und das damit gegebene Potential zur Unterstützung eines multilingualen Retrievals. Die adäquate Modellierung von Dokumentationssprachen und Relationen zur Gewährleistung von Interoperabilität und Verbesserung von Suchfunktionalitäten bei heterogen erschlossenen Dokumentbeständen besonders in Hinblick auf Semantic-Web-Applikationen war Thema der zweiten Session. Jessica Hubrich von der Fachhochschule Köln nahm theoretische Ergebnisse des CrissCross-Projektes auf und stellte ein gestuftes Interoperabilitätsmodell vor, in dem Methoden zur Erstellung von Links zwischen Begriffen verschiedener Wissenssysteme in Bezug gesetzt wurden zu spezifischen Suchfunktionalitäten in Retrievalszenarien. Im anschließenden Vortrag von Claudia Effenberger und Julia Hauser von der Deutschen Nationalbibliothek wurde von den bisherigen Ergebnissen eines an der Deutschen Nationalbibliothek angesiedelten Forschungsprojekts berichtet, in dem jeder Klasse der Dewey-Dezimalklassifikation ein eindeutiger Identifier zugeordnet wird, durch den verschiedene Versionen einer Klasse unterschieden werden können. Dies dient der Verbesserung des Zugriffs auf bibliografische Titeldaten, die auf der Basis unterschiedlicher DDC-Versionen erschlossen wurden. Der erste Tag schloss mit einer Präsentation von Antoine Isaac von der Vrije Universiteit in Amsterdam ab. In dieser wurde Interoperabilität als Teil eines semantischen Netzes von Linked Data diskutiert und ein Überblick über zentrale Linked-Data-Projekte gegeben.
    Der zweite Tag begann mit einer Keynote von Dagobert Soergel von der University at Buffalo mit dem Thema Conceptual Foundations for Semantic Mapping and Semantic Search. Im Zentrum stand die Idee eines Hubs, einer semantischen Verbindungsstruktur in Form einer Kernklassifikation, die elementare Begriffe sowie semantische Relationen enthält und über die ein Mapping zwischen unterschiedlichen Wissensorganisationssystemen erfolgen soll. Die Methode wurde durch zahlreiche Beispiele veranschaulicht. Die erste Session des zweiten Tages war dem Thema Interoperabilität und Standardisierung gewidmet. Stella Dextre Clarke aus Großbritannien berichtete - ausgehend von den in zentralen Mappingprojekten erstellten Relationen zwischen Begriffen unterschiedlicher Dokumentationssprachen - über Herausforderungen und Fragestellungen bei der Entwicklung des neuen ISO-Standards 25964-2, der als Leitfaden zur Herstellung von Interoperabilität zwischen Thesauri und anderen Vokabularien fungieren soll. In dem Folgevortrag von Philipp Mayr vom GESIS Leipniz-Institut für Sozialwissenschaften wurd mit KoMoHe (Kompetenzzentrum Modellbildung und Heterogenitätsbehandlung) ein bereits abgeschlossenes Projekt vorgestellt, dessen Mehrwert für das Retrieval in heterogen erschlossenen Informationsräumen mittels eines Information-Retrieval-Tests bestätigt werden konnte. Unpräzise Trefferresultate motivierten indes zu dem Nachfolgeprojekt IRM (Value-Added Services for Information Retrieval), in dem Möglichkeiten von Suchexpansion und Re-Ranking untersucht werden.
    Ein sehr aktuelles Thema mit hohem Potential für zukünftige Entwicklung wurde mit der letzten Session adressiert: die Functional Requirements for Bibliographic Records (FRBR), die Functional Requirements for Authority Data (FRAD) sowie die Functional Requirements for Subject Authority Data (FRSAD), wobei der Schwerpunkt auf den letzteren lag. Gordon Dunsire von der University of Strathclyde in Glasgow beschrieb aktuelle Ansätze für eine adäquate RDF-Repräsentation von FRBR, FRAD und FRSAD und diskutierte die dabei auftretenden Fragen der Interoperabilität, die mitunter dadurch bedingt sind, dass die RDF-Versionen von FRBR, FRAD und FRSAD mit eigenständigen Namensräumen erstellt werden. Auf FRSAD im Speziellen ging Maja Zumer von der Universität von Ljubljana ein. Sie berichtete von den Schwierigkeiten, die mit der Entwicklung des Modells einhergingen und stellte auch einige der zu dem Draft eingegangenen Kommentare vor. Die Zukunftsaufgabe liegt für sie in der Harmonisierung der Modelle der FRBR-Familie. Aus der Perspektive der Projekte CrissCross und RESEDA ist Interoperabilität indes in FRSAD bisher nur unzureichend berücksichtigt. Eine Erweiterung wird für notwendig gehalten. Zentrale Überlegungen hierzu wurden von Felix Boteram von der Fachhochschule Köln vorgestellt. Die Folien sowie zahlreiche mp3-Aufnahmen der Vorträge können auf der Konferenzhomepage unter http://linux2.fbi.fh-koeln.de/cisko2010/ programm.html eingesehen werden. Die Herausgabe eines Sammelbandes mit Artikeln zu den in der Konferenz behandelten Themen ist in Planung."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.129-132
  3. Hütte, M.: Inhalte und Methoden der Vermittlung von Informationskompetenz (2010) 0.05
    0.05483971 = product of:
      0.21935885 = sum of:
        0.017521333 = weight(_text_:und in 4079) [ClassicSimilarity], result of:
          0.017521333 = score(doc=4079,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 4079, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
        0.07613816 = weight(_text_:methodik in 4079) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4079,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4079, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
        0.015793033 = weight(_text_:des in 4079) [ClassicSimilarity], result of:
          0.015793033 = score(doc=4079,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 4079, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
        0.016246837 = weight(_text_:der in 4079) [ClassicSimilarity], result of:
          0.016246837 = score(doc=4079,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 4079, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
        0.07613816 = weight(_text_:methodik in 4079) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4079,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4079, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
        0.017521333 = weight(_text_:und in 4079) [ClassicSimilarity], result of:
          0.017521333 = score(doc=4079,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 4079, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
      0.25 = coord(6/24)
    
    Abstract
    Der in Definitionen, Modellen und Standards dargelegte umfassende Anspruch an Konzepte zur Vermittlung von lnformationskompetenz für Schüler und Studierende lässt sich in der Praxis einer Hochschulbibliothek aufgrund des Zeitbedarfs nur in mehrtägigen Kompaktkursen bzw. semesterbegleitenden Veranstaltungen vermitteln. Sofern nicht curricular verankert, lässt sich der Aufwand für solche Veranstaltungen allerdings in den wenigsten Fällen rechtfertigen. Die meisten Bibliotheken, die sich als Teaching Libraries verstehen, versuchen deshalb Informationskompetenz im Rahmen eines modularen Gesamtkonzepts schrittweise zu vermitteln. Zu "klassischen" bibliotheks- und literaturbezogenen Inhalten treten dabei neue wie Wissenschaftliches Zitieren oder Elektronisches Publizieren. Auch hinsichtlich der didaktischen Methodik hat es Veränderungen in den Veranstaltungskonzepten vieler Bibliotheken gegeben. Konstruktivistische Methoden, bei denen die Lehrkraft stärker als Partner und Coach des Lernenden agiert, haben vielerorts die rein instruktionalen Formen abgelöst bzw. ergänzt. Es lohnt sich daher, mögliche Themen und Vermittlungsformen zu betrachten, um einen Überblick sowie Anregungen für die eigene Schulungspraxis zu gewinnen.
  4. Gasser, M.; Wanger, R.; Prada, I.: Wenn Algorithmen Zeitschriften lesen : vom Mehrwert automatisierter Textanreicherung (2018) 0.05
    0.05150503 = product of:
      0.20602012 = sum of:
        0.012389454 = weight(_text_:und in 4598) [ClassicSimilarity], result of:
          0.012389454 = score(doc=4598,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 4598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.07613816 = weight(_text_:methodik in 4598) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4598,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.011167361 = weight(_text_:des in 4598) [ClassicSimilarity], result of:
          0.011167361 = score(doc=4598,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.017797519 = weight(_text_:der in 4598) [ClassicSimilarity], result of:
          0.017797519 = score(doc=4598,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 4598, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.07613816 = weight(_text_:methodik in 4598) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4598,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.012389454 = weight(_text_:und in 4598) [ClassicSimilarity], result of:
          0.012389454 = score(doc=4598,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 4598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
      0.25 = coord(6/24)
    
    Abstract
    In Zusammenarbeit mit dem Institut für Computerlinguistik der Universität Zürich (ICL UZH) lancierte die ETH-Bibliothek Zürich ein Pilotprojekt im Bereich automatisierter Textanreicherung. Grundlage für den Piloten bildeten Volltextdateien der Schweizer Zeitschriftenplattform E-Periodica. Anhand eines ausgewählten Korpus dieser OCR-Daten wurden mit automatisierten Verfahren Tests in den Bereichen OCR-Korrektur, Erkennung von Personen-, Orts- und Ländernamen sowie Verlinkung identifizierter Personen mit der Gemeinsamen Normdatei GND durchgeführt. Insgesamt wurden sehr positive Resultate erzielt. Das verwendete System dient nun als Grundlage für den weiteren Kompetenzausbau der ETH-Bibliothek auf diesem Gebiet. Das gesamte bestehende Angebot der Plattform E-Periodica soll automatisiert angereichert und um neue Funktionalitäten erweitert werden. Dies mit dem Ziel, Forschenden einen Mehrwert bei der Informationsbeschaffung zu bieten. Im vorliegenden Beitrag werden Projektinhalt, Methodik und Resultate erläutert sowie das weitere Vorgehen skizziert.
    Content
    Vortrag anlässlich des 107. Deutschen Bibliothekartages 2018 in Berlin, Themenkreis "Fokus Erschließen & Bewahren". https://www.o-bib.de/article/view/5382. https://doi.org/10.5282/o-bib/2018H4S181-192.
  5. Wiesenmüller, H.; Horny, S.: Basiswissen RDA : eine Einführung für deutschsprachige Anwender (2017) 0.05
    0.05119277 = product of:
      0.17551808 = sum of:
        0.021681545 = weight(_text_:und in 5027) [ClassicSimilarity], result of:
          0.021681545 = score(doc=5027,freq=54.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.44534507 = fieldWeight in 5027, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.009212603 = weight(_text_:des in 5027) [ClassicSimilarity], result of:
          0.009212603 = score(doc=5027,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.1514465 = fieldWeight in 5027, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.02202073 = weight(_text_:fragen in 5027) [ClassicSimilarity], result of:
          0.02202073 = score(doc=5027,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.19689126 = fieldWeight in 5027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.012715162 = weight(_text_:der in 5027) [ClassicSimilarity], result of:
          0.012715162 = score(doc=5027,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.25913864 = fieldWeight in 5027, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.005255444 = product of:
          0.010510888 = sum of:
            0.010510888 = weight(_text_:29 in 5027) [ClassicSimilarity], result of:
              0.010510888 = score(doc=5027,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.13602862 = fieldWeight in 5027, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5027)
          0.5 = coord(1/2)
        0.08295105 = weight(_text_:allgemeines in 5027) [ClassicSimilarity], result of:
          0.08295105 = score(doc=5027,freq=18.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.6618844 = fieldWeight in 5027, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.021681545 = weight(_text_:und in 5027) [ClassicSimilarity], result of:
          0.021681545 = score(doc=5027,freq=54.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.44534507 = fieldWeight in 5027, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
      0.29166666 = coord(7/24)
    
    Abstract
    Mit der ersten Auflage von Basiswissen RDA lag erstmals ein deutschsprachiges Lehrbuch für das neue, internationale Katalogisierungsregelwerk RDA (Resource Description and Access) vor. Seither wurde nicht nur das Regelwerk selbst an vielen Stellen verändert, sondern auch die deutschsprachigen Anwendungsrichtlinien wurden erheblich erweitert und verfeinert - nicht zuletzt aufgrund der Praxiserfahrungen seit dem Beginn der aktiven Katalogisierung mit RDA. Die überarbeitete und erweiterte Neuauflage - präsentiert die Katalogisierungsregeln auf dem aktuellen Stand von 2017 - bietet an vielen Stellen zusätzliche Details und Erläuterungen - geht besonders auf typische Fragen und Probleme ein, die beim Katalogisieren mit RDA auftreten - wurde um Beispiele und Erklärungen für verschiedene Themenbereiche erweitert (u.a. Reproduktionen, E-Books, Sprachkurse) - behandelt auch das neue theoretische Modell IFLA LRM und die geplante Weiterentwicklung von RDA Die zweite Auflage von Basiswissen RDA ist ein unverzichtbarer Begleiter für Studierende, Auszubildende und Beschäftigte in Bibliotheken, die mit RDA arbeiten. Das Lehrbuch unterstützt nicht nur beim Anfertigen von korrekten Katalogisaten, sondern auch dabei, das neue Regelwerk zu verstehen.
    Content
    Vgl. auch: http://www.basiswissen-rda.de/. IAllgemeiner Teil; 1 Formalerschließung: Konzepte und Standards; 1.1 Ziele von Formalerschließung; 1.2 Bisherige Regelwerke; 1.3 Bibliografische Beschreibung; 1.4 Eintragungen und Verweisungen; 1.5 EDV-Katalogisierung; 1.6 Aktuelle Herausforderungen; 2 Das FRBR-Modell; 2.1 Grundlagen; 2.2 Entitäten der Gruppe 1; 2.3 Entitäten der Gruppe 2; 2.4 FRBR in der Praxis; 3 RDA: Grundlagen; 3.1 Die Entwicklung von RDA; 3.2 RDA und FRBR; 3.3 Weitere Grundprinzipien von RDA; 3.4 Das RDA Toolkit; Haupteil; 4 Manifestationen und Exemplare; 4.1 Allgemeines 4.2 Grundprinzipien beim Erfassen und Übertragen4.3 Informationsquellen; 4.4 Titel der Manifestation; 4.5 Verantwortlichkeitsangabe; 4.6 Ausgabevermerk; 4.7 Erscheinungsvermerk; 4.8 Gesamttitelangabe; 4.9 Erscheinungsweise; 4.10 Identifikator für die Manifestation; 4.11 Anmerkung zur Manifestation; 4.12 Medientyp und Datenträgertyp; 4.13 Umfang; 4.14 Weitere Merkmale von Datenträgern; 4.15 Bezugs- und Zugangsinformationen; 4.16 Merkmale auf Exemplar-Ebene; 4.17 Begleitmaterial; 4.18 Beschreibung von mehrteiligen Monografien; 4.19 Beschreibung von monografischen Reihen 4.20 Beschreibung von integrierenden Ressourcen
    5 Werke und Expressionen; 5.1 Allgemeines; 5.2 Titel des Werks; 5.3 Weitere Merkmale von Werken; 5.4 Inhaltstyp; 5.5 Weitere Merkmale von Expressionen; 5.6 Sucheinstiege für Werke und Expressionen; 5.7 Beschreibung des Inhalts; 6 Personen, Familien und Körperschaften; 6.1 Allgemeines; 6.2 Moderne Personennamen; 6.3 Moderne Personen: Merkmale und Sucheinstiege; 6.4 Besondere Personengruppen; 6.5 Familien; 6.6 Namen von Körperschaften; 6.7 Namen von untergeordneten Körperschaften; 6.8 Körperschaften: Merkmale und Sucheinstiege; 6.9 Gebietskörperschaften und die ihnen untergeordneten Körperschaften6.10 Konferenzen und ähnliche Veranstaltungen; 7 Geografika; 7.1 Allgemeines; 7.2 Namen von Geografika; 8 Primärbeziehungen; 8.1 Allgemeines; 8.2 Primärbeziehungen und Datenmodelle; 8.3 Kernelemente bei den Primärbeziehungen;
    9 Beziehungen zu Personen, Familien und Körperschaften; 9.1 Allgemeines; 9.2 Geistiger Schöpfer: Allgemeines; 9.3 Körperschaft als geistiger Schöpfer; 9.4 Sonstige Person, Familie oder Körperschaft, die mit einem Werk in Verbindung steht; 9.5 Mitwirkender 9.6 Geistige Schöpfer und Mitwirkende: Besondere Fälle9.7 Beziehungen auf der Manifestationsebene; 9.8 Beziehungen auf der Exemplar-Ebene; 10 Beziehungen zwischen Werken, Expressionen, Manifestationen und Exemplaren; 10.1 Allgemeines; 10.2 In Beziehung stehende Werke; 10.3 In Beziehung stehende Expressionen; 10.4 In Beziehung stehende Manifestationen; 10.5 In Beziehung stehende Exemplare; 11 Beziehungen zwischen Personen, Familien und Körperschaften; 11.1 Allgemeines; 11.2 In Beziehung stehende Personen; 11.3 In Beziehung stehende Familien; 11.4 In Beziehung stehende Körperschaften; 12 Sacherschließung in RDA
    Date
    29. 3.2013 10:52:50
    Issue
    2., überarbeitete und erweiterte Auflage.
  6. ¬Der Google Hummingbird Algorithmus : semantisch-holistische Suche (2013) 0.05
    0.050309453 = product of:
      0.24148539 = sum of:
        0.009537406 = weight(_text_:und in 2521) [ClassicSimilarity], result of:
          0.009537406 = score(doc=2521,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.10151755 = weight(_text_:methodik in 2521) [ClassicSimilarity], result of:
          0.10151755 = score(doc=2521,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.6391343 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.019375484 = weight(_text_:der in 2521) [ClassicSimilarity], result of:
          0.019375484 = score(doc=2521,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 2521, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.10151755 = weight(_text_:methodik in 2521) [ClassicSimilarity], result of:
          0.10151755 = score(doc=2521,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.6391343 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.009537406 = weight(_text_:und in 2521) [ClassicSimilarity], result of:
          0.009537406 = score(doc=2521,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
      0.20833333 = coord(5/24)
    
    Abstract
    Im September 2013 verkündete Google den schon einen Monat vorher ausgerollten völlig neuen Algorithmus mit dem Namen "Hummingbird". Der Name wurde bewusst gewählt. Schließlich zeichnet den "Kolibri" seine äußerst schnelle und dabei doch präzise Methodik aus. Searchmetrics hat analysiert, wie sich der neue Algorithmus auf die SERPs auswirkt. Ergebnis: Die Diversität der Suchergebnisse hat abgenommen. Google zeigt zunehmend "gleichere" Resultate für semantisch äquivalente Queries an.
  7. Drees, B.: Zukunft der Informationsinfrastrukturen : das deutsche Bibliothekswesen im digitalen Zeitalter (2016) 0.05
    0.047998607 = product of:
      0.19199443 = sum of:
        0.022079403 = weight(_text_:und in 3202) [ClassicSimilarity], result of:
          0.022079403 = score(doc=3202,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4535172 = fieldWeight in 3202, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3202)
        0.022566179 = weight(_text_:des in 3202) [ClassicSimilarity], result of:
          0.022566179 = score(doc=3202,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.3709667 = fieldWeight in 3202, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3202)
        0.04404146 = weight(_text_:fragen in 3202) [ClassicSimilarity], result of:
          0.04404146 = score(doc=3202,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 3202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3202)
        0.020763772 = weight(_text_:der in 3202) [ClassicSimilarity], result of:
          0.020763772 = score(doc=3202,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4231716 = fieldWeight in 3202, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3202)
        0.022079403 = weight(_text_:und in 3202) [ClassicSimilarity], result of:
          0.022079403 = score(doc=3202,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4535172 = fieldWeight in 3202, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3202)
        0.060464215 = sum of:
          0.03963154 = weight(_text_:deutschland in 3202) [ClassicSimilarity], result of:
            0.03963154 = score(doc=3202,freq=2.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.3735477 = fieldWeight in 3202, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3202)
          0.020832673 = weight(_text_:22 in 3202) [ClassicSimilarity], result of:
            0.020832673 = score(doc=3202,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.2708308 = fieldWeight in 3202, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3202)
      0.25 = coord(6/24)
    
    Abstract
    Seit dem Beginn des 21. Jahrhunderts beschäftigen sich viele wissenschaftspolitische Akteure mit Fragen zur Zukunft der Informationsinfrastrukturen in Deutschland. Als Resultat dieser Überlegungen liegen zahlreiche Empfehlungen, Positionspapiere und Stellungnahmen vor, die versuchen aktuelle Handlungsfelder zu identifizieren und Konzepte zu entwickeln, wie das wissenschaftliche Bibliothekswesen den Herausforderungen des digitalen Wandels begegnen kann. Der vorliegende Beitrag zeichnet diese Entwicklung der letzten zehn Jahre anhand einiger zentraler Empfehlungen nach und legt dabei das Hauptaugenmerk auf das Gesamtkonzept der Kommission Zukunft der Informationsinfrastruktur (KII) und die Empfehlungen des Wissenschaftsrats zu den Informationsinfrastrukturen 2020. Ferner werden gemeinsame Muster auf inhaltlich-thematischer und strukturell-organisatorischer Ebene identifiziert und vor dem Hintergrund föderaler Strukturen im deutschen Bildungs- und Wissenschaftssystem diskutiert.
    Date
    22. 6.2016 11:45:20
  8. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.05
    0.047306977 = product of:
      0.18922791 = sum of:
        0.014601111 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.014601111 = score(doc=4793,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.06344847 = weight(_text_:methodik in 4793) [ClassicSimilarity], result of:
          0.06344847 = score(doc=4793,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 4793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.025688507 = weight(_text_:der in 4793) [ClassicSimilarity], result of:
          0.025688507 = score(doc=4793,freq=36.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5235391 = fieldWeight in 4793, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.06344847 = weight(_text_:methodik in 4793) [ClassicSimilarity], result of:
          0.06344847 = score(doc=4793,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 4793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.014601111 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.014601111 = score(doc=4793,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.00744024 = product of:
          0.01488048 = sum of:
            0.01488048 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
              0.01488048 = score(doc=4793,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.19345059 = fieldWeight in 4793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4793)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  9. Thiessen, P.: ¬Die Empfehlungen des Wissenschaftsrates "zur Weiterentwicklung der wissenschaftlichen Informationsinfrastrukturen in Deutschland bis 2020" : Inhalt und kritische Bewertung im Hinblick auf das wissenschaftliche Bibliothekswesen (2013) 0.05
    0.046138503 = product of:
      0.15818916 = sum of:
        0.006274925 = product of:
          0.018824775 = sum of:
            0.018824775 = weight(_text_:p in 2456) [ClassicSimilarity], result of:
              0.018824775 = score(doc=2456,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23835106 = fieldWeight in 2456, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2456)
          0.33333334 = coord(1/3)
        0.017521333 = weight(_text_:und in 2456) [ClassicSimilarity], result of:
          0.017521333 = score(doc=2456,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 2456, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2456)
        0.027354335 = weight(_text_:des in 2456) [ClassicSimilarity], result of:
          0.027354335 = score(doc=2456,freq=12.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.4496795 = fieldWeight in 2456, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2456)
        0.037749823 = weight(_text_:fragen in 2456) [ClassicSimilarity], result of:
          0.037749823 = score(doc=2456,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.33752787 = fieldWeight in 2456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=2456)
        0.017797519 = weight(_text_:der in 2456) [ClassicSimilarity], result of:
          0.017797519 = score(doc=2456,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 2456, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2456)
        0.017521333 = weight(_text_:und in 2456) [ClassicSimilarity], result of:
          0.017521333 = score(doc=2456,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 2456, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2456)
        0.033969894 = product of:
          0.06793979 = sum of:
            0.06793979 = weight(_text_:deutschland in 2456) [ClassicSimilarity], result of:
              0.06793979 = score(doc=2456,freq=8.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.6403675 = fieldWeight in 2456, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2456)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Von verschiedenen wissenschaftspolitischen Expertengremien sind in den letzten Jahren Analysen und Entwicklungsvorschläge zur Situation der wissenschaftlichen Informationsinfrastrukturen in Deutschland vorgelegt worden. Der Wissenschaftsrat thematisierte 2012 mit seinen jüngsten "Empfehlungen zur Weiterentwicklung der wissenschaftlichen Informationsinfrastrukturen in Deutschland bis 2020" vor allem Fragen der strukturellen Organisation und Koordination von Einrichtungen aus dem Bereich der Informationsinfrastrukturen. Inwieweit die Empfehlungen des Wissenschaftsrats dabei auf Belange des wissenschaftlichen Bibliothekswesens eingehen, soll im vorliegenden Beitrag betrachtet werden. Dazu werden die Empfehlungen des Wissenschaftsrats zunächst in den bibliothekspolitischen Kontext eingeordnet (Abschnitt 1.1 und 1.3) und in ihren relevanten Aspekten vorgestellt (Abschnitt 1.2). In einer kritischen Analyse werden daraufhin wesentliche Punkte des Papiers diskutiert (Abschnitt 2), die im Hinblick auf ihre Auswirkungen auf das wissenschaftliche Bibliothekswesen in Deutschland bewertet (Abschnitt 3) werden. Als tendenziell problematisch erweisen sich dabei u. a. die Aussagen des Wissenschaftsrat zum Thema Open Access sowie zu den Finanzierungsmodalitäten künftiger Informationsinfrastrukturen und ihrer vorgeschlagenen zentralen Steuerung.
  10. Sieglerschmidt, J.: Wissensordnungen im analogen und im digitalen Zeitalter (2017) 0.05
    0.04551929 = product of:
      0.27311572 = sum of:
        0.123069935 = product of:
          0.3692098 = sum of:
            0.3692098 = weight(_text_:c3 in 4026) [ClassicSimilarity], result of:
              0.3692098 = score(doc=4026,freq=8.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                1.7237456 = fieldWeight in 4026, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4026)
          0.33333334 = coord(1/3)
        0.013487929 = weight(_text_:und in 4026) [ClassicSimilarity], result of:
          0.013487929 = score(doc=4026,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 4026, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4026)
        0.123069935 = product of:
          0.3692098 = sum of:
            0.3692098 = weight(_text_:c3 in 4026) [ClassicSimilarity], result of:
              0.3692098 = score(doc=4026,freq=8.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                1.7237456 = fieldWeight in 4026, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4026)
          0.33333334 = coord(1/3)
        0.013487929 = weight(_text_:und in 4026) [ClassicSimilarity], result of:
          0.013487929 = score(doc=4026,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 4026, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4026)
      0.16666667 = coord(4/24)
    
    Content
    Vgl. unter: https://books.google.de/books?hl=de&lr=&id=0rtGDwAAQBAJ&oi=fnd&pg=PA35&dq=inhaltserschlie%C3%9Fung+OR+sacherschlie%C3%9Fung&ots=5u0TwCbFqE&sig=GGw3Coc21CINkone-6Lx8LaSAjY#v=onepage&q=inhaltserschlie%C3%9Fung%20OR%20sacherschlie%C3%9Fung&f=false.
    Footnote
    Wierabdruck aus: Handbuch Kulturportale: Online-Angebote aus Kultur und Wissenschaft. Hrsg.: Ellen Euler u.a. Berlin 2015.
  11. Rahmstorf, G.: Philosophie als grundlegende Erkenntnis-Wissenschaft (2013) 0.04
    0.043317553 = product of:
      0.20792426 = sum of:
        0.018925203 = weight(_text_:und in 3237) [ClassicSimilarity], result of:
          0.018925203 = score(doc=3237,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 3237, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3237)
        0.07613816 = weight(_text_:methodik in 3237) [ClassicSimilarity], result of:
          0.07613816 = score(doc=3237,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 3237, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=3237)
        0.017797519 = weight(_text_:der in 3237) [ClassicSimilarity], result of:
          0.017797519 = score(doc=3237,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 3237, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3237)
        0.07613816 = weight(_text_:methodik in 3237) [ClassicSimilarity], result of:
          0.07613816 = score(doc=3237,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 3237, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=3237)
        0.018925203 = weight(_text_:und in 3237) [ClassicSimilarity], result of:
          0.018925203 = score(doc=3237,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 3237, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3237)
      0.20833333 = coord(5/24)
    
    Abstract
    In diesem Beitrag geht es um ein Fachgebiet: die Philosophie. Es soll ein Überblick über dieses Thema gewonnen und erkennbar werden, warum diese Wissenschaft so geschätzt wird und in nahezu allen Hochschulen und Universitäten durch planmäßige Stellen vertreten ist. Die Philosophie hat eine über 2000 Jahre lange Geschichte. Die Ursprünge sind mit den Namen Sokrates, Plato und Aristoteles verbunden. Die Lehren dieser Denker wurden über Jahrhunderte weitergegeben und reflektiert. Die Philosophie hat sich vor allem in der Zeit der Aufklärung stärker entfaltet. Sie ist dann später durch Rudolf Carnap und andere Denker einer strengen Methodik unterworfen worden.. Arbeiten mit spekulativem Vorgehen werden zunehmend weniger beachtet. Charakteristisch für die gegenwärtige Philosophie ist, dass systematischer vorgegangen wird. So werden zum Beispiel Thesen aufgestellt und zur Diskussion gestellt.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
    Source
    Wissen - Wissenschaft - Organisation: Proceedings der 12. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Bonn, 19. bis 21. Oktober 2009. Hrsg.: H.P. Ohly
  12. Hierl, S.; Bauer, L.; Böllers, N.; Herget, J.: Kollaborative Konzeption von Ontologien in der Hochschullehre : Theorie, Chancen und mögliche Umsetzung (2010) 0.04
    0.04263875 = product of:
      0.170555 = sum of:
        0.083798334 = weight(_text_:didaktik in 3732) [ClassicSimilarity], result of:
          0.083798334 = score(doc=3732,freq=2.0), product of:
            0.16663471 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.021966046 = queryNorm
            0.5028864 = fieldWeight in 3732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.020231893 = weight(_text_:und in 3732) [ClassicSimilarity], result of:
          0.020231893 = score(doc=3732,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 3732, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.011167361 = weight(_text_:des in 3732) [ClassicSimilarity], result of:
          0.011167361 = score(doc=3732,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 3732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.026197236 = weight(_text_:der in 3732) [ClassicSimilarity], result of:
          0.026197236 = score(doc=3732,freq=26.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5339072 = fieldWeight in 3732, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.020231893 = weight(_text_:und in 3732) [ClassicSimilarity], result of:
          0.020231893 = score(doc=3732,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 3732, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.008928288 = product of:
          0.017856576 = sum of:
            0.017856576 = weight(_text_:22 in 3732) [ClassicSimilarity], result of:
              0.017856576 = score(doc=3732,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23214069 = fieldWeight in 3732, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3732)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    In unserer heutigen Informationsgesellschaft führen immer neue Technologien und Medien sowie die massiv zunehmende Datenmenge zu einem sehr hohen Stellenwert der Informations- und Medienkompetenz. Im vorliegenden Beitrag werden die Herausforderungen im Prozess der Vermittlung dieser Kompetenzen im Hochschulbereich thematisiert. Es wird ein Konzept vorgestellt, das einen integrativen Blended-Learning-Ansatz vorschlägt, in dessen Rahmen Schlüsselqualifikationen nach dem Ansatz des kontextuellen Lehrens vermittelt werden können. Es findet hierbei eine Fokussierung auf den Prozess der kollaborativen Konzeption und Erarbeitung von Wissensstrukturen statt, bei dem Studierende auf einem Themengebiet implizite Zusammenhänge erarbeiten und in Kooperation mit ihren Kommilitonen verschiedene Sichtweisen, Begrifflichkeiten und Verständnisse diskutieren sowie in Form von Topic Maps visualisieren. Die Vorgehensweise stützt sich auf neue Erkenntnisse der kognitiven Lernpsychologie, der Pädagogik und der Didaktik. Der Prozess der kollaborativen Ontologieentwicklung findet in einer über mehrere Jahre hinweg entwickelten und eingesetzten Lernumgebung statt, die explizit auf die Vermittlung von Schlüsselqualifikationen ausgerichtet ist.
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  13. Bull, H.P. u.a.: Zukunft der informationellen Selbstbestimmung (2016) 0.04
    0.039874785 = product of:
      0.13671355 = sum of:
        0.019589446 = weight(_text_:und in 4165) [ClassicSimilarity], result of:
          0.019589446 = score(doc=4165,freq=60.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40237278 = fieldWeight in 4165, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4165)
        0.018518975 = weight(_text_:des in 4165) [ClassicSimilarity], result of:
          0.018518975 = score(doc=4165,freq=22.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.30443448 = fieldWeight in 4165, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4165)
        0.018874912 = weight(_text_:fragen in 4165) [ClassicSimilarity], result of:
          0.018874912 = score(doc=4165,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.16876394 = fieldWeight in 4165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4165)
        0.02268747 = weight(_text_:der in 4165) [ClassicSimilarity], result of:
          0.02268747 = score(doc=4165,freq=78.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.46237716 = fieldWeight in 4165, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4165)
        0.004504666 = product of:
          0.009009332 = sum of:
            0.009009332 = weight(_text_:29 in 4165) [ClassicSimilarity], result of:
              0.009009332 = score(doc=4165,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.11659596 = fieldWeight in 4165, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4165)
          0.5 = coord(1/2)
        0.019589446 = weight(_text_:und in 4165) [ClassicSimilarity], result of:
          0.019589446 = score(doc=4165,freq=60.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40237278 = fieldWeight in 4165, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4165)
        0.032948628 = sum of:
          0.024020342 = weight(_text_:deutschland in 4165) [ClassicSimilarity], result of:
            0.024020342 = score(doc=4165,freq=4.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.2264041 = fieldWeight in 4165, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.0234375 = fieldNorm(doc=4165)
          0.008928288 = weight(_text_:22 in 4165) [ClassicSimilarity], result of:
            0.008928288 = score(doc=4165,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.116070345 = fieldWeight in 4165, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=4165)
      0.29166666 = coord(7/24)
    
    Abstract
    Wie wird sich die Privatsphäre im Zeitalter digitaler Vernetzung effektiv schützen lassen? Was können Staat und Recht leisten und wo müssen die Bürger als Datensubjekte selbst agieren? Wie lassen sich Innovationen fördern und Daten zum Allgemeinwohl nutzen, ohne dass dabei die Grundrechte der Datensubjekte leiden? Viele Fragen zum Datenschutz sind noch ungeklärt, verlangen aber nach fachübergreifenden Debatten. Diesem Bedürfnis stellt sich die unabhängige Stiftung Datenschutz als Herausgeberin mit Band 1 der neuen Schriftenreihe DatenDebatten, in dem es um die Zukunft der informationellen Selbstbestimmung geht. Band 1 der DatenDebatten führt Utopien und Dystopien zum Datenschutz zusammen und wirft einen spannenden Blick auf die kommende Entwicklung des Schutzes der Privatsphäre. Möglich wurde das durch namhafte Autoren verschiedener Disziplinen und Professionen. Unter ihnen sind u.a. - Peter Schaar (Vorsitzender der Europäischen Akademie für Informationsfreiheit und Datenschutz und ehemaliger Bundesbeauftragter für den Datenschutz und die Informationsfreiheit), - Prof. Dr. Hans Peter Bull (emeritierter Professor für Öffentliches Recht und Verwaltungswissenschaften und erster Bundesbeauftragter für den Datenschutz) sowie - Sabine Leutheusser-Schnarrenberger (frühere Bundesjustizministerin). Als gemeinnützige Einrichtung des Bundes beleuchtet die Stiftung Datenschutz die Aspekte des Datenschutzes neutral und frei von gewerblichen oder behördlichen Interessen. Datenschutz ist nicht nur Recht und Technik. Die neue Reihe DatenDebatten gibt der Diskussion um die Zukunft der Daten auf dem Weg zu einem Datenrecht deshalb einen größeren Rahmen. Die Schriftenreihe DatenDebatten richtet sich an Personen aus Wissenschaft, Politik, Wirtschaft, Aufsicht und Beratung, die sich mit Datenschutz und seinen Grundlagen befassen. (2016-01-29)
    Date
    22. 2.2018 12:13:57
    Footnote
    Rez. in: BvD-NEWS Sonderausgabe 2016 unter: https://www.stiftungdatenschutz.org/fileadmin/Redaktion/PDF/BvD-Sondernews-2016_Buchvorstellung.pdf (Rudi Kramer): "In der Reihe DatenDebatten erschien im April der Band 1 zur Zukunft der informationellen Selbstbestimmung, herausgegeben durch die Stiftung Datenschutz. Auf über 170 Seiten werden durch verschiedene Autoren unterschiedliche Aspekte beleuchtet und dargestellt. Die Zusammenstellung der Autoren umfasst bekannte Namen, die man entweder aus dem Umfeld der Stiftung Datenschutz wahrgenommen hat, oder weil man sie aus der politischen Diskussion zum Thema kennt, sie als früherer Leiter einer Aufsichtsbehörde in Erinnerung blieben, sie wissenschaftlich das Thema erschließen oder sie sich journalistisch auch auf diesem Gebiet spezialisiert haben. Bei der Fülle des Spektrums der Autoren und deren Themen sei eines vorweggenommen: Sie sind nicht alle einer Meinung und man wird gelegentlich mit Gedanken konfrontiert, denen man sich stellen sollte, weil sie nicht dem allgemeinen Datenschutz-Mainstream-Verständnis (oder gar den eigenen Erwartungen) entsprechen. Die Beiträge wiederholen nicht die Geschichte des Datenschutzes, sondern wollen einen Beitrag liefern für einen Diskurs zwischen rechtlichen Grundlagen, gelebter Realität und Möglichkeiten, wie mit beidem in der Zukunft umgegangen werden kann. Auch wenn die DS-GVO nicht einmal in den Erwägungsgründen den Begriff der informationellen Selbstbestimmung heranzieht, sondern bei ihrer Berechtigungs- und Wertebasis in Erwägungsgrund 1 auf Art. 8 der Charta der Grundrechte der Europäischen Union verweist, sollte die Diskussion über das, was wir von einer informationellen Selbstbestimmung erwarten, nicht beendet werden.
    Der frühere Bundesbeauftragte für Datenschutz Hans Peter Bull schreibt, wie aus seiner Sicht die Zukunft der informationellen Selbstbestimmung aussieht und weist in diesem Zusammenhang auf die Kompliziertheit und Unübersichtlichkeit des Anspruchs hin, die daraus folgen, dass der Gesetzgeber nicht jeden Umgang mit Daten im Voraus regeln kann. Kritisch mit der Datenschutz-Grundverordnung setzt sich der ehemalige Sächsische Datenschutzbeauftragte Thomas Giesen auseinander. Er legt die aus seiner Sicht fehlende Regelungskompetenz der EU dar, verzichtet aber auch nicht darauf, sich Grundprinzipien in Abschnitten wie »Was sind Daten?« oder »Informationelle Selbstbestimmung ist unmöglich« zu hinterfragen. Die Erreichung eines wirksamen Datenschutzes durch die Rolle des Rechts stellt der Wissenschaftler Jürgen Kühling vor. Die Bundesjustizministerin a.D. Sabine Leutheusser-Schnarrenberger geht in ihrem Beitrag zur Verantwortung der Internet-Giganten auch auf den Aspekt des Privatheitkonzepts und die Schutzpflicht des Staates ein. Kai von Lewinski trägt mit seiner Kurzfassung seiner Matrix des Datenschutzrechts eine Begriffsfeldanalyse bei und versucht daraus eine Zukunftsvorhersage abzuleiten. Unter anderem mit der Erwartungshaltung der Betroffenen beschäftigt sich Bettina Robrecht in ihrem Beitrag zu dem »Gesellschaftlichen Wandel und Digitalisierung«. Peter Schaar mahnt in seinem Kapitel »Datenschutz ohne Zukunft« an, dass der Datenschutz-Grundverordnung weitere Maßnahmen folgen müssen, um zu einem globalen Verständnis zu führen, auf dessen Grundlage das in den Grund- und Menschenechten garantierte Recht auf Privatsphäre und Datenschutz global durchgesetzt werden kann.
    Im Rahmen einer Rezension kann nicht jeder Beitrag verkürzt dargestellt werden. Es werden daher die Beiträge nur in der Zusammenstellung angesprochen. So bieten die Beiträge von Julia Schramm (»Im Zeitalter von Post-Privacy«), Christine Schulzki-Haddouti (»Wie sieht eine angemessene Datenschutzkontrolle aus?«), Michael Seemann (»Informationelle und andere Selbstbestimmungen«), Indra Spiecker, gen. Döhmann (»Datenschutzrecht im Internet in der Kollision«), Julia Stinner (»Informationelle Selbstbestimmung und Grenzen rechtlicher Regulierung«), Sabine Trepte (»Die Zukunft der informationellen Selbstbestimmung«) Anregungen zu einem Diskurs, der im Rahmen des Gesetzgebungsverfahrens zur Datenschutz-Grundverordnung ausblieb. Der Band ist empfehlenswert für alle diejenigen, die daran interessiert sind, wie sich das bestehende Verständnis von informationeller Selbstbestimmung in den nächsten Jahren - wenn nicht Jahrzehnten - verändern wird und welche Faktoren dabei in der Diskussion berücksichtigt werden sollten."
    RSWK
    Deutschland / Informationelles Selbstbestimmungsrecht / Aufsatzsammlung
    Subject
    Deutschland / Informationelles Selbstbestimmungsrecht / Aufsatzsammlung
  14. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.04
    0.039747916 = product of:
      0.13627857 = sum of:
        0.014454362 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.014454362 = score(doc=5344,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.018425206 = weight(_text_:des in 5344) [ClassicSimilarity], result of:
          0.018425206 = score(doc=5344,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 5344, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.04404146 = weight(_text_:fragen in 5344) [ClassicSimilarity], result of:
          0.04404146 = score(doc=5344,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 5344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.023975939 = weight(_text_:der in 5344) [ClassicSimilarity], result of:
          0.023975939 = score(doc=5344,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4886365 = fieldWeight in 5344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.010510888 = product of:
          0.021021776 = sum of:
            0.021021776 = weight(_text_:29 in 5344) [ClassicSimilarity], result of:
              0.021021776 = score(doc=5344,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.27205724 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
        0.014454362 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.014454362 = score(doc=5344,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.010416336 = product of:
          0.020832673 = sum of:
            0.020832673 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.020832673 = score(doc=5344,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  15. Berg, L.; Metzner, J.; Thrun, S.: Studieren im Netz - Das Ende der Uni? : Kostenloser Online-Unterricht (2012) 0.04
    0.039547283 = product of:
      0.13559069 = sum of:
        0.011921758 = weight(_text_:und in 227) [ClassicSimilarity], result of:
          0.011921758 = score(doc=227,freq=32.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 227, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.010404575 = weight(_text_:des in 227) [ClassicSimilarity], result of:
          0.010404575 = score(doc=227,freq=10.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.1710414 = fieldWeight in 227, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.02724359 = weight(_text_:fragen in 227) [ClassicSimilarity], result of:
          0.02724359 = score(doc=227,freq=6.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.24358979 = fieldWeight in 227, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.016303154 = weight(_text_:der in 227) [ClassicSimilarity], result of:
          0.016303154 = score(doc=227,freq=58.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.33226293 = fieldWeight in 227, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.04778739 = weight(_text_:unterricht in 227) [ClassicSimilarity], result of:
          0.04778739 = score(doc=227,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.29151487 = fieldWeight in 227, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.011921758 = weight(_text_:und in 227) [ClassicSimilarity], result of:
          0.011921758 = score(doc=227,freq=32.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 227, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.010008476 = product of:
          0.020016951 = sum of:
            0.020016951 = weight(_text_:deutschland in 227) [ClassicSimilarity], result of:
              0.020016951 = score(doc=227,freq=4.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.18867008 = fieldWeight in 227, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=227)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Wird das Internet die Uni ablösen? Wird bald nur noch online gelehrt und gelernt? Professor Sebastian Thrun von der Universität Stanford und Chef bei Google X sagt, in 50 Jahren gibt es weltweit nur noch zehn Universitäten. Professor Joachim Metzner hält dagegen
    Content
    "Pro - (Prof. Sebastian Thrun) An der kalifornischen Elite-Universität Stanford studieren 15.000 junge Leute. Im vergangenen Herbst kamen auf einen Schlag 160.000 Studierende hinzu, allerdings nur online. Die private Hochschule hatte erstmals ein Einführungsseminar für das Fach Künstliche Intelligenz ins Internet gestellt, in schlichter Aufmachung, aber kostenlos und für alle Welt zugänglich. Mit einem derart gewaltigen Ansturm hatte niemand in Stanford gerechnet, die Nachricht von dem kostenlosen Informatikkurs verbreitete sich praktisch in Echtzeit um den Globus. Zwei Drittel der Anmeldungen kamen aus Asien und Europa, insgesamt zählten die Organisatoren Interessenten aus 190 Ländern. Es waren viele junge Leute dabei, aber auch Hausfrauen mit kleinen Kindern und achtzigjährige Rentner. Wer das Angebot aufmerksam gelesen hatten, wusste, was auf sie zukam: ein achtwöchiger Kurs mit Vorlesungen, Hausaufgaben, jede Woche ein benoteter Test und ein Abschlussexamen - gleiche Anforderungen also wie im Live-Kurs, der parallel dazu für rund zweihundert Studierende auf dem Campus stattfand. Nur dreißig Leute im Seminar Ein Stanford-Zertifikat wurde nicht in Aussicht gestellt, nur eine Art Teilnahmebestätigung für alle, die bis zum Ende durchhielten. Rund 23.000 Teilnehmer schafften die schwere Prüfung am Ende des Kurses. "Zum Schluss saßen in meinem Seminar in Stanford nur noch dreißig Leute", sagt der in Solingen geborene Kursleiter Sebastian Thrun. "Die anderen bevorzugten den Online-Unterricht, vor allem wegen der größeren zeitlichen und räumlichen Flexibilität." Das habe ihn besonders beeindruckt.
    Die Idee, seinen Präsenzkurs speziell aufbereitet ins Internet zu stellen, kam ihm im vergangenen Jahr, als er die Arbeit von Salman Khan kennenlernte. Dieser wendet sich mit seiner Video-Bibliothek vor allem an Schüler (siehe nebenstehende Reportage). Nun, nach dem Erfolg des Stanford-Experiments, sieht Sebastian Thrun einen Epochenwechsel heraufziehen. Er sagt das Ende der Universität, wie wir sie kennen, voraus. "In fünfzig Jahren wird es weltweit nur noch zehn Institutionen geben, die akademische Bildung vermitteln." Der jugendlich wirkende Informatikprofessor sitzt auf einer Parkbank am sogenannten Oval, einer großen Rasenfläche am Haupteingang von Stanford. Er spricht schnell, fröstelt. Seit Wochen bekommt er nicht genug Schlaf, zu viele Projekte. Als das Gespräch auf seine Studienzeit in Deutschland kommt - die späten Achtzigerjahre - wird er nicht etwa nostalgisch. Denn er hat keine guten Erinnerungen: Professoren, die veralteten Stoff lieblos vermittelten, überfüllte Lehrveranstaltungen, zu wenig Diskussion. Fragen aus der Praxis "Die Professoren waren unnahbar, es ging ihnen oft nur darum, Studenten abzuwimmeln." Sebastian Thrun hat es dennoch geschafft: Zuerst als Stanford-Professor, jetzt als Chef bei Google X, einem Labor, in dem der Suchmaschinen-Konzern zum Beispiel fahrerlose Fahrzeuge entwickelt. Nebenher baut er das Projekt Udacity auf, eine digitale Universität, die kostenlose Online-Kurse anbietet. Zunächst in den Computerwissenschaften, später sollen Angebote in den Ingenieurwissenschaften, Physik und Chemie folgen. Thruns Vision sind dynamische, interaktive Videos, nicht nur zu abstrakten Themen, sondern zu Fragen aus der Praxis.
    Wie entwickle ich eine Computer-App zum Beispiel. Oft würden solche Fragen von talentierten Menschen aus armen Ländern gestellt, die sich mit dem Wissen eine Existenz aufbauen wollten. Ihnen die richtigen Antworten zu geben sei besser als Entwicklungshilfe, findet Thrun. Udacity könne die Welt zum Besseren verändern, und deshalb müsse das Angebot kostenlos bleiben. Die meisten Universitäten schlafen noch Im Sommersemester gibt der Forschungsleiter von Google, Peter Norvig, ein Seminar zur Gestaltung von Software, andere namhafte Experten von Hochschulen aus dem angloamerikanischen Raum bieten Kurse über Programmiersprachen oder Kryptografie an. Mit dem Stanford-Image kann Thrun, der sich als Professor hat beurlauben lassen, nur noch indirekt punkten. Und Geld hat er von dort auch nicht mehr zu erwarten. Aber, wer weiß, vielleicht springt ja eines Tages sein neuer Arbeitgeber ein. Bis dahin tragen einige Weltfirmen zur Finanzierung bei: Sie zahlen für die Vermittlung besonders fähiger Absolventen. Unterdessen zieht die Konkurrenz nach. Weitere Stanford-Professoren bieten kostenlose Online-Kurse an und auch das renommierte Massachusetts Institute of Technology (MIT) an der Ostküste des Landes hat eine digitale Initiative namens MITx angekündigt. Die Teilnahme soll kostenlos sein, aber für das Abschlusszertifikat ist eine Gebühr zu entrichten. Diese Aktivitäten seien Ausnahmen, sagt Thrun: Die meisten Universitäten schlafen noch."
    Contra - (Prof. Joachim Metzner) Erleben wir mit der Gründung von Udacity wirklich die kühne revolutionäre Zeitenwende im Bildungswesen, den beginnenden Untergang der herkömmlichen Institution Hochschule? Längst hat sich doch, auch in Deutschland, das e-learning seinen Platz erobert. Es gibt kaum noch eine Hochschule, die nicht über entsprechende Angebote verfügt. Die Reform der Lehre ist trotz überfüllter Hörsäle in vollem Gange, auch dank der Social Media. Das erwartet die heutige Generation der Studierenden, und diese Erwartung wird sich noch verstärken. Aber für Sebastian Thrun wird der virtuelle Raum ja den Hörsaal ablösen. Doch wird er das wirklich? Campus als Herzstück der Hochschule Die Präsidentin des Massachusetts Institute of Technology, Susan Hockfield, ist da anderer Meinung: Trotz aller Online-Möglichkeiten, sagt sie, bleibt der reale Campus das Herzstück der Hochschule. Sie weiß, dass die Studierenden zwar die Freiheiten schätzen, die das Internet bietet, aber mindestens ebenso sehr das reale Zusammensein - sei es im Seminarraum, sei es auf der Wiese oder in der Kneipe. Dass zahlreiche Online-Kurse kostenlos nutzbar sind, ist faszinierend und eröffnet riesige soziale Chancen. Doch werfen solche Kurse immense Gewinne ab, wenn der Anbieter dies will. Jeder Nutzer erzeugt ja, quasi als Testperson, Massen an wertvollen Daten, die Auskunft geben über Interessen und Nutzungsverhalten. Als kostenloser Anbieter kann man aus solchen Informationen Premiumangebote ableiten, die für viel Geld verkäuflich sind.
    Abschluss nicht kostenlos zu haben Wohl nicht zufällig führen Online-Kurse meist auch nur zu Abschlusszertifikaten, die den Wunsch nach einem echten Hochschulabschluss wecken. Der ist natürlich nicht kostenlos zu haben, jedenfalls nicht in den USA, dem Wunderland des Studierens via Internet. Niemand sollte die Chancen, die das Internet Studierenden eröffnet, kleinreden und den begeisterten Architekten virtueller Hochschulen die guten Absichten absprechen. Aber hat nicht die Auseinandersetzung um Google Street View gezeigt, welche Datenmassen buchstäblich en passant erzeugt werden und anderweitig verwertbar sind? Sebastian Thrun ist einer der Entwickler dieses Programms, man sollte ihm nicht unkritisch begegnen. Seine Prognose, dass sich bald nur noch zehn Anbieter von Studiengängen den Bildungsmarkt weltweit aufteilen werden, lässt da aufhorchen. Vermutlich glaubt er, einer stehe schon fest."
  16. Ammann, A.: Klassifikation dynamischer Wissensräume : multifaktorielle Wechselbeziehungen zur Generierung und Gestaltung konstellativer dynamischer und mehrdimensionaler Wissensräume mit einem Fokus der Anwendung in der Zahn-, Mund- und Kieferheilkunde am Beispiel der enossalen Implantologie (2012) 0.04
    0.03950637 = product of:
      0.15802547 = sum of:
        0.017521333 = weight(_text_:und in 1751) [ClassicSimilarity], result of:
          0.017521333 = score(doc=1751,freq=48.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 1751, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.03806908 = weight(_text_:methodik in 1751) [ClassicSimilarity], result of:
          0.03806908 = score(doc=1751,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.23967536 = fieldWeight in 1751, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.023022106 = weight(_text_:des in 1751) [ClassicSimilarity], result of:
          0.023022106 = score(doc=1751,freq=34.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.37846172 = fieldWeight in 1751, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.023822539 = weight(_text_:der in 1751) [ClassicSimilarity], result of:
          0.023822539 = score(doc=1751,freq=86.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.48551017 = fieldWeight in 1751, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.03806908 = weight(_text_:methodik in 1751) [ClassicSimilarity], result of:
          0.03806908 = score(doc=1751,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.23967536 = fieldWeight in 1751, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.017521333 = weight(_text_:und in 1751) [ClassicSimilarity], result of:
          0.017521333 = score(doc=1751,freq=48.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 1751, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
      0.25 = coord(6/24)
    
    Abstract
    Das Thema der Wissensklassifikationen begleitet uns über alle vier epochalen Konvergenz-Zyklen im Wissenstransfer von der schriftlichen, der analogen über die digitalen bis zur künstlichen neuronalen Welt als Ordnungsprinzipien für eine Orientierung in unserer Wissenslandschaft. Die Explosion des Verfügungswissens wird geprägt durch eine immer weitere Fortschreitung zur Ausdifferenzierung der Wissenschaftsdisziplinen, die digitale Speicherung des "Weltwissens" mit ihren Web-Technologien und dem Ubiquitous Computing als Bestandteil des "Internets der Dinge". Die klassischen Konzepte der Wissensorganisation durch ihre Struktur der Dendrogramme und der orthogonalen Koordinatensysteme werden den Anforderungen für eine aufgaben- und problemorientierten Wissensnavigation nicht mehr gerecht, um die Qualität des Wissens aus der Quantität so zu selektieren, dass damit eine kompetente Unterstützung der Entscheidungsprozesse gewährleistet werden kann. Die Berechnung semantischer Relationen durch statistische, hierarchischagglomerative Algorithmen u.a. mit Cluster- und Vektorenmodellen stoßen an ihre Grenzen in der Modellierung von Wissensräumen.
    Eine Neuorientierung der Wissensarchitektur bei der Generierung und Gestaltung der konstellativen dynamischen und mehrdimensionalen Wissensräume wird eine zentrale Herausforderung in der digitalen Wissenswelt werden. Die <Einheit des Wissens> wird dabei nicht mehr als universeller interdisziplinärer Wissensraum mit dem Problem <lost within the space of knowledge> verstanden, sondern assistierende Netz- Avatare konfigurieren den erforderlichen Wissensraum durch die Orientierung des konstellativen Nutzerprofils selbstständig. Es wäre jedoch vermessen, hier den Anspruch eines neuen Ordnungsprinzips des Wissens zu erheben. Mit dieser Arbeit können aber Impulse für einen "semantischen Code des Wissens" gegeben werden, wie durch eine Klassifikation der Wissensräume ein neues Konzept zur "Einheit des Wissens" in einem Raum-Zeit-Gefüge entstehen kann. Dabei werden wir uns auch der fundamentalen Frage stellen müssen, wie sich eine neue Wissenskultur definiert, in der das Jahrtausende währende Kulturerbe der Schriftlichkeit des Wissens sich zu einer Flüchtigkeit des Wissens als Gebrauchsgut hin entwickelt. Es ist die gesellschaftliche Position der genuinen intellektuellen Leistung des Urhebers und Schöpfers einer Schriftlichkeit, die er an die "Wisdom of Community" abgibt. Parallel hierzu finden auch Divergenz-Prozesse statt, in der sich die Schriftlichkeit von dem Medium löst, um selbst laufend neue Konvergenz- Prozesse einzugehen, in denen nicht mehr der Inhalt das Medium bestimmt, sondern das Medium die charakteristischen Merkmale der Inhalte definiert.
    Eine Herausforderung dieser Arbeit lag in der Struktur der Wissensordnung zu dieser Thematik. Dabei sei erlaubt, mit dem erforderlichen Respekt sich auch in andere Fachgebiete hineinzuwagen, um diese Thematik in den historischen Kontext zur Entwicklung der Ordnungsprinzipien des Wissens zu stellen. Nur dadurch wird ersichtlich, wie diese Fragestellung in den jeweiligen Epochen sich immer wieder aufs Neue ergeben hat, altes und neues Wissen zu ordnen, um damit den Wissenstransfer zu fördern. Neue Erkenntnisse zu gewinnen bedeutet auch alte Erkenntnisse verstehen zu lernen. Da Wissen keine Grenzen hat, ist diese komplexe Thematik auch nicht fakultativ behandelt, sondern wurde interdisziplinär im Rahmen der Möglichkeiten in den jeweiligen Kontext gestellt. Für diese Arbeit ist die Methodik des deduktiven Prinzips der Wissensordnung gewählt worden.
    Im Teil A wird, neben dem menschlichen Urbedürfnis mit dem Streben nach dem Wissen, auf die vier epochalen Konvergenz-Zyklen mit ihren Kompetenzprofilen der Wissensordnungen im Wissenstransfer eingegangen. Insbesondere die Verschiebungen der Wissenschaftssprachen nehmen dabei einen erheblichen Einfluss auf die Abgrenzung der Klassifikationen zum impliziten, visuellen und explizitem Wissen. Daher werden den Äquivalenztypen im expliziten Wissensraum einer besonderen Aufmerksamkeit gewidmet, denn in unserer multilingualen Wissenslandschaft entstehen im Wissenstransfer zum Verfügungs-, Orientierungs- und Handlungswissen Artefakte, die auch auf die Gestaltung der Lernziel-Taxonomien einen Einfluss haben. Im Teil B werden zunächst die Arten, Merkmale und Klassifikationskonzepte des Wissens behandelt. Bei dem Versuch einer neuen Wissensordnung wird das kartesische / geodätische Koordinatensystem in ein Raum-Zeit-Gefüge gestellt, aus dem sich elf Wissensräume herauskristallisiert haben, die sowohl in ihren Definitionen, den damit verbundenen Ableitungen und Beispielen und einer Verortung im Wissensraum klassifiziert werden. Im Projekt <K-Space Visual Library in Dental Medicine> wird die problem- und aufgabenorientierte Navigation in den jeweiligen Wissensräumen erläutert und in der Diskussion die noch bevorstehenden Konvergenz-Forderungen der meist noch bestehenden proprietären digitalen Technologien und Programme skizziert, um diese bei der Modellierung der Wissensräume mit einzubeziehen.
    Im Teil C erfolgt zunächst auszugsweise die Beschreibung bestehender Dokumenten-Analysesysteme für die Bildung von aufgaben- und problemorientierten Wissensräumen, um dann in der Ableitung die Wissensmodelle nach dem Molekül- und Legoprinzip vorzustellen. Mit einer Diskussion zur gesamten Thematik und den Ergebnissen mit den sich aus der Arbeit ergebenden Thesen schließt diese Arbeit, die durch einen Rückblick, einen Einblick und einen Ausblick den Diskurs um die Genese einer neuen Ordnung des Wissens ein wenig beleben kann. Es ist dabei verständlich, dass diese Arbeit eine besondere Beziehung zur Zahn-, Mund- und Kieferheilkunde hat, da es die berufliche Wissenswelt ist, in der ich lebe.
    Content
    Dissertation zur Erlangung des Grades eines Doktors der Humanbiologie Doctor rerum biologicarum humanarum Vgl.: https://www.deutsche-digitale-bibliothek.de/binary/SKXBHJSDCMK7JOFRAVUCAMAU6UL5P5IR/full/1.pdf.
  17. Toebak, P.M.: Records Management : Gestaltung und Umsetzung (2010) 0.04
    0.03877841 = product of:
      0.15511364 = sum of:
        0.020545585 = weight(_text_:und in 4522) [ClassicSimilarity], result of:
          0.020545585 = score(doc=4522,freq=66.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42201215 = fieldWeight in 4522, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
        0.03806908 = weight(_text_:methodik in 4522) [ClassicSimilarity], result of:
          0.03806908 = score(doc=4522,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.23967536 = fieldWeight in 4522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
        0.01765715 = weight(_text_:des in 4522) [ClassicSimilarity], result of:
          0.01765715 = score(doc=4522,freq=20.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2902669 = fieldWeight in 4522, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
        0.02022715 = weight(_text_:der in 4522) [ClassicSimilarity], result of:
          0.02022715 = score(doc=4522,freq=62.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.41223508 = fieldWeight in 4522, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
        0.03806908 = weight(_text_:methodik in 4522) [ClassicSimilarity], result of:
          0.03806908 = score(doc=4522,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.23967536 = fieldWeight in 4522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
        0.020545585 = weight(_text_:und in 4522) [ClassicSimilarity], result of:
          0.020545585 = score(doc=4522,freq=66.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42201215 = fieldWeight in 4522, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
      0.25 = coord(6/24)
    
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
    Footnote
    Rez. in: ZfBB 58(2011) H.2, S.108 (R. Schneider): "Kürzlich, während eines Vortrags zum Knowledge Management eines der weltweit grössten Wirtschaftsprüfer, überraschte eine Zuhörerin den Vortragenden mit einer simplen Frage: »Brauchen Sie nicht eigentlich Records Management?« Darauf der sichtlich überrumpelte Referent: »Was meinen Sie mit Records Management?« Soviel zum Stand der Dinge und zur Verankerung des Themas in der aktuellen Betriebslandschaft. Insofern trifft es sich gut, dass nach dem lange erwarteten Handbuch zum Records Management nun das Folgewerk mit demselben Haupttitel sowie dem Untertitel Gestaltung und Umsetzung von Peter Toebak erschienen ist. Der ungleich schlankere Band widmet sich - wie es der Untertitel andeutet - der konkreten Realisierung des betrieblichen Aktenmanagements und tut dies vor allen Dingen anhand eines Zehn-Schritte-Plans, der nach einer Einleitung und einer Rekapitulation der Kernproblematik des Records Management im dritten Kapitel vorgestellt und den folgenden vier Kapiteln ausführlich ausgearbeitet und in allen Details extemporiert wird. Die einzelnen Schritte dieses Plans reichen dabei von der Definition der Methodik (1) und der Identifikation des Umfelds (2) über die Identifikation der Prozesskategorien (3) und die Definition der Records-Serien (4) zu den eher applikationsorientierten Arbeitschritten. Diese umfassen nach der Identifikation der Anwendungen (5), die Integration der Systemlandschaft mit dem EDRMS (= Electronic Documentary Records Management System) (6), die Definition weiterer Attribute (7), die Auswahl und Installation des EDRMS (8) sowie die Umsetzung des EDRMS (9) und dessen Evaluation (10).
    Über allen Ausführungen steht jedoch gleichsam das Mantra der Synonymie von Dossier und Prozess, wobei Synonymie hier im strengeren Sinn als funktionale Äquivalenz zu verstehen ist. Um dieses zentrale Kernverständnis werden dann die weiteren essentiellen Kernbegriffe wie »item level«, »above item level«, »kleiner und grosser Lebenszyklus«, »Compliance« und schlussendlich das Herzstück des RM, das »Masterdossier«, ausführlich diskutiert und in den rechten Kontext zur Deckungsgleichheit von Dossier und Prozess gebracht. Wie schon im Handbuch erweist sich der Verfasser in seiner Kompetenz nicht nur als Kenner, sondern auch als Meister des Metiers und unterstreicht dies durch eine detaillierte Bezugnahme auf angrenzende Quellen, so dass die Lektüre der teilweise äußerst umfangreichen einzelnen Kapitel, die allerdings nur sehr flach strukturiert sind, immer erhellend bleibt und die Notwendigkeit einer Umsetzung des Records Management unterstreicht. Der Leser wird Zeuge eines enormen Reflektionsprozesses, der sich auch an den sorgfältig ausgearbeiteten Anhängen mit den dort vorhandenen Literaturangaben und dem Glossar der wichtigsten Begriffe zeigt. Jedoch hätte man dem Buch neben einem weiträumigeren Textspiegel, grösseren Abständen zwischen Zeilen und Absätzen und leserlicheren Illustrationen ein etwas strengeres Lektorat gewünscht, welches die sehr häufigen Exkurse entweder deutlicher abgehoben oder ganz gestrichen hätte. So ist der Leser ständig gefordert, dem auf hohem akademischen Niveau mäandernden, bisweilen ausufernden Gedankenstrom mit höchstmöglicher Aufmerksamkeit zu folgen. Andererseits muss bei aller Kritik an den sowohl formalen als auch inhaltlich übervollen Seiten auch das Bemühen um Vollständigkeit und Einbettung in den wissenschaftlichen Gesamtkontext honoriert werden. Daran fehlt es diesem Buch wahrlich nicht; an manchen Stellen hätte man sich nur etwas mehr konkrete Beispiele gewünscht, um die Komplexität der Materie besser zu veranschaulichen. So könnte man sich vorstellen, in einer neuen Auflage den Zehn-Schritte-Plan am Fallbeispiel einer imaginären Firma oder Verwaltung zu illustrieren, wie dies beispielsweise Helmut Krcmar in seinem Standardwerk zum Informationsmanagement anhand der Rockhaus AG tut.
    Möglich wäre dies auch in einem dritten Band desselben Autors, der die Kürze und Struktur eines Vademekums haben sollte. Dieses Vademekum könnte dem Records Manager als handlicher Leitfaden und Nachschlagewerk für die jeweils umzusetzenden Projekte dienen. Zudem könnte es dem allgemeinen Management die Notwendigkeit des Records Management vor Augen führen und eine konkrete Entscheidungshilfe zur Gestaltung der allgemeinen Richtlinien sein. Denn eines steht dem Leser nach der Lektüre klar vor Augen: Es braucht mehr Records und weniger Knowledge Management sowie eine sinnvolle Verzahnung dieser beiden Disziplinen mit dem sie stützenden Informationsmanagement. Records Management ist dabei nicht nur ein Scharnier zwischen Informationsmanagement und Knowledge Management und der alles umfassenden Informationstechnologie, sondern kann vielmehr zum Dreh- und Angelpunkt einer effizienten betrieblichen Verwaltung werden. Wenn auch die allgemeine Managementebene bereit ist, diese strukturelle Notwendigkeit zu erkennen, dann steht der von Peter Toebak beschriebenen Gestaltung und Umsetzung nichts mehr im Wege."
    Imprint
    Baden : hier + jetzt, Verl. für Kultur und Geschichte
  18. Inhalte statt Geräte (2016) 0.04
    0.038530543 = product of:
      0.15412217 = sum of:
        0.020786293 = weight(_text_:und in 759) [ClassicSimilarity], result of:
          0.020786293 = score(doc=759,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42695636 = fieldWeight in 759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.018760232 = weight(_text_:der in 759) [ClassicSimilarity], result of:
          0.018760232 = score(doc=759,freq=30.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3823389 = fieldWeight in 759, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.0060062218 = product of:
          0.0120124435 = sum of:
            0.0120124435 = weight(_text_:29 in 759) [ClassicSimilarity], result of:
              0.0120124435 = score(doc=759,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15546128 = fieldWeight in 759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=759)
          0.5 = coord(1/2)
        0.076459825 = weight(_text_:unterricht in 759) [ClassicSimilarity], result of:
          0.076459825 = score(doc=759,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.4664238 = fieldWeight in 759, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.020786293 = weight(_text_:und in 759) [ClassicSimilarity], result of:
          0.020786293 = score(doc=759,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42695636 = fieldWeight in 759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.011323297 = product of:
          0.022646595 = sum of:
            0.022646595 = weight(_text_:deutschland in 759) [ClassicSimilarity], result of:
              0.022646595 = score(doc=759,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.21345583 = fieldWeight in 759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.03125 = fieldNorm(doc=759)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Zum Nationalen IT-Gipfel, der am 16. und 17. 11. 2016 in Saarbrücken stattfindet, appelliert die Deutsche Mathematiker-Vereinigung: Nicht das bloße Verwenden digitaler Medien, sondern das Verständnis ihrer Grundlagen schafft die Voraussetzung für einen souveränen digitalen Wandel. Ohne die richtigen Lerninhalte bleiben Soft- und Hardwarelieferungen eine Scheinlösung.
    Content
    Berlin, 15. November 2016. Der Vorstand der Deutschen Mathematiker-Vereinigung fasst seine Position zur "Bildungsoffensive zur digitalen Wissensgesellschaft" wie folgt zusammen. Um die technischen, wirtschaftlichen und gesellschaftlichen Herausforderungen der Digitalisierung zu meistern, muss auf allen Ebenen der Bildung gehandelt werden. Wir begrüßen den Willen der deutschen Bildungspolitik, ihren Handlungsspielraum auf diesem Feld zu nutzen. Mit ihrer gegenwärtigen Schwerpunktsetzung schafft die "Bildungsoffensive zur digitalen Wissensgesellschaft" aus unserer Sicht allerdings eine Scheinlösung und könnte ihr Ziel verfehlen. Deshalb plädieren wir dafür, den Schwerpunkt der Debatte und der "Offensive" zu verschieben. Ziel sollte sein, grundlegende Kompetenzen zu vermitteln, die Lernende zu einem mündigen Umgang mit digitalen Neuerungen befähigen. Wir fordern: Inhalte statt Geräte!
    Tablets und soziale Netzwerke verwenden zu können, heißt noch lange nicht, den digitalen Wandel zu meistern. Vollständig digital kompetent ist und bleibt auf lange Sicht nur, wer die theoretischen Grundlagen versteht. Diese Grundlagen entstehen nicht als Nebeneffekt beim Lernen mit digitalen Medien, sondern müssen separat und fokussiert im Unterricht vermittelt werden. Digitale Medien können und sollten hierzu nur ergänzend eingesetzt werden. Nach Erfahrung der überwältigenden Mehrheit der Mathematikerinnen und Mathematiker weltweit sind Tafel, Papier und das direkte Unterrichtsgespräch meist viel besser geeignet. Auch dürfen diese Grundlagen nicht allein Hochbegabten oder digital Affinen vorbehalten bleiben, sondern müssen Teil der Allgemeinbildung werden. Ohne die vorherige Vermittlung dieser Grundlagen ist die Belieferung von Bildungseinrichtungen mit Soft- und Hardware hingegen eine Scheinlösung. Bleiben die richtigen Lerninhalte aus, hemmt sie sogar den Anstieg der Digitalisierungskompetenz in Deutschland. Stattdessen wird die Lernzeit der Lernenden überfrachtet, und oberflächlich sinnvolle Inhalte verdrängen den Erwerb von Grundlagen.
    Wir halten es daher für fehlgeleitet, an erster Stelle in digitale Medien zu investieren. Reduziert man Digitalisierungskompetenz auf den Umgang mit digitalen Medien, so glaubt man irrig, Digitalisierungskompetenz entstehe erschöpfend im Lernen mithilfe digitaler Medien. Das Gegenteil ist aber richtig: Erst die auf Grundlagen sorgfältig aufbauende Digitalkompetenz kann das enorme Potenzial moderner Hard- und Software voll nutzen! Digitale Medien sollten nicht um ihrer selbst willen und auf Kosten der Zukunft Lernender gefördert werden. Wir fordern über die föderalen Hemmnisse hinweg, die allgemeinen Rahmenbedingungen für die Bildung zu verbessern. Wir fordern den Unterricht in den Fächern Mathematik und Informatik zu stärken und nicht weiter auszudünnen, damit hier die grundlegende und langfristige Digitalisierungskompetenz vermittelt werden kann. Wir fordern, die Lehrerbildung in diesen Bereichen substanziell zu verbessern. Wir fordern, analytisches Denken gezielt zu lehren und diesem Anliegen Priorität zu geben."
    Date
    5.11.2022 18:29:47
    Issue
    [Presseinformation der Deutschen Mathematiker-Vereinigung vom 15.11.2016].
  19. Walther, R.: Abschied von einem Relikt der Print-Ära : MEDIENgedanken: Ende des gedruckten Brockhaus-Lexikons (2013) 0.04
    0.03679828 = product of:
      0.110394835 = sum of:
        0.0031374625 = product of:
          0.009412387 = sum of:
            0.009412387 = weight(_text_:p in 1030) [ClassicSimilarity], result of:
              0.009412387 = score(doc=1030,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.11917553 = fieldWeight in 1030, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1030)
          0.33333334 = coord(1/3)
        0.01991326 = weight(_text_:und in 1030) [ClassicSimilarity], result of:
          0.01991326 = score(doc=1030,freq=62.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.409024 = fieldWeight in 1030, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1030)
        0.018518975 = weight(_text_:des in 1030) [ClassicSimilarity], result of:
          0.018518975 = score(doc=1030,freq=22.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.30443448 = fieldWeight in 1030, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1030)
        0.018874912 = weight(_text_:fragen in 1030) [ClassicSimilarity], result of:
          0.018874912 = score(doc=1030,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.16876394 = fieldWeight in 1030, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1030)
        0.017039828 = weight(_text_:der in 1030) [ClassicSimilarity], result of:
          0.017039828 = score(doc=1030,freq=44.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34727657 = fieldWeight in 1030, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1030)
        0.004504666 = product of:
          0.009009332 = sum of:
            0.009009332 = weight(_text_:29 in 1030) [ClassicSimilarity], result of:
              0.009009332 = score(doc=1030,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.11659596 = fieldWeight in 1030, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1030)
          0.5 = coord(1/2)
        0.01991326 = weight(_text_:und in 1030) [ClassicSimilarity], result of:
          0.01991326 = score(doc=1030,freq=62.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.409024 = fieldWeight in 1030, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1030)
        0.0084924735 = product of:
          0.016984947 = sum of:
            0.016984947 = weight(_text_:deutschland in 1030) [ClassicSimilarity], result of:
              0.016984947 = score(doc=1030,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.16009188 = fieldWeight in 1030, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1030)
          0.5 = coord(1/2)
      0.33333334 = coord(8/24)
    
    Content
    "2008 wurde bekannt gegeben, dass die 2005/06 präsentierte 21. Auflage des Brockhaus vorerst die letzte gedruckte sein wird. Ab dem 15. April 2008 war die Restauflage zwar noch zu kaufen, aber gleichzeitig wurde das Lexikon vollständig und gratis ins Internet gestellt. Vor kurzem erklärte der Verlag, dass der Betrieb eingestellt wird und nur die vertraglichen Verpflichtungen aus der Online-Aktualisierung bis 2020 weiterlaufen. Viele Kommentatoren halten die 30-bändige, gedruckte Ausgabe für ein Relikt und einen elitären Luxus angesichts der schnellfingerig zugänglichen Lexika im Internet. Der Vorgang hat neben der geschäftlich-profitorientierten eine prinzipielle, wissens- und bildungsgeschichtliche Seite. Allein darum geht es, denn der Brockhaus als Geschäft ist eine reine Privatsache der Eigentümer. Das Konversationslexikon verdankt seine Entstehung einer historischen Konstellation, die sich heute im Zeichen von Internet und elektronischer Revolutionierung der Kommunikation wiederholt. Auch die Konstellation in der Entstehungszeit des Konversationslexikons um 1810 war geprägt durch ein ökonomisches Kalkül und ein konzeptionelles Dilemma.
    Ökonomisch gesehen sind die Konversationslexika des 19.Jahrhunderts die Erben der Enzyklopädien des 18. Jahrhunderts. Diese großen Universallexika waren allein von ihrem Umfang, intellektuellen Anspruch und Preis her nicht für ein breites Publikum bestimmt. Genau darauf schielte jedoch der Geschäftsmann Brockhaus mit seiner schlichten Rechnung: von den 100 Millionen deutschsprachigen Europäern entfielen ihm zufolge 75 Millionen auf Frauen, Kinder, Arme und Al- te. Diese schieden als Käufer aus. Vom Rest sollte ein Viertel also rund sechs Millionen Bildungs- und Besitzbürger - ein Lexikon kaufen, um »eine Art von Schlüssel« zu erwerben, mit dem sie sich »den Eingang in gebildete Zirkel« verschaffen konnten. Daher der Name »Konversationslexikon«. Neben diesem prosaischen ökonomischen Kalkül gab es ein konzeptionelles Dilemma für die in dem Jahrhundert der Aufklärung entstandenen großen Enzyklopädien oder Universallexika. Sie beanspruchten, das gesamte verfügbare Wissen zu sammeln. Aus diesem enzyklopädischen Geist - das griechische Wort bedeutet wörtlich »Kreis der Wissenschaften« - entstand Johann Heinrich Zedlers 68 Bände starkes »Großes vollständiges Universallexikon aller Wissenschaften und Künste« (1732-1754), wobei das Wort »vollständig« im Titel wörtlich verstanden wurde. Denis Diderot und Jean Le Rond d'Alembert publizierten die 35 Bände der »Encyclopédie ou dictionnaire raisonnée des sciences, des arts et des metiers« innerhalb von 29 Jahren - zwischen 1751 und 1780. Das konzeptionelle Dilemma für diese Enzyklopädien entstand, weil sich das Wissen viel schneller vermehrte und veränderte, als es gedruckt werden konnte. Die »Allgemeine Enzyklopädie der Wissenschaften und Künste« von Johann Samuel Ersch und Johann Gottfried Gruber wurde deshalb mit dem 167. Band beim Buchstaben P 1889 abgebrochen.
    Es gab zwei Auswege aus diesem Dilemma: Man konnte den umfassenden enzyklopädischen Anspruch aufrechterhalten, aber sich auf einzelne Fach- bzw. Wissensgebiete beschränken. Diesen Weg ging die »Oeconomische Encyclopädie« (1773-1858) und endete in einer Sackgasse: Mit dem 242. Band erreichte sie den Buchstaben L. und wurde 1858 eingestellt - angeblich mit dem Stichwort Leiche. Den zweiten Ausweg beschritt u.a. der Kaufmann Brockhaus. Er wollte nicht mehr alles Wissen sammeln, sondern nur das für gepflegte Gespräche notwendige Wissen. Die schwierige Frage, was zum Notwendigen gehörte und was nicht, wurde zunächst ebenso willkürlich beantwortet wie moralische, ethische und ästhetische, aber auch medizinische und politische Fragen - bieder-hausväterlich und vorurteilstrunken. Vieles blieb mit Haut und Haaren dem Zeitgeist verhaftet. Friedrich Engels, der gebildete Grandseigneur des Sozialismus, nannte Konversationslexika deshalb »Eselsbrücken des deutschen Bildungsphilisters«. Gegen Ende des 19. Jahrhunderts wurden die Lexika sachlicher in ihrer Diktion und wissenschaftlicher. Seit der 17. Auflage von 1966 nannte sich das Lexikon »Brockhaus-Enzyklopädie«. Aktualität, Objektivität, Selektivität und Präzision sind die Grundanforderungen an jedes Lexikon. Die vier Anforderungen sind jedoch nur schwer miteinander vereinbar. Die Aktualität kann die Objektivität gefährden, die Auswahl tangiert Aktualität und Objektivität, die Präzision ist mit Objektivitäts- und Auswahlproblemen ver- knüpft. Lexikographie war und ist inhaltlich ein Jonglierakt mit diesen vier Kugeln. Wikipedia weicht dem aus und präsentiert einen unübersichtlichen Wissenshaufen.
    Wissen vermehrt und verändert sich auch heute immer schneller. Das Online-Lexikon Wikipedia ist viel schneller und umfangreicher als Brockhaus. Aber Wikipedia organisiert nicht Wissen, sondern zerstückelt es in ein ebenso wirres wie verwirrendes Labyrinth von Wissenspartikeln und Verweisen, während die 4060 Lexikographen bei Brockhaus das unübersichtlich-chaotische Expertenwissen von Tausenden von Spezialisten zu konsistenten Einheiten verdichten. Sich mit Wikipedia zu bilden, gleicht dem hoffnungslosen Unterfangen, mit einem mehrbändigen Wörterbuch eine Sprache zu lernen. Wenn der gedruckte Brockhaus verschwindet, drohen nicht Weltuntergang oder barbarische Ignoranz - ein kultureller Verlust aber allemal."
    Source
    Neues Deutschland. 3./4.8.2013, S.W10
  20. Leitfaden zum Forschungsdaten-Management : Handreichungen aus dem WissGrid-Projekt (2013) 0.04
    0.036155563 = product of:
      0.1735467 = sum of:
        0.015994716 = weight(_text_:und in 1029) [ClassicSimilarity], result of:
          0.015994716 = score(doc=1029,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 1029, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1029)
        0.06538461 = weight(_text_:fragen in 1029) [ClassicSimilarity], result of:
          0.06538461 = score(doc=1029,freq=6.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.58461547 = fieldWeight in 1029, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=1029)
        0.010275402 = weight(_text_:der in 1029) [ClassicSimilarity], result of:
          0.010275402 = score(doc=1029,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.20941564 = fieldWeight in 1029, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1029)
        0.015994716 = weight(_text_:und in 1029) [ClassicSimilarity], result of:
          0.015994716 = score(doc=1029,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 1029, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1029)
        0.065897256 = sum of:
          0.048040684 = weight(_text_:deutschland in 1029) [ClassicSimilarity], result of:
            0.048040684 = score(doc=1029,freq=4.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.4528082 = fieldWeight in 1029, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.046875 = fieldNorm(doc=1029)
          0.017856576 = weight(_text_:22 in 1029) [ClassicSimilarity], result of:
            0.017856576 = score(doc=1029,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.23214069 = fieldWeight in 1029, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1029)
      0.20833333 = coord(5/24)
    
    Abstract
    Digitale Forschungsdaten sind eine unverzichtbare Grundlage moderner Wissenschaft. Mit ihnen sind aber eine Reihe von notwendigen Datenmanagement-Aufgaben verbunden, damit sie in der aktiven Forschung bestmöglich eingesetzt werden können und die gute wissenschaftliche Praxis eingehalten wird. Wie lange sollen die Daten aufbewahrt werden? Welche Kontextinformtionen müssen erfasst werden, um die Daten zu einem späteren Zeitpunkt noch sinnvol benutzen zu können? Wie viel kostet die Aufbewahrung? Dieses Buch kann diese Fragen nur aufwerfen, nicht beantworten. Denn ohne auf Details der jeweiligen Disziplin, Forschungsdaten und Projekte einzugehen, lassen sich diese Fragen nicht allegemeinverbindlich klären. Was dieses Buch jedoch mit einem Leitfaden und einer Checkliste bereitstellt, ist ein einfaches Instrument für fachwissenschatliche oder Infrastruktur-Einrichtungen, um die wichtigsten Aufgaben und Fragen im Forschungsdaten-Management strukturiert beantworten und effizient planen zu können.
    Date
    19.12.2015 11:57:22
    RSWK
    Deutschland / Forschungsprozess / Digitale Daten / Datenmanagement / Langzeitarchivierung
    Subject
    Deutschland / Forschungsprozess / Digitale Daten / Datenmanagement / Langzeitarchivierung

Languages

  • d 1724
  • e 1499
  • a 2
  • f 2
  • hu 1
  • i 1
  • no 1
  • sp 1
  • More… Less…

Types

  • a 2644
  • el 515
  • m 345
  • s 85
  • x 83
  • r 29
  • n 10
  • b 7
  • i 3
  • p 3
  • v 2
  • l 1
  • ms 1
  • z 1
  • More… Less…

Themes

Subjects

Classifications