Search (4751 results, page 238 of 238)

  • × year_i:[2010 TO 2020}
  1. Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010) 0.00
    0.0016616944 = product of:
      0.004985083 = sum of:
        0.004985083 = weight(_text_:of in 4315) [ClassicSimilarity], result of:
          0.004985083 = score(doc=4315,freq=4.0), product of:
            0.08160993 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.05218836 = queryNorm
            0.06108427 = fieldWeight in 4315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
      0.33333334 = coord(1/3)
    
    Content
    Die erste Session der Veranstaltung war dem von der DFG geförderten Projekt CrissCross gewidmet, das von der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek durchgeführt wird. Das Projekt, das 2006 begann und im Herbst diesen Jahres endet, verfolgt das Ziel, ein multilinguales, thesaurusbasiertes und nutzerfreundliches Recherchevokabular zu heterogen erschlossenen Informationsressourcen zu schaffen. Hierzu wird einerseits eine unidirektionale Verbindung zwischen Sachschlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation hergestellt, andererseits werden - in Fortführung der in dem Projekt Multilingual Access to Subject Headings (MACS) entwickelten Methodik - häufig verwendete SWD-Schlagwörter mit ihren Äquivalenten in der englischen Schlagwortsprache Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (RAMEAU) verknüpft. Jan-Helge Jacobs, Katrin Müller und Tina Mengel von der Fachhochschule Köln gaben einen Überblick über das für das Projekt spezifische SWD-DDC-Mapping. Sie erläuterten die zugrunde liegende Methodik und stellten den mit den Daten gegebenen möglichen Mehrwert sowohl zur Verbesserung des Zugangs zur DDC und zu DDC-erschlossenen Informationsressourcen im Allgemeinen als auch zur Unterstützung von explorativen Suchprozessen im Speziellen dar. Ergänzend präsentierten Yvonne Jahns und Helga Karg von der Deutschen Nationalbibliothek den im MACSProjekt praktizierten Ansatz zur Verbindung von Indexierungsinstrumenten verschiedener Sprachen und das damit gegebene Potential zur Unterstützung eines multilingualen Retrievals. Die adäquate Modellierung von Dokumentationssprachen und Relationen zur Gewährleistung von Interoperabilität und Verbesserung von Suchfunktionalitäten bei heterogen erschlossenen Dokumentbeständen besonders in Hinblick auf Semantic-Web-Applikationen war Thema der zweiten Session. Jessica Hubrich von der Fachhochschule Köln nahm theoretische Ergebnisse des CrissCross-Projektes auf und stellte ein gestuftes Interoperabilitätsmodell vor, in dem Methoden zur Erstellung von Links zwischen Begriffen verschiedener Wissenssysteme in Bezug gesetzt wurden zu spezifischen Suchfunktionalitäten in Retrievalszenarien. Im anschließenden Vortrag von Claudia Effenberger und Julia Hauser von der Deutschen Nationalbibliothek wurde von den bisherigen Ergebnissen eines an der Deutschen Nationalbibliothek angesiedelten Forschungsprojekts berichtet, in dem jeder Klasse der Dewey-Dezimalklassifikation ein eindeutiger Identifier zugeordnet wird, durch den verschiedene Versionen einer Klasse unterschieden werden können. Dies dient der Verbesserung des Zugriffs auf bibliografische Titeldaten, die auf der Basis unterschiedlicher DDC-Versionen erschlossen wurden. Der erste Tag schloss mit einer Präsentation von Antoine Isaac von der Vrije Universiteit in Amsterdam ab. In dieser wurde Interoperabilität als Teil eines semantischen Netzes von Linked Data diskutiert und ein Überblick über zentrale Linked-Data-Projekte gegeben.
    Ein sehr aktuelles Thema mit hohem Potential für zukünftige Entwicklung wurde mit der letzten Session adressiert: die Functional Requirements for Bibliographic Records (FRBR), die Functional Requirements for Authority Data (FRAD) sowie die Functional Requirements for Subject Authority Data (FRSAD), wobei der Schwerpunkt auf den letzteren lag. Gordon Dunsire von der University of Strathclyde in Glasgow beschrieb aktuelle Ansätze für eine adäquate RDF-Repräsentation von FRBR, FRAD und FRSAD und diskutierte die dabei auftretenden Fragen der Interoperabilität, die mitunter dadurch bedingt sind, dass die RDF-Versionen von FRBR, FRAD und FRSAD mit eigenständigen Namensräumen erstellt werden. Auf FRSAD im Speziellen ging Maja Zumer von der Universität von Ljubljana ein. Sie berichtete von den Schwierigkeiten, die mit der Entwicklung des Modells einhergingen und stellte auch einige der zu dem Draft eingegangenen Kommentare vor. Die Zukunftsaufgabe liegt für sie in der Harmonisierung der Modelle der FRBR-Familie. Aus der Perspektive der Projekte CrissCross und RESEDA ist Interoperabilität indes in FRSAD bisher nur unzureichend berücksichtigt. Eine Erweiterung wird für notwendig gehalten. Zentrale Überlegungen hierzu wurden von Felix Boteram von der Fachhochschule Köln vorgestellt. Die Folien sowie zahlreiche mp3-Aufnahmen der Vorträge können auf der Konferenzhomepage unter http://linux2.fbi.fh-koeln.de/cisko2010/ programm.html eingesehen werden. Die Herausgabe eines Sammelbandes mit Artikeln zu den in der Konferenz behandelten Themen ist in Planung."
  2. Berg, L.; Metzner, J.; Thrun, S.: Studieren im Netz - Das Ende der Uni? : Kostenloser Online-Unterricht (2012) 0.00
    0.0016616944 = product of:
      0.004985083 = sum of:
        0.004985083 = weight(_text_:of in 227) [ClassicSimilarity], result of:
          0.004985083 = score(doc=227,freq=4.0), product of:
            0.08160993 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.05218836 = queryNorm
            0.06108427 = fieldWeight in 227, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
      0.33333334 = coord(1/3)
    
    Content
    Wie entwickle ich eine Computer-App zum Beispiel. Oft würden solche Fragen von talentierten Menschen aus armen Ländern gestellt, die sich mit dem Wissen eine Existenz aufbauen wollten. Ihnen die richtigen Antworten zu geben sei besser als Entwicklungshilfe, findet Thrun. Udacity könne die Welt zum Besseren verändern, und deshalb müsse das Angebot kostenlos bleiben. Die meisten Universitäten schlafen noch Im Sommersemester gibt der Forschungsleiter von Google, Peter Norvig, ein Seminar zur Gestaltung von Software, andere namhafte Experten von Hochschulen aus dem angloamerikanischen Raum bieten Kurse über Programmiersprachen oder Kryptografie an. Mit dem Stanford-Image kann Thrun, der sich als Professor hat beurlauben lassen, nur noch indirekt punkten. Und Geld hat er von dort auch nicht mehr zu erwarten. Aber, wer weiß, vielleicht springt ja eines Tages sein neuer Arbeitgeber ein. Bis dahin tragen einige Weltfirmen zur Finanzierung bei: Sie zahlen für die Vermittlung besonders fähiger Absolventen. Unterdessen zieht die Konkurrenz nach. Weitere Stanford-Professoren bieten kostenlose Online-Kurse an und auch das renommierte Massachusetts Institute of Technology (MIT) an der Ostküste des Landes hat eine digitale Initiative namens MITx angekündigt. Die Teilnahme soll kostenlos sein, aber für das Abschlusszertifikat ist eine Gebühr zu entrichten. Diese Aktivitäten seien Ausnahmen, sagt Thrun: Die meisten Universitäten schlafen noch."
    Contra - (Prof. Joachim Metzner) Erleben wir mit der Gründung von Udacity wirklich die kühne revolutionäre Zeitenwende im Bildungswesen, den beginnenden Untergang der herkömmlichen Institution Hochschule? Längst hat sich doch, auch in Deutschland, das e-learning seinen Platz erobert. Es gibt kaum noch eine Hochschule, die nicht über entsprechende Angebote verfügt. Die Reform der Lehre ist trotz überfüllter Hörsäle in vollem Gange, auch dank der Social Media. Das erwartet die heutige Generation der Studierenden, und diese Erwartung wird sich noch verstärken. Aber für Sebastian Thrun wird der virtuelle Raum ja den Hörsaal ablösen. Doch wird er das wirklich? Campus als Herzstück der Hochschule Die Präsidentin des Massachusetts Institute of Technology, Susan Hockfield, ist da anderer Meinung: Trotz aller Online-Möglichkeiten, sagt sie, bleibt der reale Campus das Herzstück der Hochschule. Sie weiß, dass die Studierenden zwar die Freiheiten schätzen, die das Internet bietet, aber mindestens ebenso sehr das reale Zusammensein - sei es im Seminarraum, sei es auf der Wiese oder in der Kneipe. Dass zahlreiche Online-Kurse kostenlos nutzbar sind, ist faszinierend und eröffnet riesige soziale Chancen. Doch werfen solche Kurse immense Gewinne ab, wenn der Anbieter dies will. Jeder Nutzer erzeugt ja, quasi als Testperson, Massen an wertvollen Daten, die Auskunft geben über Interessen und Nutzungsverhalten. Als kostenloser Anbieter kann man aus solchen Informationen Premiumangebote ableiten, die für viel Geld verkäuflich sind.
  3. Springer, M.: Wie frei bleibt das Internet? : Das neue Medium zwischen Anarchie und Zensur (2011) 0.00
    0.0016449934 = product of:
      0.00493498 = sum of:
        0.00493498 = weight(_text_:of in 4386) [ClassicSimilarity], result of:
          0.00493498 = score(doc=4386,freq=2.0), product of:
            0.08160993 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.05218836 = queryNorm
            0.060470343 = fieldWeight in 4386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4386)
      0.33333334 = coord(1/3)
    
    Content
    Doch so eindeutig sind Gut und Böse im Dreieck Bürger-Staat - Internet nicht verteilt. Nur auf den ersten Blick steht der Einzelne, der sein Recht auf uneingeschränkte Information beansprucht, im Bund mit einem möglichst freien Internet, während der Staat das neue Medium angeblich bloß reglementieren will. Zu einer anderen Einschätzung kommt der Rechtswissenschaftler Tim Wu von der New Yorker Columbia University in seinem Buch »The Master Switch: The Rise and Fall of Information Empires«. Wu untersucht die Geschichte der Medien Radio, Tonträger, Film, Fernsehen und Internet in den USA und demonstriert an zahlreichen Beispielen ein wiederkehrendes Muster: Die jeweils neueste Technik macht Firmen reich, die mit ihrer wirtschaftlichen Macht ein Monopol darauf durchsetzen. Erst die Einführung der nächsten »neuen« Medientechnik bricht die ökonomische Alleinherrschaft. Im Licht von Wus Befund muss ich mein Dreieck zu einem Quadrat erweitern, mit mächtigen Medienkonzernen als viertem Pol. Aktuelle Beispiele wären Google und Apple. Jeder von beiden schickt sich auf seine Weise an, ein geschlossenes System zu organisieren, das sich krakengleich über das Internet ausbreitet, um es möglichst umfassend zu vereinnahmen. Der Grund ist nicht etwa, dass die zwei Möchtegern-Monopolisten »böse« wären - sie sind nur einfach auf expansives Wirtschaften programmiert. Im Viereck Bürger -Staat - Internet -Wirtschaft kommt darum dem Staat laut Wu eine durchaus positive Rolle zu: Er soll verhindern, dass das neue Medium von Konzernen vereinnahmt wird. So könnte etwa eine Kartellbehörde ihr Augenmerk speziell auf geballte Medienmacht im Internet richten. Übrigens: Wissen Sie, warum »Der Glöckner von Notre-Dame« in Hollywood gedreht wurde? Auch darüber gibt Wus Buch Auskunft. Die Firma des Erfinders Thomas Edison kontrollierte Anfang des 20. Jahrhunderts mit ihren Patenten die gesamte Filmtechnik. Unter anderem diktierte sie, dass ein Kinofilm nur wenige Minuten lang sein dürfe, um die Aufmerksamkeit des Publikums nicht zu ermüden. Vor solchen Vorschriften flohen die ersten Filmstudios von der Ostküstenach Kalifornien - und gründeten Hollywood."
  4. Tegmark, M.: Leben 3.0 : Mensch sein im Zeitalter Künstlicher Intelligenz (2017) 0.00
    0.0016449934 = product of:
      0.00493498 = sum of:
        0.00493498 = weight(_text_:of in 4558) [ClassicSimilarity], result of:
          0.00493498 = score(doc=4558,freq=2.0), product of:
            0.08160993 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.05218836 = queryNorm
            0.060470343 = fieldWeight in 4558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4558)
      0.33333334 = coord(1/3)
    
    Abstract
    Künstliche Intelligenz ist unsere unausweichliche Zukunft. Wird sie uns ins Verderben stürzen oder zur Weiterentwicklung des Homo sapiens beitragen? Die Nobelpreis-Schmiede Massachusetts Institute of Technology ist der bedeutendste technologische Think Tank der USA. Dort arbeitet Professor Max Tegmark mit den weltweit führenden Entwicklern künstlicher Intelligenz zusammen, die ihm exklusive Einblicke in ihre Labors gewähren. Die Erkenntnisse, die er daraus zieht, sind atemberaubend und zutiefst verstörend zugleich. Neigt sich die Ära der Menschen dem Ende zu? Der Physikprofessor Max Tegmark zeigt anhand der neusten Forschung, was die Menschheit erwartet. Hier eine Auswahl möglicher Szenarien: - Eroberer: Künstliche Intelligenz übernimmt die Macht und entledigt sich der Menschheit mit Methoden, die wir noch nicht einmal verstehen. - Der versklavte Gott: Die Menschen bemächtigen sich einer superintelligenten künstlichen Intelligenz und nutzen sie, um Hochtechnologien herzustellen. - Umkehr: Der technologische Fortschritt wird radikal unterbunden und wir kehren zu einer prä-technologischen Gesellschaft im Stil der Amish zurück. - Selbstzerstörung: Superintelligenz wird nicht erreicht, weil sich die Menschheit vorher nuklear oder anders selbst vernichtet. - Egalitäres Utopia: Es gibt weder Superintelligenz noch Besitz, Menschen und kybernetische Organismen existieren friedlich nebeneinander. Max Tegmark bietet kluge und fundierte Zukunftsszenarien basierend auf seinen exklusiven Einblicken in die aktuelle Forschung zur künstlichen Intelligenz.
  5. nestor-Handbuch : eine kleine Enzyklopädie der digitalen Langzeitarchivierung (2010) 0.00
    0.0014099943 = product of:
      0.004229983 = sum of:
        0.004229983 = weight(_text_:of in 3716) [ClassicSimilarity], result of:
          0.004229983 = score(doc=3716,freq=2.0), product of:
            0.08160993 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.05218836 = queryNorm
            0.051831722 = fieldWeight in 3716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3716)
      0.33333334 = coord(1/3)
    
    Content
    Einführung - State of the Art - Rahmenbedingungen für die LZA digitaler Objekte - Das Referenzmodell OAIS - Open Archival Information System - Das Referenzmodell OAIS - Open Archival Information System - Metadatenstandards im Bereich der digitalen LZA - Formate - Digitale Erhaltungsstrategien - Access - Hardware - Speichersysteme mit Langzeitarchivierungsanspruch - Technischer Workflow - Tools - Geschäftsmodelle - Organisation - Recht - Vorgehensweise für ausgewählte Objekttypen - Praxisbeispiele - Qualifizierung im Themenbereich "Langzeitarchivierung digitaler Objekte"
  6. Beuth, P.: Nicht genug für die Weltherrschaft : Watson soll uns reich und gesund machen (2010) 0.00
    0.0014099943 = product of:
      0.004229983 = sum of:
        0.004229983 = weight(_text_:of in 4340) [ClassicSimilarity], result of:
          0.004229983 = score(doc=4340,freq=2.0), product of:
            0.08160993 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.05218836 = queryNorm
            0.051831722 = fieldWeight in 4340, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4340)
      0.33333334 = coord(1/3)
    
    Content
    Ethisch wäre ein "Dr. Watson" nicht unbedenklich. Was, wenn er sich bei einer Diagnose irrt? Eine Quizrunde zu verlieren, ist das eine. Aber ein Menschenleben? Immerhin hat Watson in einer Testrunde behauptet, die erste Frau im Weltall wäre Wonder Woman gewesen - eine Comicfigur. Informatik-Professor Wrobel glaubt, dass sich diese Fragen nicht stellen werden, da Computer auch in Zukunft nur Ratgeber, nicht aber Entscheider bleiben würden: "Wichtig ist der Begriff der Assistenz. Wir werden wenige Systeme sehen, die völlig autonom handeln." Professor Peter Slovovits, Experte für Künstliche Intelligenz sowie Medizintechnik am Massachusetts Institute of Technology (MIT) sieht das ähnlich: "Ich sehe Rechner wie Watson als hochspezialisierte Assistenten, die durch ihre Art der Informationsbeschaffung aus Ärzten bessere Ärzte machen", sagte er der Frankfurter Rundschau. "Sie können aus Patienten aber auch bessere Patienten machen, indem sie die Menschen zu differenzierteren Beobachtern ihrer eigenen Gesundheit machen." Nach Meinung von Wrobel geht es nicht darum, dass die Computer den Menschen ersetzen, sondern eher um Zeitgewinn für den Benutzer: "Das ist auch für die Wirtschaft wichtig: Nur wer die riesigen Mengen an vorhandenen Daten in seinem Unternehmen und im Internet am besten nach den relevanten Informationen durchsuchen kann, wird Erfolg haben.""
  7. Borst, T.; Neubert, J.; Seiler, A.: Bibliotheken auf dem Weg in das Semantic Web : Bericht von der SWIB2010 in Köln - unterschiedliche Entwicklungsschwerpunkte (2011) 0.00
    0.0014099943 = product of:
      0.004229983 = sum of:
        0.004229983 = weight(_text_:of in 4532) [ClassicSimilarity], result of:
          0.004229983 = score(doc=4532,freq=2.0), product of:
            0.08160993 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.05218836 = queryNorm
            0.051831722 = fieldWeight in 4532, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4532)
      0.33333334 = coord(1/3)
    
    Content
    "Gegenüber der vorjährigen Veranstaltung war ein deutlicher Fortschritt bei der Entwicklung hin zu einem »Web of Linked Open Data (LOD)« zu erkennen. VertreterInnen aus Einrichtungen wie der Deutschen, der Französischen und der Ungarischen Nationalbibliothek, der Prager Wirtschaftsuniversität, der UB Mannheim, des hbz sowie der ZBW berichteten über ihre Ansätze, Entwicklungen und bereits vorhandenen Angebote und Infrastrukturen. Stand der Entwicklung Im Vordergrund stand dabei zum einen die Transformation und Publikation von semantisch angereicherten Bibliotheksdaten aus den vorhandenen Datenquellen in ein maschinenlesbares RDF-Format zwecks Weiterverarbeitung und Verknüpfung mit anderen Datenbeständen. Auf diese Weise betreibt etwa die Deutsche Nationalbibliothek (DNB) die Veröffentlichung und dauerhafte Addressierbarkeit der Gemeinsamen Normdateien (GND) als in der Erprobungsphase befindlichen LOD-Service. Im Verbund mit anderen internationalen »Gedächtnisinstitutionen« soll dieser Service künftig eine verlässliche Infrastruktur zur Identifikation und Einbindung von Personen, Organisationen oder Konzepten in die eigenen Datenbestände bieten.
  8. Hildebrandt, J.; Beuth, P.: Macht Wikipedia schlau oder dumm? : die FR gibt Orientierungshilfen in der grenzenlosen Fundgrube (2010) 0.00
    0.0011749953 = product of:
      0.0035249859 = sum of:
        0.0035249859 = weight(_text_:of in 4180) [ClassicSimilarity], result of:
          0.0035249859 = score(doc=4180,freq=2.0), product of:
            0.08160993 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.05218836 = queryNorm
            0.043193102 = fieldWeight in 4180, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4180)
      0.33333334 = coord(1/3)
    
    Content
    Wikipedia transportiert nur einen Wissensausschnitt, da die meisten Autoren einer bestimmten sozialen Gruppe angehören (männlich, weiß) - zumindest die, die ihre Identität offenlegen. JA: Eine Online-Umfrage der Universität Würzburg ergab: Das Durchschnittsalter der deutschen Wikipedia-Autoren liegt bei 31 Jahren, 88 Prozent sind männlich, 25 Prozent studieren. Es ist also sehr wahrscheinlich, dass zumindest die Auswahl der Themen die Interessen und die Lebenswelt dieser Gruppe abbildet. NEIN: Die wichtigsten Kriterien eines Wikipedia-Artikels sind die Nachprüfbarkeit, Belegbarkeit und der Neutral Pont Of View (NPOV). Im Optimalfall verschwindet der Autor samt seiner Herkunft oder Gruppenzugehörigkeit hinter diesen Punkten. Dann wäre es egal, wie sich die Autorenschaft zusammensetzt. Außerdem hat jeder, der möchte, die Möglichkeit mitzuschreiben. Geringe Transparenz: Autoren dürfen anonym schreiben und werden von Wikipedia dazu noch ermutigt. JA: Wer anonym schreibt, hat weniger Hemmungen, Lügen, Beleidigungen und Meinungen zu verbreiten. Zu wissen, wer der Autor ist und die Möglichkeit, ihn zu kontaktieren, schafft Vertrauen in die Inhalte. Ein Schulbuch oder ein Lexikon ohne Autorennennung würde auch niemand kaufen. NEIN: Wikipedia will die persönlichen Daten seiner Autoren schützen. Für Wissens-Fragen oder Hinweise auf Fehler stehen die Diskussionsseiten, Mailinglisten, Chats, die Wikipedia-Auskunft und für viele Gebiete auch so genannte Redaktionen bereit, die ebenfalls per Chat kontaktiert werden können.
  9. Sandner, M.: Neues aus der Kommission für Sacherschließung (2010) 0.00
    0.0011749953 = product of:
      0.0035249859 = sum of:
        0.0035249859 = weight(_text_:of in 4314) [ClassicSimilarity], result of:
          0.0035249859 = score(doc=4314,freq=2.0), product of:
            0.08160993 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.05218836 = queryNorm
            0.043193102 = fieldWeight in 4314, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4314)
      0.33333334 = coord(1/3)
    
    Content
    Zunächst führte Bernhard HASLHOFER vom Department of Distributed and Multimedia Systems, Universität Wien, behutsam in die Thematik Linked Data als Perspektive für die bibliothekarische Inhaltserschließung ein. Dann stellte Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main die uns vertrauten Normdateien SWD, GKD und PND als Linked Data vor und erläuterte deren bisher erreichten Stand und Perspektiven. Auch DDC-Deutsch und die Ergebnisse aus dem CrissCross-Projekt sind bereits jetzt "open linked" verfügbar. Steffen HENNICKE vom Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität Berlin stellte in seinem mit Gemälden als Beispiele sehr anschaulich gestalteten Vortrag "Linked Data und semantische Suchfunktionalitäten in Europeana besonders den Nutzen eines so genannten "Semantic Data Layer", also der semantischen Datenschicht, die heterogene Objektmetadaten kontextualisiert, dar und zeigte wie und warum Search & Retrieval in einer derartigen Informationsarchitektur funktionieren. Im ersten Vortrag nach der Pause mit dem Titel Freie Katalogdaten und Linked Data, rückte Adrian POHL vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz), Köln dann die wichtige Komponente Linked "Open" Data mit der lizenzrechtlichen Seite von im Web frei verfügbaren bibliographischen Daten in unseren Fokus. Außerdem berücksichtigte er, dass viele Aleph-Anwender/-innen im Auditorium saßen und erläuterte die praktischen Probleme beim regelmäßigen Export von Daten aus dem Verbundkatalog. Schließlich stellte er laufende und zukünftige Linked-Open-Data-Projekte des hbz vor, in denen - teilweise in Kooperation mit der DNB - eine Basisinfrastruktur für Bibliotheken im Semantic Web entwickelt werden soll. Ulrike JUNGER, Leiterin der Inhaltserschließung an beiden Standorten der Deutschen Nationalbibliothek, Leipzig und Frankfurt am Main, holte uns wieder in die Realität des Sacherschließungsalltags zurück und stellte in ihrem Vortrag Automatisierung in der Inhaltserschließung - neue Ansätze in der Deutschen Nationalbibliothek konkrete Planungen und Aktivitäten der DNB für automatische Erschließungsverfahren vor. Im Bereich der Netzpublikationen wurde die traditionelle, intellektuell durchgeführte verbale und klassifikatorische Inhalterschließung seit Anfang 2010 eingestellt und soll durch automatische Verfahren ersetzt werden. Derzeit wird insbesondere die Vergabe von DDC-Sachgruppen und Schlagwörtern erprobt. In die bisher vorliegenden Testergebnisse beider Verfahren erhielten wir kurz Einblick. Wenig überraschend schnitten dabei Fächer wie Medizin am günstigsten ab. Schon 2012 könnten solche Verfahren in DNB zur Anwendung kommen."
  10. Borst, T.; Fingerle, B.; Neubert, J.; Seiler, A.: Auf dem Weg in das Semantic Web : Anwendungsbeispiele und Lösungsszenarien in Bibliotheken / Eine Veranstaltung von hbz und ZBW (2010) 0.00
    0.0011749953 = product of:
      0.0035249859 = sum of:
        0.0035249859 = weight(_text_:of in 4398) [ClassicSimilarity], result of:
          0.0035249859 = score(doc=4398,freq=2.0), product of:
            0.08160993 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.05218836 = queryNorm
            0.043193102 = fieldWeight in 4398, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4398)
      0.33333334 = coord(1/3)
    
    Content
    Auch Bernhard Haslhofer, Assistent am Lehrgebiet für Verteilte Multimediasysteme an der Universität Wien, sieht ein großes Potenzial darin, klassische Mechanismen der Informationsorganisation durch Bibliotheken als »Linked Open Data« in das Semantic Web einzubringen. Sie könnten möglicherweise sogar Baustein einer freien und community-getriebenen Alternative zu konzerngetriebenen Anwendungen wie Google Books sein. Voraussetzung sei allerdings, dass Bibliotheken nicht an ihren Datenbeständen in Form geschlossener Datensilos festhalten. Dazu passte das leidenschaftliche Plädoyer für Free Data von Patrick Danowski, Emerging Technologies Librarian am CERN: Die ganze Mächtigkeit seiner Netzwerkeffekte könne Linked Data nur entfalten, wenn die Daten unter einer freien Lizenz veröffentlicht werden, wobei Danowski für eine Bereitstellung als »public domain« plädiert. Mehrere Beiträge zeigten, dass mit Linked Data mittlerweile eine geeignete Technologie vorliegt, um das Semantic Web für Bibliotheken Wirklichkeit werden zu lassen. Ed Summers, Software-Entwickler bei der Library of Congress (LoC) und zuständig für einen der bislang größten Linked Data-Bestände aus Bibliotheken, die LoC Subject Headings, verwies in seinem Vortrag auf die vielfältigen Verknüpfungsmöglichkeiten und Anwendungen von Linked Data. So können Schlagworte aus verschiedenen Vokabularen in Beziehung gesetzt werden und Presseartikel mit »Flickr«Bildern und Geokoordinaten verknüpft werden, die das Ereignis bebildern beziehungsweise räumlich verorten.
  11. Rieble, V.: Wer hat die Wissensbilanz erfunden? (2011) 0.00
    0.0011749953 = product of:
      0.0035249859 = sum of:
        0.0035249859 = weight(_text_:of in 4430) [ClassicSimilarity], result of:
          0.0035249859 = score(doc=4430,freq=2.0), product of:
            0.08160993 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.05218836 = queryNorm
            0.043193102 = fieldWeight in 4430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4430)
      0.33333334 = coord(1/3)
    
    Content
    Die Wissensbilanz hat einen hübschen Nebeneffekt: Sie kann helfen, Plagiate abzuwehren, weil das Wissen um das eigene Wissen steigt und Schutzvorkehrungen gegen Wissensdiebe installiert werden können. So weit, so schön. Beim Feiern eigener Wissensbewirtschaftungserfolge bleibt die Skepsis ausgeschlossen. Skepsis in der Sache heißt: Wie kann ich wissen, was ich weiß? Was ist überhaupt "Wissen"? Ist das organisationale Wissen nicht ein zu komplexes Phänomen, als dass jede konkrete Aussage eine (unzulässige) Wissensanmaßung bedeutet - wie das von Hayek mit Blick auf Marktverhältnisse herausgearbeitet hat? Ist nicht für ein solches Wissensbilanzsystem der mathematisch-formale Unvollständigkeitssatz von Gödel aufzugreifen: Wenn kein Aussagensystem eine valide Aussage über sich selbst treffen kann, dann ist die Aussage über das vorhandene organisationale Wissen in der Organisation von dieser selbst gerade nicht zu leisten. Man kann nicht selbst wissen, was man weiß. Damit erzeugen der "ganzheitliche" Anspruch und die fehlende Messbarkeit eine wabernde Wissensunschärfe! - Der Werbespruch "Made in Germany" ist eine Täuschung Der vom Wissenschaftsministerium tönende Werbespruch "Made in Germany" ist nicht bloß anmaßend, sondern eine Täuschung. Wer bei Wikipedia unter Wissensbilanz zu suchen anfängt, dem wird offenbar, dass es sich mitnichten um eine deutsche Erfindung oder gar ein deutsches Konzept handelt. Die Ricola-Frage "Wer hat's erfunden?" darf diesmal aus Österreich gestellt werden: Neu ist der Ansatz von Wirtschaftsministerium und Fraunhofer-Institut nämlich nicht. Die Idee, solches "Intellectual Capital" als Wert zu erfassen und in den Finanzbericht einzustellen (IC Reporting), stammt aus Skandinavien (Sveiby, Edvinsson, Mouritsen). Der wesentliche Schritt zu einer komplexen "mehrdimensionalen" und steuerungstauglichen Methode wurde im Austrian Research Center (ARC, heute: AIT Austrian Institute of Technology) getan und schon 2000 publiziert (Koch, Leitner und Bornemann in einem Papier für die OECD-Konferenz). Die "Wissensstrategie" fordert strategische Wissensziele; das Wissenspotential wird verstanden als "Humankapital", "Beziehungskapital" und "Strukturkapital". Entscheidend aber ist die Prozesssteuerung, also die dynamische Betrachtung, die es den Organisationen erlaubt, ihr Wissenskapital gezielt zu erhalten und zu vermehren. Schon 2002 wurde daraus eine gesetzliche Verpflichtung für österreichische Universitäten zur Wissensbilanzierung.

Languages

Types

  • a 4275
  • el 377
  • m 291
  • s 94
  • x 46
  • r 17
  • b 7
  • n 7
  • i 4
  • ag 2
  • p 1
  • v 1
  • z 1
  • More… Less…

Themes

Subjects

Classifications