Search (1075 results, page 1 of 54)

  • × type_ss:"el"
  1. Galinski, C.: Fragen der semantischen Interoperabilität brechen jetzt überall auf (o.J.) 0.10
    0.09573463 = product of:
      0.19146927 = sum of:
        0.14885503 = weight(_text_:sprachen in 4183) [ClassicSimilarity], result of:
          0.14885503 = score(doc=4183,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.5637476 = fieldWeight in 4183, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.02476656 = weight(_text_:und in 4183) [ClassicSimilarity], result of:
          0.02476656 = score(doc=4183,freq=6.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.2544829 = fieldWeight in 4183, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.017847678 = product of:
          0.035695355 = sum of:
            0.035695355 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
              0.035695355 = score(doc=4183,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.23214069 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Terminologienormung ist eine Grundbedingung für internationalen Handel und birgt große Einsparungspotenziale in der industriellen Produktion. Tassilo Pellegrini sprach mit Dr. Christian Galinski, Leiter des Internationalen Informationszentrums für Terminologie (Infoterm), über Probleme der Mehrsprachigkeit, di Wechselwirkung zwischen Technik und Terminologie und wie durch semantische Interoperabilität die Schnittstelle Mensch-Maschine verbessert werden kann.
    Content
    "Der Begriff der semantischen Interoperabilität ist aufgetreten mit dem Semantic Web, einer Konzeption von Tim Berners-Lee, der sagt, das zunehmend die Computer miteinander über hochstandardisierte Sprachen, die wenig mit Natürlichsprachlichkeit zu tun haben, kommunizieren werden. Was er nicht sieht, ist dass rein technische Interoperabilität nicht ausreicht, um die semantische Interoperabilität herzustellen." ... "Der Begriff der semantischen Interoperabilität ist aufgetreten mit dem Semantic Web, einer Konzeption von Tim Berners-Lee, der sagt, das zunehmend die Computer miteinander über hochstandardisierte Sprachen, die wenig mit Natürlichsprachlichkeit zu tun haben, kommunizieren werden. Was er nicht sieht, ist dass rein technische Interoperabilität nicht ausreicht, um die semantische Interoperabilität herzustellen."
    Date
    22. 1.2011 10:16:32
  2. Beall, J.: Approaches to expansions : case studies from the German and Vietnamese translations (2003) 0.07
    0.067056514 = product of:
      0.13411303 = sum of:
        0.087713666 = weight(_text_:sprachen in 1748) [ClassicSimilarity], result of:
          0.087713666 = score(doc=1748,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.33219144 = fieldWeight in 1748, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1748)
        0.031526286 = weight(_text_:und in 1748) [ClassicSimilarity], result of:
          0.031526286 = score(doc=1748,freq=14.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.32394084 = fieldWeight in 1748, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1748)
        0.014873066 = product of:
          0.029746132 = sum of:
            0.029746132 = weight(_text_:22 in 1748) [ClassicSimilarity], result of:
              0.029746132 = score(doc=1748,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.19345059 = fieldWeight in 1748, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1748)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Die deutsche und die vietnamesische Übersetzung der DDC entstehen in einer Umgebung, die für den grenzüberschreitenden Umgang mit der DDC günstig ist. Es gibt internationale Gesamtkataloge wie OCLC WorldCat, die die Recherche und das Kopieren von Katalogdaten über Sprachgrenzen hinaus ermöglichen. Bibliothekskataloge sind im Internet verfügbar und werden weltweit benutzt. Viele Nationalbibliotheken nutzen die DDC für Nationalbibliografien, darunter auch solche wie die Nationalbibliotheken von Kanada und der Schweiz, die die DDC in mehr als einer Sprache verwenden.. In internationalen Projekten wie Renardus wird die DDC verwendet. Wenn die DDC über Sprachgrenzen hinaus brauchbar sein soll, dann muss die selbe DDC-Notation in unterschiedlichen Anwendungsbereichen und Sprachen auch dasselbe meinen. Wenn die DDC-Notation 324 in der englischen Standard Edition "The political process" heißt, dann muss damit in den arabischen, französischen, deutschen, griechischen, isländischen, italienischen, norwegischen, russischen, spanischen und vietnamesischen Ausgaben Identisches gemeint sein. Dies bedeutet nicht, dass eine wörtliche Übersetzung erforderlich ist; kulturelle Unterschiede können berücksichtigt werden. So heißt die englische Version von 959.7043 Vietnamese War, 1961-1975 und die vietnamesische Version von 959.7043 Amerikanischer Krieg, 1961-1975; die Notation 959.7043 bezieht sich dennoch auf den selben Krieg. So ist der DDC-basierte Informationsaustausch über die Sprachgrenzen über die Notation 959.7043 weiter möglich.
    Object
    DDC-22
  3. Clavel-Merrin, G.: ¬Der Bedarf nach Kooperation bei Erarbeitung und Pflege mehrsprachiger Schlagwortnormdateien (1999) 0.06
    0.059490826 = product of:
      0.17847247 = sum of:
        0.14034186 = weight(_text_:sprachen in 4184) [ClassicSimilarity], result of:
          0.14034186 = score(doc=4184,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.5315063 = fieldWeight in 4184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0625 = fieldNorm(doc=4184)
        0.038130615 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.038130615 = score(doc=4184,freq=8.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.39180204 = fieldWeight in 4184, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4184)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Aufgabe der Erabeitung, Verwaltung und Pflege mehrsprachiger Schlagwortnormdateien erfordert erheblich Mittel und sollte daher am besten in Kooperation erfolgen. 4 europäische Nationalbibliotheken (die Schweizerische Landesbibliothek, die Bibliothèque de France, Die Deutsche Bibliothek und die British Library) haben gemeinsam eine Machbarkeitsstudie über die Verknüpfung bestehender Schlagwortverzeichnisse in verschiedenen Sprachen erarbeitet, um einen mehrsprachigen Schlagwort-Zugang zu ihren Daten zu ermöglichen
  4. Reischer, J.: Zeichen - Information - Kommunikation : Analyse und Synthese des Zeichen- und Informationsbegriffs 0.06
    0.059095427 = product of:
      0.118190855 = sum of:
        0.0526282 = weight(_text_:sprachen in 1591) [ClassicSimilarity], result of:
          0.0526282 = score(doc=1591,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.19931486 = fieldWeight in 1591, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1591)
        0.037149843 = weight(_text_:und in 1591) [ClassicSimilarity], result of:
          0.037149843 = score(doc=1591,freq=54.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.38172436 = fieldWeight in 1591, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1591)
        0.028412811 = product of:
          0.056825623 = sum of:
            0.056825623 = weight(_text_:allgemein in 1591) [ClassicSimilarity], result of:
              0.056825623 = score(doc=1591,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.24629751 = fieldWeight in 1591, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1591)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Wer über Information redet oder schreibt, sticht in ein Hornissennest und setzt sich anschließend darauf. Die Konfrontation mit dem heiligen Gral der Wissenschaften beschwört nicht selten ein vielfaches Echo herauf, dessen Resonanz ein dickes Trommelfell erfordert. Das allpräsente Informationskonzept tönt aus fast allen wissenschaftlichen Disziplinen wie ein Reviergesang, mit dem die alleinige Dominanz über die Domäne der Information beansprucht wird. Der Reiz des Themas pervertiert dabei zum Reizthema, in dessen Gefilde die Wissenschaftler verschiedenster Fachrichtungen dem Reizklima interdisziplinäre Verspannungen und Missverständnisse ausgesetzt sind. Das Zauber- und Modewort des alten wie neuen Jahrtausends war nach und nach in nahezu alle Kultur- und Naturwissenschaften vorgedrungen und hatte dort begonnen, auf dem jeweiligen Nährboden ein Eigenleben zu entfalten. So erstaunt es nicht, wenn der Informationsbegriff heute ein Konglomerat unterschiedlicher Verständnisse aus einzelnen Disziplinen und Fachsprachen darstellt, gepaart mit den Verwendungsweisen der Alltagssprache. Der Informationsbegriff ist dadurch zu einem babylonischen Konzept geworden, das nurmehr Sprachverwirrung stiftet. Es scheint die Sisyphosaufgabe unserer Zeit, das Knäuel zu durchschlagen.
    Es ist schon eine merkwürdige Ironie, dass wir (angeblich) im Informationszeitalter leben, das uns die Informationsgesellschaft gebracht hat, in der wir die Informationstechnik verwenden, nur um in der Informationsflut zu versinken - und ohne genau bestimmen zu können, was für eine Art Treibstoff Information tatsächlich ist, mit dem wir unsere Informationsmaschine Gehirn betreiben. Dabei scheitern wir nicht nur an der Frage, wo Information herkommt, was sie ist und wie sie wirkt; unser mentaler Motor gerät auch dann ins Stocken, wenn wir uns mit zu wenig oder zu viel Information abplagen müssen. Die Fluten des Internets mit seinem schwer konsumier- und verdaubaren Treibgut an World Wide Waste lassen uns auf einer Datenmüllhalde surfen, anstatt die Informationsnuggets zu schürfen. Der Unbedarfte wird diesen Unterschied freilich kaum bemerken, zumal die fast vollständige Durchdringung des alltäglichen Lebens mit Information und seinen nächsten Verwandten einen differenzierten und distanzierten Blick verstellt. Wenn wir von Information reden, konzentrieren wir hierin nichts weniger als das gesamte Spektrum menschlichen Selbstverständnisses: Zeichen, Sprache, Kommunikation, Handlung, Lektion, Kognition, Repräsentation, Erkenntnis. Information bestimmt (über) den Menschen wie kein anderes Element, sie ist Grundstoff und treibende Kraft unseres informationellen Metabolismus, der uns am (Er-)Leben hält.
    Die Begründung einer Zeichentypologie durch die beiden entscheidenden semiotischen Merkmale der Arbitrarität vs. Natürlichkeit und Konstanz vs. Varianz im Verhältnis von Notation und Denotation ermöglicht es uns, Zeichen nach ihrem Informationsgehalt in der Sprache auch außerhalb einer Sprechsituation zu hinterfragen und die allgemein durch ein Zeichen vermittelbare semantisch-begriffliche Information unter Absehung von einem bestimmten Sprecher und seinen Intentionen zu betrachten [vgl. hierzu auch Reischer 2006]. Konstant-arbiträre Zeichen wie sprachliche Symbole besitzen Denotation aufgrund ihrer konventionalen Bindung eines Inhalts bzw. einer Funktion an eine Notation, die von allen Sprechern einer Sprache geteilt wird. Dieses geteilte Sprach- und Bedeutungswissen erst ermöglicht überhaupt geregelte Kommunikation und die gezielte Vermittlung von Information dergestalt, dass ein sprachlicher Ausdruck - vom einzelnen Wort bis zum ganzen Text - eine oder mehrere festgelegte Bedeutungen hat, die durch Kontext und Sprecher nurmehr variiert werden (durch Selektion oder Spezifikation seiner Bedeutung); d.h. es besteht in der Sprechergemeinschaft unausgesprochene Einigkeit darüber, welche Inhalte im Normalfall und allgemein mit einem Ausdruck vermittelt werden können. Jeder extern realisierte, medial(isiert)e Text ist als Manifestation eines lexikalischen und grammatikalischen Ausschnitts einer Sprache zu betrachten; als solcher stellt er mediale Information dar, der potenziell semantischen Informationsgehalt im Sinne der im Hörer erzielbaren Kenntnis und Erkenntnis aufweist. Die Stellung eines lexikalischen Ausdrucks innerhalb eines Sprach- bzw. Begriffssystems bestimmt mit, welche und wie viel semantische Information durch ihn vermittelt werden kann.
    Content
    Inhalt: 1 Einleitung 2 Drei Zeichentheorien 2.1 Saussures Zeichenkonzeption 2.2 Morris' Zeichenkonzeption 2.3 Kellers Zeichenkonzeption 3 Vier Informationstheorien 3.1 Nauta 3.2 Fox 3.3 Janich 3.4 Kuhlen 4 Informationsbegriffe in den Sprachen 5 Informationsverständnisse im Detail 5.1 Vermeintlich einheitliche Informationsbegriffe 5.2 Eine semiotische Informationskonzeption 5.3 Semiotische Konzeptionen und Terminologien 5.4 Eine einheitliche Informationsterminologie 6 Das Informationspotenzial von Zeichen
  5. Deutsches Sprichwörter-Lexikon (2004) 0.06
    0.05666112 = product of:
      0.16998336 = sum of:
        0.122799136 = weight(_text_:sprachen in 2817) [ClassicSimilarity], result of:
          0.122799136 = score(doc=2817,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.465068 = fieldWeight in 2817, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2817)
        0.04718423 = weight(_text_:und in 2817) [ClassicSimilarity], result of:
          0.04718423 = score(doc=2817,freq=16.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.4848303 = fieldWeight in 2817, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2817)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Deutsche Sprichwörter-Lexikon« wurde zwischen 1830 und 1880 von dem bekannten Pädagogen und Revolutionär Karl Friedrich Wilhelm Wander erarbeitet. Es umfaßt in der von 1867 bis 1880 erschienenen Erstausgabe fünf Quartbände und enthält nicht weniger als 275.000 Sprichwörter. Das Lexikon hat seinen Schwerpunkt im deutschsprachigen Raum, verzeichnet aber nicht nur deutsche Sprichwörter. Da es stets auch auf parallele Wendungen in anderen europäischen und außereuropäischen Sprachen hinweist, ist es eine der universellsten und vollständigsten Sprichwörtersammlungen überhaupt und in seinem Rang nur mit dem Grimmschen Wörterbuch zu vergleichen. Karl Friedrich Wilhelm Wander (1803 bis 1879) war Mitbegründer des "Allgemeinen Deutschen Lehrervereins". Er wurde 1849 wegen revolutionärer Umtriebe seines Amtes enthoben und mit Berufsverbot belegt. Durch die umfassenden Recherchemöglichkeiten der elektronischen Ausgabe kann das umfangreiche Lexikon in all seinen Aspekten mühelos genutzt und erschlossen werden.
  6. Schaefer, K.: ddc.deutsch - 590. Tiere : Mitarbeit im Expertenpool (2005) 0.06
    0.055824302 = product of:
      0.1674729 = sum of:
        0.13445082 = weight(_text_:einzelne in 3574) [ClassicSimilarity], result of:
          0.13445082 = score(doc=3574,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.52023137 = fieldWeight in 3574, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=3574)
        0.033022083 = weight(_text_:und in 3574) [ClassicSimilarity], result of:
          0.033022083 = score(doc=3574,freq=6.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.33931053 = fieldWeight in 3574, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3574)
      0.33333334 = coord(2/6)
    
    Abstract
    Bei dieser Projektarbeit handelt es sich um die fachliche Betreuung der ersten deutschen Übersetzung der DDCKlasse 590 Tiere. Diese Klasse umfasst die Zoologie (Naturgeschichte, Biologie, Ökologie, Ethologie, Tiergruppen, einzelne Arten). Nutztiere, Tierhaltung, Jagd und Veterinärmedizin werden von anderen Klassen abgedeckt. Fachbegriffe und Tiernamen (wissenschaftliche Namen, umgangssprachliche Namen) werfen bei der Übersetzung oft Probleme auf, die von Übersetzern allein nicht gelöst werden können. Hauptaufgabe war es, für diese Probleme fachlich fundierte Lösungen vorzulegen. Die Hintergründe der Probleme werden hier näher dargestellt und anhand einiger Beispiele verdeutlicht.
  7. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.05
    0.053503424 = product of:
      0.10700685 = sum of:
        0.0526282 = weight(_text_:sprachen in 3385) [ClassicSimilarity], result of:
          0.0526282 = score(doc=3385,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.19931486 = fieldWeight in 3385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.03428775 = weight(_text_:und in 3385) [ClassicSimilarity], result of:
          0.03428775 = score(doc=3385,freq=46.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3523156 = fieldWeight in 3385, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.020090891 = product of:
          0.040181782 = sum of:
            0.040181782 = weight(_text_:allgemein in 3385) [ClassicSimilarity], result of:
              0.040181782 = score(doc=3385,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.17415863 = fieldWeight in 3385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3385)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
  8. Schleim, S.: Homo Deus : Gehirn-Upload, Unsterblichkeit, Künstliche Intelligenz (2017) 0.05
    0.053135723 = product of:
      0.15940717 = sum of:
        0.14034186 = weight(_text_:sprachen in 3571) [ClassicSimilarity], result of:
          0.14034186 = score(doc=3571,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.5315063 = fieldWeight in 3571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0625 = fieldNorm(doc=3571)
        0.019065307 = weight(_text_:und in 3571) [ClassicSimilarity], result of:
          0.019065307 = score(doc=3571,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.19590102 = fieldWeight in 3571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3571)
      0.33333334 = coord(2/6)
    
    Abstract
    Auf Vorschlag eines Kollegen aus der Anatomie will ich ein paar Gedanken über den Transhumanismus zur Diskussion stellen. Dieser Kollege hatte gerade das neue Buch des israelischen Geschichtsprofessors Yuval Noah Harari gelesen: "Homo Deus: Eine Geschichte von Morgen". Dieses erschien bereits 2015 auf Hebräisch, ist inzwischen in acht Sprachen übersetzt und in Deutschland gerade ein Bestseller.
  9. dpa: Europeana gestartet : Europa eröffnet virtuelle Bibliothek (2008) 0.05
    0.0492925 = product of:
      0.1478775 = sum of:
        0.124045864 = weight(_text_:sprachen in 2408) [ClassicSimilarity], result of:
          0.124045864 = score(doc=2408,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.46978965 = fieldWeight in 2408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2408)
        0.023831634 = weight(_text_:und in 2408) [ClassicSimilarity], result of:
          0.023831634 = score(doc=2408,freq=8.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.24487628 = fieldWeight in 2408, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2408)
      0.33333334 = coord(2/6)
    
    Content
    "Die Europäische Union hat zum ersten Mal eine gemeinsame digitale Bibliothek. Auf dem Internetportal www.europeana.eu stehen seit Donnerstag fast drei Millionen Dokumente, Bücher, Gemälde,Filme und Fotografien aus europäischen Sammlungen zur Verfügung, teilte die EU-Kommission mit. Bereits in den ersten Stunden nach der Freischaltung besuchten mehr als zehn Millionen Internetnutzer die Seite, die vorübergehend zusammenbrach. Die Zahl der Server wurde daraufhin von drei auf sechs verdoppelt. "Wir hätten uns in unseren kühnsten Träumen nicht vorstellen können, dass es einen solchen Ansturm auf Europeana gibt", sagte EU-Medienkommissarin Viviane Reding in Brüssel. Bis 2010 sollen auf dem Portal zehn Millionen Objekte in allen EU-Sprachen abrufbar sein. Mehr als 1000 Archive, Museen und Bibliotheken lieferten bereits digitalisiertes Material. Die Kommission stellt zwei Millionen Euro pro Jahr für den Unterhalt der Plattform bereit. Die Kosten für die Digitalisierung tragen die Mitgliedstaaten. Bisher ist nur ein Prozent aller europäischen Kulturgüter elektronisch verfügbar. Um die angestrebte Zahl von zehn Millionen Werken bis 2010 zu erreichen, müssen die Staaten nach Schätzung der Kommission zusammen weitere 350 Millionen Euro in die Hand nehmen. Wie viel die Mitgliedstaaten bisher aufbrachten, blieb offen. Die EU will die Erforschung und Entwicklung von Technologien in dem Bereich in den kommenden zwei Jahren mit 119 Millionen Euro fördern. Die EU-Kulturminister sprachen sich dafür aus, das kulturelle Angebot im Internet weiter auszubauen und gleichzeitig ihren Kampf gegen Online-Piraterie zu verstärken. "Wir wollen legale glaubwürdige Angebote für Verbraucher schaffen", sagte die französische Ressortchefin Christine Albanel, die derzeit die Ministerrunde führt"
  10. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.05
    0.048846267 = product of:
      0.1465388 = sum of:
        0.117644474 = weight(_text_:einzelne in 1047) [ClassicSimilarity], result of:
          0.117644474 = score(doc=1047,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.45520246 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.02889432 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.02889432 = score(doc=1047,freq=6.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.33333334 = coord(2/6)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
    Source
    https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
  11. Herb, U.: Kostenpflichtiger Open Access : auch Open Access kann zu mehr Konzentration und höheren Kosten führen (2016) 0.05
    0.047078863 = product of:
      0.14123659 = sum of:
        0.117644474 = weight(_text_:einzelne in 959) [ClassicSimilarity], result of:
          0.117644474 = score(doc=959,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.45520246 = fieldWeight in 959, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=959)
        0.023592114 = weight(_text_:und in 959) [ClassicSimilarity], result of:
          0.023592114 = score(doc=959,freq=4.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.24241515 = fieldWeight in 959, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=959)
      0.33333334 = coord(2/6)
    
    Abstract
    Open Access kennt verschiedene Spielarten. Der grüne Open Access ist in der Regel kostenfrei, denn hier werden Nutzern bereits in wissenschaftlichen Journalen publizierte Artikel in einer Art Zweitverwertung auf Open-Access-Servern entgeltfrei bereitgestellt. Im goldenen Open Access hingegen finden sich Journale, die Artikel ohne Publikationsgebühren im Open Access veröffentlichen, und solche, die für die Veröffentlichung der Texte eine sogenannte Article Processing Charge (APC) erheben. Daneben existiert noch der hybride Open Access: Dabei werden einzelne Artikel aus Journalen, die nicht im Open Access erscheinen, gegen entsprechende Zahlungen für die entgeltfreie Verfügbarkeit freigekauft.
  12. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.05
    0.046912767 = product of:
      0.1407383 = sum of:
        0.10634717 = weight(_text_:sprachen in 572) [ClassicSimilarity], result of:
          0.10634717 = score(doc=572,freq=6.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.40276074 = fieldWeight in 572, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.034391116 = weight(_text_:und in 572) [ClassicSimilarity], result of:
          0.034391116 = score(doc=572,freq=34.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.35337773 = fieldWeight in 572, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
      0.33333334 = coord(2/6)
    
    Abstract
    Identifikation der Sprache bzw. Sprachen elektronischer Textdokumente ist einer der wichtigsten Schritte in vielen Prozessen maschineller Textverarbeitung. Die vorliegende Arbeit stellt LangIdent, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten vor. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
    Die Arbeit wird in zwei Hauptteile gegliedert. Der erste Teil besteht aus Kapiteln 1-5, in denen theoretische Grundlagen zum Thema Sprachidentifikation dargelegt werden. Das erste Kapitel beschreibt den Sprachidentifikationsprozess und definiert grundlegende Begriffe. Im zweiten und dritten Kapitel werden vorherrschende Ansätze zur Sprachidentifikation von monolingualen Dokumenten dargestellt und miteinander verglichen, indem deren Vor- und Nachteile diskutiert werden. Das vierte Kapitel stellt einige Arbeiten vor, die sich mit der Sprachidentifikation von multilingualen Texten befasst haben. Der erste Teil der Arbeit wird mit einem Überblick über die bereits entwickelten und im Internet verfügbaren Sprachidentifikationswerkzeuge abgeschlossen. Der zweite Teil der Arbeit stellt die Entwicklung des Sprachidentifikationssystems LangIdent dar. In den Kapiteln 6 und 7 werden die an das System gestellten Anforderungen zusammengefasst und die wichtigsten Phasen des Projekts definiert. In den weiterführenden Kapiteln 8 und 9 werden die Systemarchitektur und eine detaillierte Beschreibung ihrer Kernkomponenten gegeben. Das Kapitel 10 liefert ein statisches UML-Klassendiagramm mit einer ausführlichen Erklärung von Attributen und Methoden der im Diagramm vorgestellten Klassen. Das nächste Kapitel befasst sich mit den im Prozess der Systementwicklung aufgetretenen Problemen. Die Bedienung des Programms wird im Kapitel 12 beschrieben. Im letzten Kapitel der Arbeit wird die Systemevaluierung vorgestellt, in der der Aufbau und Umfang von Trainingskorpora sowie die wichtigsten Ergebnisse mit der anschließenden Diskussion präsentiert werden.
    Imprint
    Hildesheim : Universität Hildesheim / Fachbereich III; Informations- und Kommunikationswissenschaften
  13. Foerster, H. von; Müller, A.; Müller, K.H.: Rück- und Vorschauen : Heinz von Foerster im Gespräch mit Albert Müller und Karl H. Müller (2001) 0.05
    0.045515068 = product of:
      0.091030136 = sum of:
        0.0526282 = weight(_text_:sprachen in 5988) [ClassicSimilarity], result of:
          0.0526282 = score(doc=5988,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.19931486 = fieldWeight in 5988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5988)
        0.0294781 = weight(_text_:und in 5988) [ClassicSimilarity], result of:
          0.0294781 = score(doc=5988,freq=34.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3028952 = fieldWeight in 5988, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5988)
        0.008923839 = product of:
          0.017847678 = sum of:
            0.017847678 = weight(_text_:22 in 5988) [ClassicSimilarity], result of:
              0.017847678 = score(doc=5988,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.116070345 = fieldWeight in 5988, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5988)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    Darin: ... "Eine Idee, mit der wir uns beschäftigt haben, kommt jetzt langsam wirklich heraus. Wie rechnet man innerhalb einer semantischen Struktur? Wir haben das so gesehen, daß jedes Wort, jeder Begriff so ausschaut wie ein vielfältiges Element, das nach allen Richtungen seine Konnektivitäten ausstreckt und mit anderen solchen vielfältigen Elementen in Verbindung bringt. Und die Operationen bestehen darin, neue Verbindungen zu finden, die grammatisch kontrolliert werden und als Sprache herauskommen, aber konzeptuell konnektiert, so daß sie verbunden sind durch eine semantische interne Struktur. Das heißt, jeder Begriff ist für uns ein vielfältiger Rechner, der sich mit anderen Rechnern in Verbindung setzt. Damals hat das niemand verstanden, vielleicht habe ich es auch nicht gut dargestellt. Aber heute taucht das überall auf, semantic computation, mit lauter parallelen Maschinen, die alle gleichzeitig arbeiten und ihre Verbindungen herstellen. Unser Problem war damals schon: könnte man irgendetwas machen, um in natürlichen Sprachen mit einer Maschine sprechen zu können.
    Noch einige Schritte weiter zurück. Oft haben mich Bibliothekare angesprochen, wie sollte man eine Bibliothek aufbauen? Wir schauen, sagten sie, in eine Bibliothek so hinein, als wäre sie wie ein Gedächtnis. "Das ist schön, aber wissen Sie, wie das Gedächtnis funktioniert? "Nein, aber viele Leute sagen, das Gedächtnis arbeitet wie eine große Bibliothek. Man muß nur hineingreifen und das richtige Buch finden. "Das ist alles wunderschön und sehr lieb, aber wissen Sie, die Leute, die ein Buch suchen, suchen es ja nur, weil sie ein Problem haben und hoffen, in dem Buch die Antwort für das Problem zu finden. Das Buch ist nur ein Zwischenträger von einer Frage und einer vielleicht in dem Buch zu findenden Antwort. Aber das Buch ist nicht die Antwort. "Aha, wie stellen Sie sich das vor? Wir sollten das Problem so sehen, daß die Inhalte der Bücher, die semantische Struktur - wenn man jetzt diesen Ausdruck wieder verwenden möchte - dieser Bücher in einem System sitzt, sodaß ich in diese semantische Struktur mit meiner Frage einsteigen kann, und mir die semantische Struktur dieses Systems sagt, dann mußt du Karl Müllers Arbeiten über Symbole lesen, dann wirst du wissen, was du suchst. Ich wüßte aber von vornherein überhaupt nicht, wer der Karl Müller ist, daß er über Symbole geschrieben hat, etc., aber das System kann mir das liefern.
    Da braucht also der Mensch, der sich dafür interessiert, solche Antworten zu finden, nicht erst indirekt über den Karl Müller, den er auf irgendeiner Karteikarte findet, dort hineinzugehen, sondern durch direktes Ansprechen der semantischen Struktur seines Problems, sich mit der semantischen Struktur des Systems in Verbindung setzen, das mir dann weiterhilft in diejenigen Bereiche zu gehen, in denen ich dann vielleicht Antworten für meine Probleme finde. Also mit solchen und ähnlichen Gedanken haben wir uns beschäftigt, und Paul Weston hat hervorragende Arbeiten dazu geschrieben, der hat durch diese Sache durchgeschaut. Der Projektvorschlag, den ich heute noch habe, für dieses unerhörte Riesenprojekt, das waren mehrere Millionen Dollar, wurde überhaupt nicht verstanden. Das brauchen wir nicht, wir haben ja die Bücher, wir haben ja die Karteikarten. Da waren eben Schwierigkeiten, wo mir meine Freunde richtig vorwerfen, Heinz, du hast unseren Fall nicht richtig vorgetragen, sodaß die Leute, die imstande gewesen wären, uns finanziell zu unterstützen, nicht verstanden haben, wovon du redest. Trotz meiner intensiven Bemühungen ist es in vielen Fällen nicht gelungen, eine Überzeugung, ein Verständnis zu erreichen. Mein Gefühl damals war, daß das Verständnis einfach blockiert war, weil schon bestimmte Verständnisdirektionen so festgefroren waren. Um etwas zu erreichen, hätte man viel mehr Zeit gebraucht und vielmehr miteinander sprechen sollen, um ein Verständnis durchzusetzen.
    Date
    10. 9.2006 17:22:54
    Source
    Konstruktivismus und Kognitionswissenschaft. Kulturelle Wurzeln und Ergebnisse. Heinz von Foerster gewidwet. Zweite aktualisierte und erweiterte Auflage. Hrsg.: Albert Müller u.a
  14. Neue Sachgruppen bei der SSD 0.04
    0.044775542 = product of:
      0.13432662 = sum of:
        0.117644474 = weight(_text_:einzelne in 3580) [ClassicSimilarity], result of:
          0.117644474 = score(doc=3580,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.45520246 = fieldWeight in 3580, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3580)
        0.016682144 = weight(_text_:und in 3580) [ClassicSimilarity], result of:
          0.016682144 = score(doc=3580,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.17141339 = fieldWeight in 3580, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3580)
      0.33333334 = coord(2/6)
    
    Abstract
    Folgende neue beziehungsweise umformulierte Sachgruppen wurden bei der Systematisierung nach SSD geschaffen und finden sich auch ab Januar 2017 in den ekz-Datendiensten. NDK 5 Mediendidaktik - E-Learning in der Schule NEA 5 Fächerübergreifender Unterricht in der Grundschule NEM 5 Deutschunterricht in der Grundschule NEM 502 Einzelne Unterrichtseinheiten ... NEN 21 Englischunterricht in der Grundschule NES 5 Mathematikunterricht in der Grundschule NEU 25 Kunstunterricht in der Grundschule NEV 5 Sportunterricht in der Grundschule NEW Technikunterricht - Werkunterricht - Informatikunterricht NEW 1 Technikunterricht - Werkunterricht NEW 3 Informatikunterricht NEX Textilgestaltung - Hauswirtschaftsunterricht NEZ Sonstige Unterrichtsfächer. Hier: Verkehrserziehung im Unterricht
  15. Frerichs, S.: Grundlagen des erkenntnistheoretischen Konstruktivismus : eine allgemein verständliche Einführung für Laien (2000) 0.04
    0.04280413 = product of:
      0.12841238 = sum of:
        0.033703018 = weight(_text_:und in 4395) [ClassicSimilarity], result of:
          0.033703018 = score(doc=4395,freq=4.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34630734 = fieldWeight in 4395, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4395)
        0.09470937 = product of:
          0.18941873 = sum of:
            0.18941873 = weight(_text_:allgemein in 4395) [ClassicSimilarity], result of:
              0.18941873 = score(doc=4395,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.8209917 = fieldWeight in 4395, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4395)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    In diesem Aufsatz gebe ich eine allgemein verständliche Einführung in naturwissenschaftliche sowie geistes- und sozialwissenschaftliche Ansätze des erkenntnistheoretischen Konstruktivismus.
    Content
    Kapitel aus der Dissertation des Verfassers: "Bausteine einer systemischen Nachrichtentheorie: Konstruktives Chaos und chaotische Konstruktionen. Wiesbaden: Westdeutscher Verlag, 2000."
  16. Meyers Großes Konversations-Lexikon : Elektronische Ressource (2005) 0.04
    0.041640267 = product of:
      0.12492079 = sum of:
        0.087713666 = weight(_text_:sprachen in 45) [ClassicSimilarity], result of:
          0.087713666 = score(doc=45,freq=8.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.33219144 = fieldWeight in 45, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.01953125 = fieldNorm(doc=45)
        0.037207127 = weight(_text_:und in 45) [ClassicSimilarity], result of:
          0.037207127 = score(doc=45,freq=78.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.38231295 = fieldWeight in 45, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=45)
      0.33333334 = coord(2/6)
    
    Classification
    AE 11005 [Allgemeines # Enzyklopädien, allgemeine Nachschlagewerke # Allgemeinenzyklopädien (nach Sprachen) # Germanische Sprachen # Deutsch # 2005]
    Footnote
    Rez. in: ZfBB 53(2006) H.3/4, S.209-210 (J. Derksen): "Da findet sich zuerst der Hinweis eines folgsamen Sohnes: »Das gehörte zu den Ratschlägen meines Vaters: >Wenn du was nicht weißt, schlag im Meyer nach, da findest du alles, zumindest den Hinweis auf das Buch, in dem alles steht.< Auch heute noch steht Meyers Konversationslexikon, in der Ausgabe von 1906-der, die in der väterlichen Bibliothek war - in meinem Arbeitszimmer, und ich muß sagen, es vergeht fast kein Tag, an dem ich das wilhelminische Kompendium bürgerlicher Bildung nicht benutze.« (Nicolaus Sombart: Jugend in Berlin: 1933-1943; ein Bericht. München [u.a.] 1984, hier S. 255 - Passage im Original in Klammern) Der Autor, Nicolaus Sombart (*1923), Sohn des seinerzeit bekannten Wirtschaftswissenschaftlers Werner Sombart (1863-1941), der von 1917 bis 1931 an der Berliner Universität lehrte, referiert in seinem Bericht wichtige Hinweise auf technischen Gebrauch und kulturelle Alltagspraxis von Konversationslexika in einem tradierten, akademisch geprägtem Umfeld seiner Zeit. In Bezug auf die Zeitumstände des hier in seiner digitalen Aufbereitung anzuzeigenden Konversationslexikons, dessen erster Band 1902 erschien -19o5 mussten die ersten Bände bereits nachgedruckt werden und 1909 war man zu einem abschließenden 20. Band vorgedrungen und diesem sollten noch bis 1916 weitere vier Bände als Jahressupplemente folgen; doch erst mit den drei folgenden Nachtragsbänden («Kriegsnachträgen«) wurde das Werk endgültig 1920 abgeschlossen - hat Nicolaus Sombart selbst an anderer Stelle festgestellt, dass dies eine »verhältnismäßig kurze Periode zwischen 1890 und 1910« war und bezeichnete sie als »Höhepunkt der wilhelminischen >Ära<, in der auch alle Innovationen der Kunst ihren Ursprung haben«. (Nicolaus Sombart: Die deutschen Männer und ihre Feinde: Carl Schmitt - ein deutsches Schicksal zwischen Männerbund und Matriarchatsmythos. München [u.a.] 1991, hier S. 105) Ein solches, auch im übertragenen Sinn Werte stabilisierendes Elternhaus -dem Status eines deutschen Professors jener Zeit entsprechend als vornehme Grunewald-Villa mit gepflegtem Vorgarten und sauber gerechtem Kiesweg - inspiriert bibliothekarisch weiterzuforschen. Wie sah die Gelehrten-Bibliothek dieses bedeutenden Vaters konkret aus? Was können wir heute in Zeiten desktopgenerierter Cyberwelten, minimalisierter Soft- und Hardware-Applikationen, Gediegenheit signalisierender CD-ROMBoxen odervirtueller Ordner-Symbole im heimeligen Retro-Look über die damalige Praxis von Raumvergabe, Buchaufstellung und Lesegewohnheiten besonders unter dem genannten Aspekt des Gelehrtendiskurses sagen? Einblicke in die akademische Privatsphäre waren damals selten, sie sind es übrigens auch heute noch. Doch dann der zweite Fund: eine Fotografie von Felix H. Man (»ohne Titel« - Abb. 1), an entlegener Stelle erstmals 1997 publiziert, gibt genau hierzu Auskunft.
    Vor seiner aus unterschiedlichen Regalelementen zusammengestellten, jedoch einheitlich gefassten und mindestens sechs Meter langen Bücherwand, die auch zur Aufnahme von Bildern und Kunstgegenständen dient, sitzt der Herr des Hauses, Werner Sombart, lesend in einem in der Formvorgabe antike Vorbilder zitierenden Stuhl. Ein Schreibtisch ist nicht erkennbar, er lässt sich jedoch rechts, in Richtung des Fensters vermuten. Im Vordergrund rechts sind zwei einladende Polstersessel einer Sitzgruppe erkennbar. Das Spannendste erfährt man vorne links im Bild: Ein Armstuhl steht vor einem schmalen, mit Schale und Decke dekorierten Tischchen (in der einfachen Bauart eines Aktenbocks) und dahinter sind in mindestens zwei der unteren Regalreihen deutlich die eingangs erwähnten, griff- und auskunftsbereiten Bände von Meyers Konversationslexikon erkennbar. Eine einladende und doch typische Präsentation des Lexikons als gesonderte Buchdisposition mit separatem Leseensemble (Stuhl und Tisch) innerhalb dieses Studiolos. Sie soll offenbar bei einer allzu beschwerlichen Reise durch große bibliothekarische Wissenswelten zu einer intellektuellen Rast einladen und dient zudem als Besucherplatz, eben der gelehrten Konversation. Als Orte eigentlicher Entspannung und privater Erholung werden die Polstermöbel ausgewiesen.
    Mit rund 155.000 Stichwörtern auf ca. 23.000 Seiten war Meyers Großes Konversations-Lexikon in seiner Zeit ein herausragendes Mammutunterfangen für die Lexikonredaktion des Leipziger Bibliographischen Instituts. Bereits durch unterschiedliche buchausstatterische Gestaltungskonzepte hinsichtlich Ornament und Dekor versuchte man auf die seinerzeit individuellen Wünsche und Erwartungen einer potenziellen Leserschaft einzugehen. Und wie steht es heute um die >Lesbarkeit< eines solchen literarischen Mikrokosmos? Neben dem bloßen lexikalischen Wissen sind es die beschriebenen Relikte, welche in die mediale Gegenwart transportieren, eine vergangene Wissenskultur erfahrbar machen. Alles Übrige ist dann technische Routine: »Die Digitalisierung einer derart umfangreichen Enzyklopädie in Frakturschrift stellt die Texterfassung vor einige Probleme, die im Falle der vorliegenden DVD-Ausgabe mit Hilfe einer eigens entwickelten Software zur automatischen Texterkennung von Frakturtypen gelöst wurden. Das Programm musste zunächst mit einem mehrere tausend Zeichen und über drei Millionen Wörter und Silben umfassenden typografischen und lexikalischen Wissen gefüttert werden, bis es in der Lage war, die in unterschiedlicher Qualität gedruckten Buchstaben und Wörter zu erkennen und in einen frei durchsuchbaren Volltext zu verwandeln. [...] In mehreren Korrekturschritten markierte die Software nicht bekannte Wörter als Problemfälle, die nachbearbeitet werden mussten. Im Vergleich mit der Faksimile-Ansicht wurden die markierten Stellen von Hand überprüft. Dieser manuelle Korrekturschritt unterlag einer strengen Qualitätskontrolle, die ein Abspeichern des Korrekturvorgangs vor seiner Vollendung verhindert [hatte].« (Einführung: Zur digitalen Ausgabe) Bedauerlicherweise konnte dieses durchdachte Verfahren nicht verhindern, dass kleine Fehler bei der automatischen Texterkennung nicht korrigiert wurden - und das überwiegend bei den Wörtern, die durch Sperrung hervorgehoben werden sollen, so z. B. »Meliorationsbuumeistern« (sic! Vgl. Art.: Kulturtechnik; Bd. ii, S.793 dort im Faksimile der Druckausgabe richtig als »Meliorationsbaumeistern«). Dennoch überzeugt das Ergebnis auf ganzer Linie: Die vorliegende DVD liefert den digitalen Volltext mit allen Abbildungen und Karten, mit den gewohnt guten Suchfunktionen der »Digitalen Bibliothek« von Directmedia sowie mit einem vollständigen Faksimile der in Frage kommenden Bände der Printausgabe. Die interessanten Supplementbände - sie enthalten auch viele Überblicksdarstellungen von namhaften und namentlich gekennzeichneten Autoren - und die ob ihrer naiven Technikgläubigkeit unverwechselbaren Kriegsnachträge konnten nicht mit aufgenommen werden: »Die vollständige Digitalisierung und Einarbeitung dieser Supplementartikel, die nochmals ein Volumen von über 5o.000 Stichwörtern umfassen, muss einer späteren Produktion und - im Hinblick auf die Faksimiles - einer neuen DVD-Generation mit mehr Speicherplatz vorbehalten bleiben.« (Einführung: Zur digitalen Ausgabe)
    Entgegen der vom Verlag mit der vorliegenden elektronischen Ausgabe propagierten Wissenskompensation als Subsumierung des »gesamten Wissens des 19. Jahrhunderts«, geht es - auch in der digitalen Aufbereitung - in erster Linie um eine gewaltige Kartierungsmaßnahme von Wissen als einer großen enzyklopädischen Momentaufnahme nach 1900: Alle als relevant eingestuften Episteme wurden erfasst, Lemmata laufend ergänzt und fortgeschrieben. Flexibler Umfang durch Supplemente und innovative mediale Aufbereitung durch Bilder, Karten u. ä. variieren und sind dabei meist von ungezwungener Offenheit. So lässt sich sagen, dass wenn es das Internet um 1900 bereits gegeben hätte, es in Form und Anlage in diesem Konversationslexikon gespiegelt abgebildet worden wäre: Meyers Großes KonversationsLexikon in seiner 6. Auflage ist als eine digital aufbereitete Ressource ein wahrer Solitär. Hier liegt ein wirkliches >Museum des Wissens< von tadelloser Organisation vor."
    Issue
    CD-ROM-Ausg. Faks. und Volltext [der] 6. Aufl. 1905 - 1909, Studienausg.
    RVK
    AE 11005 [Allgemeines # Enzyklopädien, allgemeine Nachschlagewerke # Allgemeinenzyklopädien (nach Sprachen) # Germanische Sprachen # Deutsch # 2005]
  17. Busch, D.: Organisation eines Thesaurus für die Unterstützung der mehrsprachigen Suche in einer bibliographischen Datenbank im Bereich Planen und Bauen (2016) 0.04
    0.041153707 = product of:
      0.12346111 = sum of:
        0.087713666 = weight(_text_:sprachen in 3308) [ClassicSimilarity], result of:
          0.087713666 = score(doc=3308,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.33219144 = fieldWeight in 3308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
        0.03574745 = weight(_text_:und in 3308) [ClassicSimilarity], result of:
          0.03574745 = score(doc=3308,freq=18.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3673144 = fieldWeight in 3308, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Problem der mehrsprachigen Suche gewinnt in der letzten Zeit immer mehr an Bedeutung, da viele nützliche Fachinformationen in der Welt in verschiedenen Sprachen publiziert werden. RSWBPlus ist eine bibliographische Datenbank zum Nachweis der Fachliteratur im Bereich Planen und Bauen, welche deutsch- und englischsprachige Metadaten-Einträge enthält. Bis vor Kurzem war es problematisch Einträge zu finden, deren Sprache sich von der Anfragesprache unterschied. Zum Beispiel fand man auf deutschsprachige Anfragen nur deutschsprachige Einträge, obwohl die Datenbank auch potenziell nützliche englischsprachige Einträge enthielt. Um das Problem zu lösen, wurde nach einer Untersuchung bestehender Ansätze, die RSWBPlus weiterentwickelt, um eine mehrsprachige (sprachübergreifende) Suche zu unterstützen, welche unter Einbeziehung eines zweisprachigen begriffbasierten Thesaurus erfolgt. Der Thesaurus wurde aus bereits bestehenden Thesauri automatisch gebildet. Die Einträge der Quell-Thesauri wurden in SKOS-Format (Simple Knowledge Organisation System) umgewandelt, automatisch miteinander vereinigt und schließlich in einen Ziel-Thesaurus eingespielt, der ebenfalls in SKOS geführt wird. Für den Zugriff zum Ziel-Thesaurus werden Apache Jena und MS SQL Server verwendet. Bei der mehrsprachigen Suche werden Terme der Anfrage durch entsprechende Übersetzungen und Synonyme in Deutsch und Englisch erweitert. Die Erweiterung der Suchterme kann sowohl in der Laufzeit, als auch halbautomatisch erfolgen. Das verbesserte Recherchesystem kann insbesondere deutschsprachigen Benutzern helfen, relevante englischsprachige Einträge zu finden. Die Verwendung vom SKOS erhöht die Interoperabilität der Thesauri, vereinfacht das Bilden des Ziel-Thesaurus und den Zugriff zu seinen Einträgen.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  18. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.04
    0.039851796 = product of:
      0.119555384 = sum of:
        0.1052564 = weight(_text_:sprachen in 4333) [ClassicSimilarity], result of:
          0.1052564 = score(doc=4333,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.39862972 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
        0.01429898 = weight(_text_:und in 4333) [ClassicSimilarity], result of:
          0.01429898 = score(doc=4333,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.14692576 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  19. Förster, F.: Bibliographischer und universeller Zugriff : Schriftliche historische Quellen und Werke der fiktionalen Literatur in FRBR (2010) 0.04
    0.039244927 = product of:
      0.117734775 = sum of:
        0.08403176 = weight(_text_:einzelne in 3963) [ClassicSimilarity], result of:
          0.08403176 = score(doc=3963,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.3251446 = fieldWeight in 3963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3963)
        0.033703018 = weight(_text_:und in 3963) [ClassicSimilarity], result of:
          0.033703018 = score(doc=3963,freq=16.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34630734 = fieldWeight in 3963, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3963)
      0.33333334 = coord(2/6)
    
    Abstract
    Die fortgesetzte Entwicklung des bibliographischen Datenmodells FRBROO steht auf der Agenda des Strategischen Plans der IFLA Cataloguing Section. Als Teil des CIDOC Conceptual Reference Models (CIDOC CRM; ISO 21127:2006, letzte Version: v.5.0.2.) können damit verschieden strukturierte Informationen aus dem Bereich des kulturellen Erbes integriert und ausgetauscht werden; durch FRBROO werden bibliographische Informationen eingebunden. Aufgrund sichtbarer Veränderungen in der Publikationspraxis sind die bisherigen Bibliothekskataloge mit ihrer bibliographischen Fixierung auf das Buch als zentrales zu erschließendes Element nicht mehr zeitgemäß. Eine umfassende Erschließung des kulturellen Erbes gemeinsam mit Museen und Archiven und deren "Objekten" und damit eine ontologisch fundierte Abbildung der in naher Zukunft komplett digital vorliegenden publikatorischen Vielfalt in kollaborativ gepflegten Katalogen wissenschaftlicher Bibliotheken gelingt nur, wenn zum einen der einzelne Text als "bibliographisches Objekt", was sowohl historische Quellen, fiktionale Werke als auch wissenschaftliche Aufsätze umfasst, formal und sachlich erschlossen wird und zum anderen das Ereignis als Ausgangspunkt der Erschließungsarbeit betrachtet wird. Zwei Folgerungen ergeben sich daraus: 1) Die semantischen Ebenen der Wissensrepräsentation nach Erwin Panofsky sollten um eine vierte Ebene erweitert werden, die als "acrossness" bezeichnet wird. 2) Die Aufgabe des wissenschaftlichen Bibliothekars sollte in einer intellektuellen Verwaltung der Neuerscheinungen, aber auch einer intellektuellen Durchdringung des eigenen Fachgebietes bestehen.
  20. Jaeger, L.: Diskussion um die Gestaltung des technologischen Fortschritts am Beispiel der Künstlichen Intelligenz (2019) 0.04
    0.03851935 = product of:
      0.11555804 = sum of:
        0.08403176 = weight(_text_:einzelne in 4963) [ClassicSimilarity], result of:
          0.08403176 = score(doc=4963,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.3251446 = fieldWeight in 4963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4963)
        0.031526286 = weight(_text_:und in 4963) [ClassicSimilarity], result of:
          0.031526286 = score(doc=4963,freq=14.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.32394084 = fieldWeight in 4963, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4963)
      0.33333334 = coord(2/6)
    
    Content
    "Wie das konkret aussehen kann, könnte eine Initiative der EU-Kommission mit der Gründung einer Experten-Gruppe (High-Level Expert Group on Artificial Intelligence, AI HLEG) aufzeigen, die sich im Dezember 2018 mit einem Beitrag "Ethische Grundlagen für eine vertrauenswürdige KI" an die Öffentlichkeit wandte. "Künstliche Intelligenz (KI) ist eine der transformativsten Kräfte unserer Zeit und wird das Gewebe der Gesellschaft verändern", heißt es darin gleich zu Beginn. Die Experten nennen daraufhin die Prinzipien auf dem Weg zu einer verantwortungsvollen Entwicklung der KI-Technologien. Insbesondere sei hier ein "anthropo-zentrischer" Ansatz vonnöten, so die Gruppe unisono. Ziel ist es, die Entwicklung der KI derart zu gestalten, dass der einzelne Mensch, seine Würde und seine Freiheit geschützt werde, Demokratie, Recht und Gesetz sowie Bürgerrechte aufrecht erhalten werden und Gleichheit, Minderheitenschutz und Solidarität gefördert werden. Grundlegende Richtlinien für jede KI-Technologie müssen daher sein: 1. Den Menschen Gutes zukommen zu lassen; 2. kein menschliches Leid zu verursachen; 3. die menschliche Autonomie zu fördern; 4. das Prinzip der Fairness gelten zu lassen; und 5. Transparenz und Nachvollziehbarkeit in allen Wirkungen zu erreichen." Vgl. auch: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence.

Years

Languages

  • d 875
  • e 175
  • a 3
  • el 2
  • m 2
  • nl 1
  • More… Less…

Types

  • a 510
  • i 85
  • m 26
  • r 21
  • x 20
  • b 13
  • n 8
  • s 6
  • p 2
  • l 1
  • More… Less…

Themes

Subjects

Classifications