Search (71 results, page 1 of 4)

  • × type_ss:"a"
  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Hermsdorf, D.: Zweifel an Franz Hörmanns "Informationsgeld" : https://www.heise.de/tp/features/Zweifel-an-Franz-Hoermanns-Informationsgeld-3730411.html. (2017) 0.11
    0.10520521 = sum of:
      0.008354262 = product of:
        0.04177131 = sum of:
          0.04177131 = weight(_text_:22 in 3675) [ClassicSimilarity], result of:
            0.04177131 = score(doc=3675,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.2708308 = fieldWeight in 3675, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3675)
        0.2 = coord(1/5)
      0.07596529 = weight(_text_:deutsche in 3675) [ClassicSimilarity], result of:
        0.07596529 = score(doc=3675,freq=2.0), product of:
          0.20799294 = queryWeight, product of:
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.044043828 = queryNorm
          0.36523014 = fieldWeight in 3675, product of:
            1.4142135 = tf(freq=2.0), with freq of:
              2.0 = termFreq=2.0
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.0546875 = fieldNorm(doc=3675)
      0.020885656 = product of:
        0.04177131 = sum of:
          0.04177131 = weight(_text_:22 in 3675) [ClassicSimilarity], result of:
            0.04177131 = score(doc=3675,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.2708308 = fieldWeight in 3675, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3675)
        0.5 = coord(1/2)
    
    Abstract
    Systematische Alternativen zu Zinssystem, Giralgeld und Zentralbanken wurden in der Folgezeit der Marxschen Theorie des Kapitals mehrfach durchdacht. In Deutschland war es zuletzt wohl die AG Geldordnung und Finanzpolitik der Piratenpartei, in der die meisten Teilnehmer zum fundierteren Nachdenken über Geld ermuntert wurden. Hinzu kommen vielerlei Websites und Internet-Videos, in denen sich das Konkurrenzangebot zu den durch Finanzkrisen in Misskredit geratenen universitären Wirtschaftslehren entfaltet. Zu den bekannteren Experten, die auf diesen neuen Bühnen auftreten, gehört Franz Hörmann, Professor an der Universität Wien. Neuerdings firmiert er als finanzpolitischer Sprecher der jungen Partei "Deutsche Mitte" (DM), die der ehemalige ARD-Journalist und Politikberater Christoph Hörstel ins Leben rief. Hier steht Hörmanns Lehre im Kontext einer vehementen politischen Gegnerschaft zum globalen "Finanzkartell".
    Date
    20. 6.2017 11:55:22
  2. Hartmann, F.: Paul Otlets Hypermedium : Dokumentation als Gegenidee zur Bibliothek (2015) 0.10
    0.10005553 = product of:
      0.15008329 = sum of:
        0.009547729 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 1432) [ClassicSimilarity], result of:
              0.047738645 = score(doc=1432,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 1432, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1432)
          0.2 = coord(1/5)
        0.14053556 = sum of:
          0.09279692 = weight(_text_:bibliothek in 1432) [ClassicSimilarity], result of:
            0.09279692 = score(doc=1432,freq=4.0), product of:
              0.18082327 = queryWeight, product of:
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.044043828 = queryNorm
              0.5131913 = fieldWeight in 1432, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.0625 = fieldNorm(doc=1432)
          0.047738645 = weight(_text_:22 in 1432) [ClassicSimilarity], result of:
            0.047738645 = score(doc=1432,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.30952093 = fieldWeight in 1432, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1432)
      0.6666667 = coord(2/3)
    
    Abstract
    Schon zur Wende ins 20. Jahrhundert zweifelte der belgische Privatgelehrte Paul Otlet an der Zukunft des Buches und der Bibliothek. Statt dessen begann er damit, eine Dokumentation und Neuorganisation des Weltwissens anzulegen, und mittels eines Karteikartensystems (Répertoire Bibliographique Universel) zu vernetzen. Dieses Projekt eines flexiblen, abfrageorientierten Wissensbestandes in einem 'Hypermedium' (Otlet) besetzte jene technologische Leerstelle, die inzwischen eine die bibliothekarische Epoche aufsprengende neue Wissenskultur der digitalen Medialität produziert hat.
    Date
    22. 8.2016 15:58:46
  3. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.08
    0.07514658 = sum of:
      0.0059673307 = product of:
        0.029836653 = sum of:
          0.029836653 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.029836653 = score(doc=3780,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
        0.2 = coord(1/5)
      0.054260924 = weight(_text_:deutsche in 3780) [ClassicSimilarity], result of:
        0.054260924 = score(doc=3780,freq=2.0), product of:
          0.20799294 = queryWeight, product of:
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.044043828 = queryNorm
          0.26087868 = fieldWeight in 3780, product of:
            1.4142135 = tf(freq=2.0), with freq of:
              2.0 = termFreq=2.0
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.0390625 = fieldNorm(doc=3780)
      0.014918326 = product of:
        0.029836653 = sum of:
          0.029836653 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.029836653 = score(doc=3780,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
        0.5 = coord(1/2)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  4. axk: Fortschritt im Schneckentempo : die Deutsche Digitale Bibliothek (2012) 0.07
    0.07408317 = product of:
      0.111124754 = sum of:
        0.07596529 = weight(_text_:deutsche in 313) [ClassicSimilarity], result of:
          0.07596529 = score(doc=313,freq=8.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.36523014 = fieldWeight in 313, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
        0.035159465 = product of:
          0.07031893 = sum of:
            0.07031893 = weight(_text_:bibliothek in 313) [ClassicSimilarity], result of:
              0.07031893 = score(doc=313,freq=12.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.3888821 = fieldWeight in 313, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=313)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    "Die Bestände von rund 30.000 deutschen Kulturinstitutionen sollen als Online-Kopie zukünftig in der Deutschen Digitalen Bibliothek (DDB) zu finden sein. Doch dahin scheint es noch ein langer Weg zu sein: Das Online-Portal läuft bislang nur im internen Testbetrieb. Und die öffentliche Hand kann den Aufwand für die Digitalisierung der ganzen Werke kaum alleine stemmen, wie Kulturstaatsminister Bernd Neumann (CDU) bereits mehrfach betonte. Um die Verwandlung von gemeinfreien Kulturgütern in Bits und Bytes schneller voranzubringen, sollte über eine im April 2011 veröffentlichte Ausschreibung ein großes Unternehmen als Digitalisierungspartner gewonnen werden. Der Konzessionsinhaber hätte dann die Rahmenvereinbarung abnicken und auf dieser Basis die Verträge mit den einzelnen Kulturinstitutionen aushandeln müssen. Bei der Digitalisierung hätte der potentielle Partner aus der Wirtschaft der jeweiligen Einrichtung eine digitale Kopie überlassen müssen und ein nicht-exklusives Verwertungsrecht an der eigenen Kopie erhalten - all das auf "eigenes wirtschaftliches Risiko". Informierten Kreisen zufolge war diese Ausschreibung von vornherein auf den Suchmaschinenriesen Google zugeschnitten. Der kooperiert seit 2007 mit der Bayerischen Staatsbibliothek und digitalisiert auf eigene Kosten urheberrechtsfreie Bücher aus deren Beständen. Man ging wohl davon aus, dass sich Google aus Imagegründen auch für die unattraktiv gestaltete Lizenz zur deutschlandweiten Digitalisierung interessieren würde - was aber nicht der Fall war. Stattdessen musste die Ausschreibung mangels passender Bewerber erfolglos zurückgezogen werden, wie im Juni 2012 bekannt gemacht wurde. Neue Ausschreibungen für exklusive Partnerschaften soll es laut der Pressestelle des Kulturstaatsminister nicht geben, aber einzelne Kooperationen mit verschiedenen Unternehmen. Hier sollen bereits Verhandlungen mit nicht weiter benannten Interessenten laufen.
    Immer wieder in die Kritik gerät die angesetzte Finanzierung der DDB: So sind seit 2011 jährlich 2,6 Millionen Euro für den Betrieb der Plattform vorgesehen, für die Digitalisierung von Inhalten stehen aber keine direkten Bundesmittel zur Verfügung. Dr. Ellen Euler zufolge, der Geschäftsführerin der Deutschen Digitalen Bibliothek, seien Aufstockungen zumindest im Gespräch. Von den Dimensionen der 750 Millionen Euro, die der damalige französische Premier Nicholas Sarkozy für die Digitalisierung in seinem Land zusagte, dürfte man jedoch noch weit entfernt sein. Derzeit wird die Digitalisierung der Inhalte vor allem von den Ländern und den ihnen unterstellten Einrichtungen vorangetrieben. So plant etwa das Land Berlin laut einer parlamentarischen Anfrage (PDF-Datei) 2012 und 2013 jeweils 900.000 Euro für ein eigenes "Kompetenzzentrum Digitalisierung" bereitzustellen, das die Arbeit von Bibliotheken, Archiven und Museen koordinieren soll. Inwgesamt richte sich ein Großteil der Bemühungen der Länder auf vom Verfall bedrohte Bestände, wie Dr. Euler verriet. Eine übergreifende Strategie seitens der Bundesregierung, wie sie auch von der Opposition gefordert wurde, gibt es derzeit nicht.
    Der Anfang des Jahres vom Bundestag beschlossene Antrag für eine "Digitalisierungsoffensive" (PDF-Datei) überlässt es "vor allem auch Angebot und Nachfrage", was digitalisiert wird. Für den Ausgleich der Interessen sollen dabei das Kompetenznetzwerk Deutsche Digitale Bibliothek sorgen, in dem 13 große Einrichtungen vertreten sind, sowie ein Kuratorium mit Vertretern aus Bund, Länder und Kommunen. Immerhin plant die DDB laut Euler ein zentrales Register, mit dem die verschiedenen Institutionen ihre Vorhaben abgleichen könnten, um unnötige Doppeldigitalisierungen zu vermeiden. Nach wie vor offen ist auch noch, wann die Beta-Version der DDB nun endlich öffentlich zugänglich gemacht wird: Ursprünglich für Ende 2011 angekündigt, nennt die Webseite des Kulturstaatsministers zur Stunde noch das inzwischen abgelaufene zweite Quartal 2012 als Starttermin. Dr. Euler von der DDB sprach vom Herbst 2012, im September werde möglicherweise ein konkreter Termin bekanntgegeben."
    Object
    Deutsche Digitale Bibliothek
    Source
    http://www.heise.de/newsticker/meldung/Fortschritt-im-Schneckentempo-die-Deutsche-Digitale-Bibliothek-1640670.html
  5. Taglinger, H.: Ausgevogelt, jetzt wird es ernst (2018) 0.05
    0.051209882 = product of:
      0.07681482 = sum of:
        0.0059673307 = product of:
          0.029836653 = sum of:
            0.029836653 = weight(_text_:22 in 4281) [ClassicSimilarity], result of:
              0.029836653 = score(doc=4281,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.19345059 = fieldWeight in 4281, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4281)
          0.2 = coord(1/5)
        0.07084749 = sum of:
          0.041010834 = weight(_text_:bibliothek in 4281) [ClassicSimilarity], result of:
            0.041010834 = score(doc=4281,freq=2.0), product of:
              0.18082327 = queryWeight, product of:
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.044043828 = queryNorm
              0.22680065 = fieldWeight in 4281, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4281)
          0.029836653 = weight(_text_:22 in 4281) [ClassicSimilarity], result of:
            0.029836653 = score(doc=4281,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.19345059 = fieldWeight in 4281, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4281)
      0.6666667 = coord(2/3)
    
    Abstract
    Das kennt der Sammler: Da fängt man an, sich für eine Sache zu interessieren und alles darüber zusammenzutragen, was man kriegen kann, und dann hat man sich verhoben, weil man die Sache ein wenig zu groß angegangen ist. So ist es zum Beispiel blöd, in der Wüste zu sitzen und sich zu überlegen, alle Kiefernnadeln weltweit zusammentragen zu wollen, weil das ja von dort aus gesehen nicht so viele sein können. Und dann beginnt man nach einiger Zeit diese Website über die Kiefernwälder weltweit zu finden und sich am Kopf zu kratzen. Also beschließt man nur noch "herausragende Kiefernnadeln" zu sammeln, was immer das sein mag. Aber auf jeden Fall hat man es satt, jeden Tag mehrere Tausend Säcke Bioabfall von schwitzenden Postboten vor die Tore gestellt zu bekommen. So ähnlich muss es der Library of Congress gehen, wenn sie im Dezember 2017 genau das beschließt. Also, nicht wirklich das Sammeln von Kiefernnadeln einzustellen. Vielmehr handelt es sich ja um die umfangreichste Bibliothek der Welt, die alle möglichen Inhalte in Büchern, auf Tonbändern und eben auch Tweets sammelt. Das ist ihr jetzt zu viel geworden. Kann man verstehen, kommen wir ja schon mit dem Lesen von Tweets eines kleinhändigen Präsidenten kaum noch nach, dann muss es da draußen ja auch noch eine ganze Menge anderes Zeugs geben. Die armen Bibliothekare in den dortigen Kellern weinen ja schon, wenn sie wieder tonnenweise kommentierte Retweets und diesen Mist auf den Tisch bekamen, alleine das Ausdrucken von bis zu 280 Zeichen und Bildern dauert ja ewig ... ganz zu schweigen vom Einsortieren.
    Date
    22. 1.2018 11:38:55
  6. Ceynowa, K.: In Frankfurt lesen jetzt zuerst Maschinen : Deutsche Nationalbibliothek (2017) 0.04
    0.043858584 = product of:
      0.13157575 = sum of:
        0.13157575 = weight(_text_:deutsche in 3812) [ClassicSimilarity], result of:
          0.13157575 = score(doc=3812,freq=6.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.6325972 = fieldWeight in 3812, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3812)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Deutsche Nationalbibliothek sammelt alle deutschen Bücher - und erschließt sie mit Schlagworten. Diese Arbeit sollen künftig keine Menschen mehr verrichten. So macht die Digitalisierung Wissen unzugänglich. Das wirklich schlagende Schlagwort steht oft zwischen den Zeilen, wo ein Lesegerät es nicht finden kann. Bislang ist die Nationalbibliographie das Werk der Fachreferenten der Deutschen Nationalbibliothek.
    Source
    http://www.faz.net/aktuell/feuilleton/buecher/maschinen-lesen-buecher-deutsche-nationalbibliothek-setzt-auf-technik-15128954.html?printPagedArticle=true#pageIndex_2
  7. Voss, O.: Übersetzer überflüssig? : Sprachsoftware DeepL und Acrolinx (2019) 0.04
    0.043408737 = product of:
      0.13022621 = sum of:
        0.13022621 = weight(_text_:deutsche in 4981) [ClassicSimilarity], result of:
          0.13022621 = score(doc=4981,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.6261088 = fieldWeight in 4981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.09375 = fieldNorm(doc=4981)
      0.33333334 = coord(1/3)
    
    Abstract
    Deutsche Sprachsoftware ist besser als Google. Sogar professionelle Übersetzer diskutieren schon, ob sie überflüssig werden.
  8. Wolchover, N.: Wie ein Aufsehen erregender Beweis kaum Beachtung fand (2017) 0.04
    0.039382376 = product of:
      0.05907356 = sum of:
        0.01687816 = product of:
          0.0843908 = sum of:
            0.0843908 = weight(_text_:22 in 3582) [ClassicSimilarity], result of:
              0.0843908 = score(doc=3582,freq=4.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.54716086 = fieldWeight in 3582, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3582)
          0.2 = coord(1/5)
        0.0421954 = product of:
          0.0843908 = sum of:
            0.0843908 = weight(_text_:22 in 3582) [ClassicSimilarity], result of:
              0.0843908 = score(doc=3582,freq=4.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.54716086 = fieldWeight in 3582, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3582)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 4.2017 10:42:05
    22. 4.2017 10:48:38
  9. Junger, U.: Can indexing be automated? : the example of the Deutsche Nationalbibliothek (2012) 0.04
    0.03581038 = product of:
      0.10743114 = sum of:
        0.10743114 = weight(_text_:deutsche in 1717) [ClassicSimilarity], result of:
          0.10743114 = score(doc=1717,freq=4.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.5165134 = fieldWeight in 1717, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1717)
      0.33333334 = coord(1/3)
    
    Abstract
    The German subject headings authority file (Schlagwortnormdatei/SWD) provides a broad controlled vocabulary for indexing documents of all subjects. Traditionally used for intellectual subject cataloguing primarily of books the Deutsche Nationalbibliothek (DNB, German National Library) has been working on developping and implementing procedures for automated assignment of subject headings for online publications. This project, its results and problems are sketched in the paper.
  10. Guidi, F.; Sacerdoti Coen, C.: ¬A survey on retrieval of mathematical knowledge (2015) 0.03
    0.027847543 = product of:
      0.041771315 = sum of:
        0.011934661 = product of:
          0.059673306 = sum of:
            0.059673306 = weight(_text_:22 in 5865) [ClassicSimilarity], result of:
              0.059673306 = score(doc=5865,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.38690117 = fieldWeight in 5865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5865)
          0.2 = coord(1/5)
        0.029836653 = product of:
          0.059673306 = sum of:
            0.059673306 = weight(_text_:22 in 5865) [ClassicSimilarity], result of:
              0.059673306 = score(doc=5865,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.38690117 = fieldWeight in 5865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5865)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 2.2017 12:51:57
  11. Sojka, P.; Liska, M.: ¬The art of mathematics retrieval (2011) 0.03
    0.027567662 = product of:
      0.041351493 = sum of:
        0.011814713 = product of:
          0.05907356 = sum of:
            0.05907356 = weight(_text_:22 in 3450) [ClassicSimilarity], result of:
              0.05907356 = score(doc=3450,freq=4.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.38301262 = fieldWeight in 3450, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3450)
          0.2 = coord(1/5)
        0.02953678 = product of:
          0.05907356 = sum of:
            0.05907356 = weight(_text_:22 in 3450) [ClassicSimilarity], result of:
              0.05907356 = score(doc=3450,freq=4.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.38301262 = fieldWeight in 3450, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3450)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: DocEng2011, September 19-22, 2011, Mountain View, California, USA Copyright 2011 ACM 978-1-4503-0863-2/11/09
    Date
    22. 2.2017 13:00:42
  12. Wiesenmüller, H.: ¬Das neue Sacherschließungskonzept der DNB in der FAZ (2017) 0.03
    0.025578845 = product of:
      0.07673653 = sum of:
        0.07673653 = weight(_text_:deutsche in 3777) [ClassicSimilarity], result of:
          0.07673653 = score(doc=3777,freq=4.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.36893815 = fieldWeight in 3777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3777)
      0.33333334 = coord(1/3)
    
    Content
    Bezugnahme auf: Ceynowa, K.: In Frankfurt lesen jetzt zuerst Maschinen: Deutsche Nationalbibliothek. [31.07.2017]. In: http://www.faz.net/aktuell/feuilleton/buecher/maschinen-lesen-buecher-deutsche-nationalbibliothek-setzt-auf-technik-15128954.html?printPagedArticle=true#pageIndex_2.
  13. Rötzer, F.: Jeder sechste Deutsche findet ein Social-Scoring-System nach chinesischem Vorbild gut (2019) 0.03
    0.025578845 = product of:
      0.07673653 = sum of:
        0.07673653 = weight(_text_:deutsche in 4551) [ClassicSimilarity], result of:
          0.07673653 = score(doc=4551,freq=4.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.36893815 = fieldWeight in 4551, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4551)
      0.33333334 = coord(1/3)
    
    Source
    https://www.heise.de/tp/features/Jeder-sechste-Deutsche-findet-ein-Social-Scoring-System-nach-chinesischem-Vorbild-gut-4297208.html?wt_mc=nl.tp-aktuell.woechentlich
  14. Randow, G. von: Er wollte die Welt mit Intelligenz in den Griff bekommen : ... die aber machte nicht mit. Was wir dennoch von Gottfried Wilhelm Leibniz lernen können - 300 Jahre nach dem Tod dieses letzten deutschen Universalgenies: Gottfried Wilhelm Leibniz (2016) 0.03
    0.025321765 = product of:
      0.07596529 = sum of:
        0.07596529 = weight(_text_:deutsche in 3673) [ClassicSimilarity], result of:
          0.07596529 = score(doc=3673,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.36523014 = fieldWeight in 3673, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3673)
      0.33333334 = coord(1/3)
    
    Abstract
    Großartig waren seine Projekte, ewigen Bestand haben einige seiner Erkenntnisse, und doch ist Gottfried Wilhelm Leibniz vor allem deswegen unser Zeitgenosse, weil seine Versuche vergeblich waren, der Wirklichkeit Vernunft beizubringen. Er starb vor 300 Jahren, die deutsche Wissenschaftswelt hat ein "Leibnizjahr" ausgerufen, das den vollendeten Gelehrten feiert, aber eigentlich wäre es ein Anlass, über den unvollendeten Leibniz nachzudenken und darüber, was sein Bemühen uns lehrt. .
  15. Unzicker, A.: Wikipedia auf dem Weg zum Orwellschen Wahrheitsministerium : über den Niedergang der Online-Enzyklopädie (2018) 0.03
    0.025321765 = product of:
      0.07596529 = sum of:
        0.07596529 = weight(_text_:deutsche in 4263) [ClassicSimilarity], result of:
          0.07596529 = score(doc=4263,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.36523014 = fieldWeight in 4263, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4263)
      0.33333334 = coord(1/3)
    
    Abstract
    Mit Wikipedia schien ein Traum wahr geworden zu sein - das Wissen der Menschheit, zusammengetragen in einem Gemeinschaftsprojekt, kostenlos, für alle verfügbar und frei von Kommerz, im wahrsten Sinne des Wortes die beste Seite des Internet. Obwohl nur ein Prozent der Weltbevölkerung betreffend, ist die deutsche Wikipedia dabei die zweitgrößte Abteilung - auch das schien eine besondere Erfolgsgeschichte. Und tatsächlich ist die Enzyklopädie nach wie vor unschlagbar bei Dingen wie Beethovens Geburtsdatum oder der Anzahl der Jupitermonde. Nähert man sich aber der Gegenwart in irgendeinem Artikel mit politisch-gesellschaftlichem Bezug, kommt man ins Staunen.
  16. Henze, V.; Junger, U.; Mödden, E.: Grundzüge und erste Schritte der künftigen inhaltlichen Erschliessung von Publikationen in der Deutschen Nationalbibliothek (2017) 0.03
    0.025062047 = product of:
      0.07518614 = sum of:
        0.07518614 = weight(_text_:deutsche in 3772) [ClassicSimilarity], result of:
          0.07518614 = score(doc=3772,freq=6.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.3614841 = fieldWeight in 3772, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.03125 = fieldNorm(doc=3772)
      0.33333334 = coord(1/3)
    
    Abstract
    Die parallele Verbreitung von analogen und digitalen Informationen führt zu einer stetig ansteigenden Menge neu erscheinender Publikationen. Die Auswertungsmöglichkeiten digitaler Inhalte, die Kooperationsmöglichkeiten durch das Internet sowie die Entwicklung technischer Verfahren, Inhalte miteinander vernetzen und thematisch in Beziehung setzen zu können, lassen Raum, bibliothekarische Erschließungsverfahren neu zu denken. Erschließung muss dabei nicht mehr als einmaliger abgeschlossener Vorgang, sondern kann als zyklisches Verfahren betrachtet werden, bei dem Erschließungsdaten immer wieder verändert und aktualisiert werden. Im Strategischen Kompass 2025 der Deutschen Nationalbibliothek, der im vergangenen Jahr erschienen ist, wird die Neuausrichtung der inhaltlichen Erschließung mittels maschineller Verfahren im Grundsatz skizziert (Strategischer Kompass 2025, S. 5). Dieser strategischen Festlegung gingen fachliche Diskussionen sowohl hausintern als auch in den Gremien der Deutschen Nationalbibliothek voraus, im Erschließungskonzept 2015 ist die Entwicklung bereits kurz beschrieben. Von externen Kolleginnen und Kollegen kam immer wieder die Aufforderung an die Deutsche Nationalbibliothek, sich hier stärker einzubringen und zu engagieren. In den Strategischen Prioritäten 2017-2020 wurden daher entsprechende Ziele formuliert, die bei der Erschließung sowohl der digitalen als auch der analogen Publikationen zum Tragen kommen sollen.
    Bisher war die intellektuelle inhaltliche Erschließung nur auf einen Teil des Bibliothekszugangs, insbesondere gedruckte monografische Werke und Zeitschriftentitel, beschränkt. Für Online-Publikationen hat die DNB 2010 die Grundsatzentscheidung getroffen, diese nicht mehr intellektuell zu erschließen, sondern die Metadaten der Ablieferer nachzunutzen und maschinelle Verfahren zu entwickeln, um solche Publikationen zum Beispiel mit inhaltserschließenden Daten anzureichern. Dies wird seitdem praktiziert. Durch das enorme Anwachsen des digitalen Zugangs wird der Anteil intellektuell erschlossener Publikationen in Relation zu maschinell erstellten Daten immer geringer. Damit geht das Problem einher, dass die Heterogenität zunimmt und der thematische Zugriff auf Daten und damit Publikationen erschwert wird. Diesem Umstand will die Deutsche Nationalbibliothek durch den Umstieg auf automatische Inhaltserschließungsverfahren für alle Medienwerke entgegentreten. Im Sinne des oben genannten veränderten Verständnisses von Erschließung als zyklischem Vorgang können die maschinell entstandenen Metadaten zu jedem späteren Zeitpunkt erweitert und damit verbessert werden. Eine Metadatencodierung für den Datensatz oder die einzelnen Informationsanteile gibt Auskunft über deren Status. Identifikatoren für den Datensatz oder für einzelne Informationsanteile, wie zum Beispiel GND- oder WV-Identnummern dienen der Nachnutzung.
    Content
    Vgl. auch: Ceynowa, K.: In Frankfurt lesen jetzt zuerst Maschinen. Unter: http://www.faz.net/aktuell/feuilleton/buecher/maschinen-lesen-buecher-deutsche-nationalbibliothek-setzt-auf-technik-15128954.html?printPagedArticle=true#pageIndex_2.
  17. Strauss, S.: Und wo sind hier die Bücher? : Bibliothek der Zukunft (2015) 0.02
    0.023677617 = product of:
      0.07103285 = sum of:
        0.07103285 = product of:
          0.1420657 = sum of:
            0.1420657 = weight(_text_:bibliothek in 4688) [ClassicSimilarity], result of:
              0.1420657 = score(doc=4688,freq=6.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.7856605 = fieldWeight in 4688, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4688)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die öffentliche Bibliothek erfährt gerade eine gewaltige Transformation von der altehrwürdigen Bildungsstätte zum multiplen Kultur- und Veranstaltungsort. Im dänischen Aarhus kann man die Zukunft schon besichtigen.
    Source
    http://www.faz.net/aktuell/feuilleton/buecher/themen/die-zukunft-der-bibliothek-das-dokk1-in-aarhus-13834316.html
  18. Mitchell, J.S.; Zeng, M.L.; Zumer, M.: Modeling classification systems in multicultural and multilingual contexts (2012) 0.02
    0.023629425 = product of:
      0.035444137 = sum of:
        0.010126896 = product of:
          0.05063448 = sum of:
            0.05063448 = weight(_text_:22 in 1967) [ClassicSimilarity], result of:
              0.05063448 = score(doc=1967,freq=4.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.32829654 = fieldWeight in 1967, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1967)
          0.2 = coord(1/5)
        0.02531724 = product of:
          0.05063448 = sum of:
            0.05063448 = weight(_text_:22 in 1967) [ClassicSimilarity], result of:
              0.05063448 = score(doc=1967,freq=4.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.32829654 = fieldWeight in 1967, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1967)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    This paper reports on the second part of an initiative of the authors on researching classification systems with the conceptual model defined by the Functional Requirements for Subject Authority Data (FRSAD) final report. In an earlier study, the authors explored whether the FRSAD conceptual model could be extended beyond subject authority data to model classification data. The focus of the current study is to determine if classification data modeled using FRSAD can be used to solve real-world discovery problems in multicultural and multilingual contexts. The paper discusses the relationships between entities (same type or different types) in the context of classification systems that involve multiple translations and /or multicultural implementations. Results of two case studies are presented in detail: (a) two instances of the DDC (DDC 22 in English, and the Swedish-English mixed translation of DDC 22), and (b) Chinese Library Classification. The use cases of conceptual models in practice are also discussed.
  19. Scheven, E.: Geokoordinaten in Bibliotheksdaten : Grundlage für innovative Nachnutzung (2015) 0.02
    0.022278037 = product of:
      0.033417054 = sum of:
        0.009547729 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 308) [ClassicSimilarity], result of:
              0.047738645 = score(doc=308,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=308)
          0.2 = coord(1/5)
        0.023869323 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 308) [ClassicSimilarity], result of:
              0.047738645 = score(doc=308,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=308)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    16.11.2015 18:22:47
  20. Bensman, S.J.: Eugene Garfield, Francis Narin, and PageRank : the theoretical bases of the Google search engine (2013) 0.02
    0.022278037 = product of:
      0.033417054 = sum of:
        0.009547729 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 1149) [ClassicSimilarity], result of:
              0.047738645 = score(doc=1149,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 1149, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1149)
          0.2 = coord(1/5)
        0.023869323 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 1149) [ClassicSimilarity], result of:
              0.047738645 = score(doc=1149,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 1149, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1149)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    17.12.2013 11:02:22

Languages

  • d 58
  • e 12
  • a 1
  • More… Less…