Search (510 results, page 2 of 26)

  • × type_ss:"a"
  • × type_ss:"el"
  1. Frank, I.: Fortschritt durch Rückschritt : vom Bibliothekskatalog zum Denkwerkzeug. Eine Idee (2016) 0.03
    0.026846042 = product of:
      0.080538124 = sum of:
        0.026962416 = weight(_text_:und in 3982) [ClassicSimilarity], result of:
          0.026962416 = score(doc=3982,freq=4.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.27704588 = fieldWeight in 3982, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3982)
        0.05357571 = product of:
          0.10715142 = sum of:
            0.10715142 = weight(_text_:allgemein in 3982) [ClassicSimilarity], result of:
              0.10715142 = score(doc=3982,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.46442303 = fieldWeight in 3982, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3982)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Text zeigt anhand einer essayistisch selektiven Rückschau in die Zeit vor den Digital Humanities bibliotheks- und informationswissenschaftliche Ansätze zur Entwicklung hypertextueller Werkzeuge für Bibliographie-Verwaltung und Strukturierung des wissenschaftlichen Diskurses - eine zukunftsweisende Idee für eine digitale Geisteswissenschaft zur Unterstützung geisteswissenschaftlicher Denkarbeit jenseits von reinem 'distant thinking'.
    Theme
    Katalogfragen allgemein
  2. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.02
    0.023674577 = product of:
      0.07102373 = sum of:
        0.041277602 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.041277602 = score(doc=236,freq=6.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.42413816 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.029746132 = product of:
          0.059492264 = sum of:
            0.059492264 = weight(_text_:22 in 236) [ClassicSimilarity], result of:
              0.059492264 = score(doc=236,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.38690117 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Frage, was Leben ist, hat Humberto Maturana beantwortet. Die Frage, was Erkennen ist, ließ ihn nie los. Nun ist der Forscher an den Schnittstellen von Neurobiologie und Philosophie in Santiago de Chile gestorben.
    Date
    7. 5.2021 22:10:24
    Source
    https://www.faz.net/aktuell/feuilleton/buecher/biologe-und-philosoph-humberto-maturana-gestorben-17330542.html?printPagedArticle=true&service=printPreview
  3. Retti, G.: "Schlagwortnormdatei" und "Regeln für den Schlagwortkatalog" (1995) 0.02
    0.023490287 = product of:
      0.07047086 = sum of:
        0.023592114 = weight(_text_:und in 1354) [ClassicSimilarity], result of:
          0.023592114 = score(doc=1354,freq=4.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.24241515 = fieldWeight in 1354, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1354)
        0.046878748 = product of:
          0.093757495 = sum of:
            0.093757495 = weight(_text_:allgemein in 1354) [ClassicSimilarity], result of:
              0.093757495 = score(doc=1354,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.40637016 = fieldWeight in 1354, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1354)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Es scheint naheliegend, daß der Unsicherheit, welche durch die "Vielfalt der möglichen sprachlichen Ausdrucksweisen für einen Sachverhalt" beim Beschlagworter ausgelöst wird, dadurch begegnet werden soll, "daß immer nur eine der möglichen Formen gewählt wird". Der Ruf nach einer "Standardisie- rung der Schlagwörter" geht damit Hand in Hand. Zwei Ergebnisse dieser Standardisierungsbemühungen werden im folgenden dargestellt; ein Punkt aber sollte dabei nicht übersehen werden: "Ein allgemein akzeptiertes Verfahren der Inhaltsanalyse gibt es bisher nicht und es ist offen, ob das Problem überhaupt gelöst werden kann." Standardisiert kann demnach nur das Schlagwortsystem werden, nicht aber seine konkrete Anwendung bei der inhaltlichen Erschließung von Dokumenten.
  4. Pfeiffer, T.; Summann, F.; Hellriegel, J.; Wolf, S.; Pietsch, C.: Virtuelle Realität zur Bereitstellung integrierter Suchumgebungen (2017) 0.02
    0.023077425 = product of:
      0.06923227 = sum of:
        0.03574745 = weight(_text_:und in 4001) [ClassicSimilarity], result of:
          0.03574745 = score(doc=4001,freq=18.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3673144 = fieldWeight in 4001, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4001)
        0.03348482 = product of:
          0.06696964 = sum of:
            0.06696964 = weight(_text_:allgemein in 4001) [ClassicSimilarity], result of:
              0.06696964 = score(doc=4001,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.2902644 = fieldWeight in 4001, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4001)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Exzellenzcluster Kognitive Interaktionstechnologie (CITEC) an der Universität Bielefeld beschäftigt sich seit 2013 mit der virtuellen Realität (VR). Ausgehend von konkreten Projektkooperationen (Publikations- und Forschungsdatenmanagement) mit der Universitätsbibliothek ist die Idee entstanden, mit der in 2016 neu angebotenen Konsumer-VR-Hardware die im Labor entwickelten Interaktionstechniken auf geeignete Szenarien im Bereich von bibliothekarischen Umgebungen anzuwenden. Als interessantes Anwendungsgebiet kristallisierte sich im gemeinsamen Diskurs die Literatursuche heraus: Als Suchsystem wurde die Bielefelder BASE-Datenbank (d.i. Bielefeld Academic Search Engine mit inzwischen mehr als 100 Mio. indexierten Dokumenten) ausgewählt. Diese Auswahl erfolgte vor dem Hintergrund, dass sich die von zahlreichen externen Institutionen bereits genutzte API-Schnittstelle als universell und robust erwiesen hat und umfangreiche Funktionen bereitstellt. Auf der Grundlage der umfangreichen theoretischen und praktischen Erfahrungen des CITEC mit VRTechniken wurde der Prototyp für eine virtuelle Suchumgebung realisiert, der ein Retrieval in einem Suchraum von Online-Dokumenten erlaubt. Die Nutzerinnen und Nutzer können die Suchanfrage explorativ zusammenstellen und dabei die Ergebnisse intuitiv verwalten. Unterstützt werden sie dabei durch Ergebnisanzeige, Sortierung, Optimierung des Suchergebnisses mittels Suchverfeinerung (Drilldown-basiert) oder Anfrageerweiterung und Wiederverwendung von abgelegten Ergebnissen. Gleichzeitig wird der Zugriff- und Lizenzstatus visualisiert und die Detailanzeige der Metadaten des Objektes integriert.
    Theme
    Katalogfragen allgemein
  5. Toepfer, M.; Kempf, A.O.: Automatische Indexierung auf Basis von Titeln und Autoren-Keywords : ein Werkstattbericht (2016) 0.02
    0.022395946 = product of:
      0.06718784 = sum of:
        0.033703018 = weight(_text_:und in 3209) [ClassicSimilarity], result of:
          0.033703018 = score(doc=3209,freq=16.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34630734 = fieldWeight in 3209, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3209)
        0.03348482 = product of:
          0.06696964 = sum of:
            0.06696964 = weight(_text_:allgemein in 3209) [ClassicSimilarity], result of:
              0.06696964 = score(doc=3209,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.2902644 = fieldWeight in 3209, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3209)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Automatische Verfahren sind für Bibliotheken essentiell, um die Erschliessung stetig wachsender Datenmengen zu stemmen. Die Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft sammelt seit Längerem Erfahrungen im Bereich automatischer Indexierung und baut hier eigene Kompetenzen auf. Aufgrund rechtlicher Restriktionen werden unter anderem Ansätze untersucht, die ohne Volltextnutzung arbeiten. Dieser Beitrag gibt einen Einblick in ein laufendes Teilprojekt, das unter Verwendung von Titeln und Autoren-Keywords auf eine Nachnormierung der inhaltsbeschreibenden Metadaten auf den Standard-Thesaurus Wirtschaft (STW) abzielt. Wir erläutern den Hintergrund der Arbeit, betrachten die Systemarchitektur und stellen erste vielversprechende Ergebnisse eines dokumentenorientierten Verfahrens vor.
    Im Folgenden erläutern wir zunächst den Hintergrund der aktuellen Arbeit. Wir beziehen uns auf Erfahrungen mit maschinellen Verfahren allgemein und an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) - Leibniz-Informationszentrum Wirtschaft im Speziellen. Im Anschluss geben wir einen konkreten Einblick in ein laufendes Teilprojekt, bei dem die Systemarchitektur der Automatik gegenüber früheren Arbeiten Titel und Autoren-Keywords gemeinsam verwendet, um eine Nachnormierung auf den Standard-Thesaurus Wirtschaft (STW) zu erzielen. Im Gegenssatz zu einer statischen Verknüpfung im Sinne einer Crosskonkordanz bzw. Vokabularabbildung ist das jetzt verfolgte Vorgehen dokumentenorientiert und damit in der Lage, kontextbezogene Zuordnungen vorzunehmen. Der Artikel stellt neben der Systemarchitektur auch erste experimentelle Ergebnisse vor, die im Vergleich zu titelbasierten Vorhersagen bereits deutliche Verbesserungen aufzeigen.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/156/354.
  6. Wolchover, N.: Wie ein Aufsehen erregender Beweis kaum Beachtung fand (2017) 0.02
    0.021966338 = product of:
      0.065899014 = sum of:
        0.023831634 = weight(_text_:und in 3582) [ClassicSimilarity], result of:
          0.023831634 = score(doc=3582,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.24487628 = fieldWeight in 3582, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3582)
        0.042067382 = product of:
          0.084134765 = sum of:
            0.084134765 = weight(_text_:22 in 3582) [ClassicSimilarity], result of:
              0.084134765 = score(doc=3582,freq=4.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.54716086 = fieldWeight in 3582, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3582)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Ein Statistikprofessor im Ruhestand beweist eine berühmte mathematische Vermutung über mehrdimensionale Normalverteilungen - und findet kaum Anklang, weil er nicht in den großen Journals publiziert.
    Date
    22. 4.2017 10:42:05
    22. 4.2017 10:48:38
  7. Qin, J.; Paling, S.: Converting a controlled vocabulary into an ontology : the case of GEM (2001) 0.02
    0.021431107 = product of:
      0.06429332 = sum of:
        0.02859796 = weight(_text_:und in 3895) [ClassicSimilarity], result of:
          0.02859796 = score(doc=3895,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.29385152 = fieldWeight in 3895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3895)
        0.035695355 = product of:
          0.07139071 = sum of:
            0.07139071 = weight(_text_:22 in 3895) [ClassicSimilarity], result of:
              0.07139071 = score(doc=3895,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.46428138 = fieldWeight in 3895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3895)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    24. 8.2005 19:20:22
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Eyert, F.: Mathematische Wissenschaftskommunikation in der digitalen Gesellschaft (2023) 0.02
    0.021149717 = product of:
      0.06344915 = sum of:
        0.033703018 = weight(_text_:und in 1001) [ClassicSimilarity], result of:
          0.033703018 = score(doc=1001,freq=4.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34630734 = fieldWeight in 1001, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1001)
        0.029746132 = product of:
          0.059492264 = sum of:
            0.059492264 = weight(_text_:22 in 1001) [ClassicSimilarity], result of:
              0.059492264 = score(doc=1001,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.38690117 = fieldWeight in 1001, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1001)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    In der digitalen Gesellschaft gewinnt mathematischesWissen an Bedeutung und vermittelt zunehmend, wie Individuen, Organisationen und Staaten sich zueinander verhalten. Daraus ergeben sich gute Gründe für Mathematiker:innen, sich verstärkt in die Wissenschaftskommunikation einzubringen.
    Source
    Mitteilungen der Deutschen Mathematiker-Vereinigung. 2023, H.1, S.22-25
  9. Vorndran, A.: Hervorholen, was in unseren Daten steckt! : Mehrwerte durch Analysen großer Bibliotheksdatenbestände (2018) 0.02
    0.020890832 = product of:
      0.062672496 = sum of:
        0.029187672 = weight(_text_:und in 4601) [ClassicSimilarity], result of:
          0.029187672 = score(doc=4601,freq=12.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.29991096 = fieldWeight in 4601, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4601)
        0.03348482 = product of:
          0.06696964 = sum of:
            0.06696964 = weight(_text_:allgemein in 4601) [ClassicSimilarity], result of:
              0.06696964 = score(doc=4601,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.2902644 = fieldWeight in 4601, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4601)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) verfolgt das Ziel, den unter Culturegraph.org verfügbaren großen Datenbestand von mehr als 160 Millionen Titeldaten deutschsprachiger Bibliotheksverbünde sowie der Deutschen Nationalbibliothek und der British National Bibliography über Analysen, Verknüpfungen und Auswertungen in größerem Umfang nutzbar zu machen. Der Beitrag gibt einen Überblick, welche Themenstellungen und Methoden bislang im Zentrum stehen. Dies ist einerseits die Bündelung von Werken, die erlaubt, mehrere Ausgaben, Auflagen oder Übersetzungen eines Werks zusammenzuführen. Inhaltserschließende Informationen wie Klassifikation oder verbale Erschließung, ebenso wie Normdatenverknüpfungen, können so auf alle Mitglieder eines Bündels übertragen werden, so dass ein Gewinn an Standardisierung und Erschließungstiefe zu erreichen ist. Andererseits können über bibliothekarische Daten hinaus auch externe Datenquellen zur Anreicherung herangezogen werden. Dies wird anhand eines Abgleichs von Personen in der Gemeinsamen Normdatei (GND) und der Datenbank Open Researcher and Contributor ID (ORCID) dargestellt. Unter Verwendung der Culturegraph-Titeldaten werden Personen mittels der von ihnen verfassten Publikationen abgeglichen und zusammengeführt. Abschließend werden einige statistische Auswertungen des Datenbestandes vorgestellt.
    Theme
    Katalogfragen allgemein
  10. Cazan, C.: Medizinische Ontologien : das Ende des MeSH (2006) 0.02
    0.020818593 = product of:
      0.062455777 = sum of:
        0.035667922 = weight(_text_:und in 132) [ClassicSimilarity], result of:
          0.035667922 = score(doc=132,freq=28.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.36649725 = fieldWeight in 132, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.026787855 = product of:
          0.05357571 = sum of:
            0.05357571 = weight(_text_:allgemein in 132) [ClassicSimilarity], result of:
              0.05357571 = score(doc=132,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.23221152 = fieldWeight in 132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=132)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Komplexizität medizinischer Fragestellungen und des medizinischen Informationsmanagements war seit den Anfängen der Informatik immer ein besonders wichtiges Thema. Trotz des Scheiterns der Künstlichen Intelligenz in den 80er Jahren des vorigen Jahrhunderts haben deren Kernideen Früchte getragen. Durch kongruente Entwicklung einer Reihe anderer Wissenschaftsdisziplinen und der exponentiellen Entwicklung im Bereich Computerhardware konnten die gestellten, hohen Anforderungen bei der medizinischen Informationssuche doch noch erfüllt werden. Die programmatische Forderung von Tim Berners-Lee betreffend "Semantic Web" im Jahr 2000 hat dem Thema Ontologien für maschinenlesbare Repositorien in Allgemein- und Fachsprache breitere Aufmerksamkeit gewonnen. Da in der Medizin (PubMed) mit dem von NLM schon vor 20 Jahren entwickelten Unified Medical Language System (UMLS) eine funktionierende Ontologie in Form eines semantischen Netzes in Betrieb ist, ist es auch für Medizinbibliothekare und Medizindokumentare hoch an der Zeit, sich damit zu beschäftigen. Ontologien können im Wesen, trotz der informatisch vernebelnden Terminologie, als Werkzeuge der Klassifikation verstanden werden. Hier sind von seiten der Bibliotheks- und Dokumentationswissenschaft wesentliche Beiträge möglich. Der vorliegende Bericht bietet einen Einstieg in das Thema, erklärt wesentliche Elemente des UMLS und schließt mit einer kommentierten Anmerkungs- und Literaturliste für die weitere Beschäftigung mit Ontologien.
    Content
    Dieser Aufsatz ist kein Abgesang auf MeSH (= Medical Subject Headings in Medline/PubMed), wie man/frau vielleicht vermuten könnte. Vielmehr wird - ohne informatiklastiges Fachchinesisch - an Hand des von der National Library of Medicine entwickelten Unified Medical Language System erklärt, worin die Anforderungen an Ontologien bestehen, die im Zusammenhang mit dem Semantic Web allerorten eingefordert und herbeigewünscht werden. Eine Lektüre für Einsteigerinnen, die zum Vertiefen der gewonnenen Begriffssicherheit an Hand der weiterführenden Literaturhinweise anregt. Da das UMLS hier vor allem als Beispiel verwendet wird, werden auch Bibliothekarlnnen, Dokumentarlnnen und Informationsspezialistinnen anderer Fachbereiche den Aufsatz mit Gewinn lesen - und erfahren, dass unser Fachwissen aus der Sacherschließung und der Verwendung und Mitgestaltung von Normdateien und Thesauri bei der Entwicklung von Ontologien gefragt ist! (Eveline Pipp, Universitätsbibliothek Innsbruck). - Die elektronische Version dieses Artikels ist verfügbar unter: http://www.egms.de/en/journals/mbi/2006-6/mbi000049.shtml.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021) 0.02
    0.020642508 = product of:
      0.06192752 = sum of:
        0.038130615 = weight(_text_:und in 251) [ClassicSimilarity], result of:
          0.038130615 = score(doc=251,freq=8.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.39180204 = fieldWeight in 251, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=251)
        0.023796905 = product of:
          0.04759381 = sum of:
            0.04759381 = weight(_text_:22 in 251) [ClassicSimilarity], result of:
              0.04759381 = score(doc=251,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.30952093 = fieldWeight in 251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=251)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die dritte Session, die von Michael Vielhaber vom Österreichischen Rundfunk moderiert wurde, machte die Teilnehmerinnen und Teilnehmer mit zukunftsweisenden Werkzeugen und Konzepten zur KI-unterstützten Erschließung von Audio- und Videodateien bekannt. Alle vier vorgestellten Technologien bewähren sich bereits in ihren praktischen Anwendungsumgebungen.
    Date
    22. 5.2021 12:43:05
  12. Stumpf, G.: "Kerngeschäft" Sacherschließung in neuer Sicht : was gezielte intellektuelle Arbeit und maschinelle Verfahren gemeinsam bewirken können (2015) 0.02
    0.020561678 = product of:
      0.061685033 = sum of:
        0.04086274 = weight(_text_:und in 1703) [ClassicSimilarity], result of:
          0.04086274 = score(doc=1703,freq=12.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.41987535 = fieldWeight in 1703, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1703)
        0.020822292 = product of:
          0.041644584 = sum of:
            0.041644584 = weight(_text_:22 in 1703) [ClassicSimilarity], result of:
              0.041644584 = score(doc=1703,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.2708308 = fieldWeight in 1703, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1703)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Als "Kerngeschäft" des bibliothekarischen Berufsbildes ist die Sacherschließung starken Veränderungen unterworfen; als Kern des Metadatenangebots ist ein intellektueller Input unverzichtbar, gerade weil mit maschinellen Verfahren sehr viel Mehrwert daraus generiert werden kann. In dem Vortrag wird versucht, aus allgemeiner Perspektive den funktionellen Mehrwert der Sacherschließung zu beleuchten. Das Zusammenwirken der intellektuellen Erschließung und verschiedener Formen automatischer Metadatenerzeugung und -vermehrung muss neu justiert und standardisiert werden. Besondere Bedeutung haben Normdaten mit ihrem Potenzial für die Linked-Data-Welt; zugleich muss aber auch die Datenbasis für die durch Suchmaschinentechnologie geprägten Rechercheumgebungen quantitativ verbreitert und qualitativ aufgewertet werden.
    Content
    Es handelt sich um den leicht überarbeiteten Text eines Vortrags bei der VDB-Fortbildungsveranstaltung "Wandel als Konstante: neue Aufgaben und Herausforderungen für sozialwissenschaftliche Bibliotheken" am 22./23. Januar 2015 in Berlin.
  13. Krüger, N.; Pianos, T.: Lernmaterialien für junge Forschende in den Wirtschaftswissenschaften als Open Educational Resources (OER) (2021) 0.02
    0.020561678 = product of:
      0.061685033 = sum of:
        0.04086274 = weight(_text_:und in 252) [ClassicSimilarity], result of:
          0.04086274 = score(doc=252,freq=12.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.41987535 = fieldWeight in 252, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.020822292 = product of:
          0.041644584 = sum of:
            0.041644584 = weight(_text_:22 in 252) [ClassicSimilarity], result of:
              0.041644584 = score(doc=252,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.2708308 = fieldWeight in 252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=252)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das EconBiz Academic Career Kit ist ein interaktives Online-Tutorial für den wissenschaftlichen Nachwuchs in den Wirtschaftswissenschaften. In drei Modulen geht es um die Themen: erste Veröffentlichung, Open Access, Predatory Journals und Urheberrecht - Wissenschaftskommunikation, kollaboratives Arbeiten, Networking und Metriken - Forschungsdatenmanagement. Angebote der Vermittlung von Informationskompetenz sind in diesen Feldern und für diese Zielgruppe in Deutschland noch nicht flächendeckend verbreitet. Darum - und weil Forschende sich zu diesen Fragen meist im Netz informieren - ist das Academic Career Kit als OER unter der Lizenz CC-BY veröffentlicht und damit zur Bearbeitung und Weiterverwendung durch Dritte freigegeben.
    Date
    22. 5.2021 12:43:05
  14. Kluge, A.; Singer, W.: ¬Das Gehirn braucht so viel Strom wie die Glühbirne (2012) 0.02
    0.020248208 = product of:
      0.06074462 = sum of:
        0.04289694 = weight(_text_:und in 4167) [ClassicSimilarity], result of:
          0.04289694 = score(doc=4167,freq=18.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.4407773 = fieldWeight in 4167, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4167)
        0.017847678 = product of:
          0.035695355 = sum of:
            0.035695355 = weight(_text_:22 in 4167) [ClassicSimilarity], result of:
              0.035695355 = score(doc=4167,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.23214069 = fieldWeight in 4167, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4167)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit 30 Watt erzeugt es Welten, von denen die schnellsten Computer nur träumen können. Das Gehirn besteht aus einfachen Elementen und produziert daraus Myriaden von Verknüpfungen. Dieses Wunderwerk der Selbstregulation ist bis heute nicht abschließend entschlüsselt. Wolf Singer, Neurophysiologe am Max-Planck-Institut für Hirnforschung in Frankfurt am Main, hat sein Leben der Erforschung dieses einzigartigen Organs gewidmet. Gemeinsam mit dem Denker Alexander Kluge kommt er ins Philosophieren.
    Content
    "Da gibt's im Gehirn nicht eine Trennung zwischen Rechenwerk und Programmspeicher und Datenspeicher oder so was, sondern es gibt nur Neurone und deren Verschaltung. Und die Art und Weise, wie die verschaltet sind, nennen wir funktionelle Architektur, und da liegen die ganzen Geheimnisse, denn die Freiheitsgrade sind überschaubar, es kann nur variiert werden, wer mit wem kommuniziert, wie stark oder schwach die Kopplungen sind und ob sie hemmend oder erregend sind, wobei die allermeisten erregend sind. Und mit diesem Lego-Baukasten hat die Evolution die Großhirnrinde zusammengebastelt."
    Date
    22. 2.2018 18:10:21
  15. Bärnreuther, K.: Informationskompetenz-Vermittlung für Schulklassen mit Wikipedia und dem Framework Informationskompetenz in der Hochschulbildung (2021) 0.02
    0.020248208 = product of:
      0.06074462 = sum of:
        0.04289694 = weight(_text_:und in 299) [ClassicSimilarity], result of:
          0.04289694 = score(doc=299,freq=18.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.4407773 = fieldWeight in 299, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.017847678 = product of:
          0.035695355 = sum of:
            0.035695355 = weight(_text_:22 in 299) [ClassicSimilarity], result of:
              0.035695355 = score(doc=299,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.23214069 = fieldWeight in 299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Framework Informationskompetenz in der Hochschulbildung bietet sich als bibliotheksdidaktischer Rahmen auch schon für Kursangebote für Schulklassen an: obwohl es für die Angebote an Hochschulen und Universitäten konzipiert wurde, bereiten die Kollegstufen deutscher Gymnasien auf wissenschaftliche Karrieren vor; bibliothekarische Angebote für angehende Studierende können und sollten sich daher ebenfalls schon nach dem Framework richten. Informationskompetenz praxis- und lebensnah an Schüler*innen zu vermitteln, kann mit dem Framework als didaktischem Rahmen und praktisch am Beispiel der bei Lernenden und Lehrenden gleichermaßen beliebten und gleichzeitig viel gescholtenen Online-Enzyklopädie Wikipedia gelingen. Nicht nur wegen der zahlreichen Corona-bedingten Bibliotheksschließungen sollten angehende Abiturient*innen im Bereich der Online-Recherche zu reflektierten und kritischen Nutzer*innen ausgebildet werden. Im Rahmen des Frameworks kann praktisch am Beispiel Wikipedia Informationskompetenz vermittelt werden, die die Teilnehmenden unserer Kurse von der Wikipedia ausgehend auf die allgemeine Online-Recherche und auch auf alle anderen Bereiche des wissenschaftlichen Arbeitens übertragen können.
    Source
    o-bib: Das offene Bibliotheksjournal. 8(2021) Nr.2, S.1-22
  16. Schürmann, H.: Sacherschliessung nach RDA (2015) 0.02
    0.020043133 = product of:
      0.060129397 = sum of:
        0.026644576 = weight(_text_:und in 1831) [ClassicSimilarity], result of:
          0.026644576 = score(doc=1831,freq=10.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.27378 = fieldWeight in 1831, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1831)
        0.03348482 = product of:
          0.06696964 = sum of:
            0.06696964 = weight(_text_:allgemein in 1831) [ClassicSimilarity], result of:
              0.06696964 = score(doc=1831,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.2902644 = fieldWeight in 1831, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1831)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Resource Description and Access (RDA) wird für den deutschsprachigen Raum das neue Regelwerk für die bibliothekarische Erschliessung der Bestände. In diesem Regelwerk wird auch die Sacherschliessung neu geregelt. Zurzeit sind diese Seiten noch leer. Doch wie soll ein Regelwerk für die Sacherschliessung aussehen? Kriterien für eine Regelung fehlen, zu stark hat sich das Umfeld der Inhaltserschliessung in den letzten Jahren geändert. Auch von der Schlagworttheorie her sind noch keine Hinweise in Sicht. Deshalb wird in verschiedenen Gremien intensiv diskutiert, wie eine zukunftsfähige Sacherschliessung aussehen könnte. In welchem Rahmen bewegt sich die Diskussion und woran soll sich die Regelwerksentwicklung für den Sachkatalog orientieren? Der Beitrag erwägt zwischen der Sachkataloggeschichte einerseits und dem modernen Datenmanagement im Netz andererseits die Bedeutung und die Rolle eines Sacherschliessungsregelwerks.
    "Fazit: Die Sacherschliessung im Bibliothekskontext richtet sich nach dem Angebot und dem Zugang, den die Bibliothek bietet. Ein Regelwerk muss so gestaltet sein, dass die Bibliothek die Erschliessungstiefe selbst bestimmen kann. Im Datenaustausch macht dann die Übernahme von Fremddaten nur unter ähnlichen Bibliotheken Sinn. Metakataloge können keine sinnvollen Facetten anbieten, hier muss ein Relevanz-Ranking genügen. Dasselbe gilt für die Discovery Tools, in denen Quellen mit verschiedenen Erschliessungssystemen unter einer Oberfläche suchbar gemacht werden. In Kombination mit den Daten der Formalerschliessung sollen hingegen auch bei den Discovery Tools Filter so gestaltet sein, dass in spezifischen Beständen, die intellektuell sachlich erschlossen sind, ein Index der Schlagwörter als Themenfacetten angezeigt und genutzt werden kann. Die RDA wird dafür den Rahmen geben müssen."
    Theme
    Katalogfragen allgemein
  17. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.02
    0.019819323 = product of:
      0.05945797 = sum of:
        0.044584904 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.044584904 = score(doc=3780,freq=28.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.014873066 = product of:
          0.029746132 = sum of:
            0.029746132 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.029746132 = score(doc=3780,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  18. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.02
    0.019430434 = product of:
      0.0582913 = sum of:
        0.040443625 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.040443625 = score(doc=266,freq=16.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.017847678 = product of:
          0.035695355 = sum of:
            0.035695355 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.035695355 = score(doc=266,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    In den Handlungsempfehlungen der Koordinierungsstelle für die Erhaltung des schriftlichen Kulturguts (KEK) von 2015 (KEK-Handlungsempfehlungen) wird ein nationaler Standard bei der Dokumentation von Bestandserhaltung gefordert: "In den Bibliothekskatalogen sollten künftig für den verbundübergreifenden Abgleich Bestandserhaltungsmaßnahmen für die Bestände ab 1851 [.] in standardisierter Form dokumentiert und recherchierbar gemacht werden. Dies bedarf einer gemeinsamen Festlegung mit den Bibliotheksverbünden [.]." In den KEK-Handlungsempfehlungen werden auf der Basis einer im Jahr 2015 erfolgten Erhebung für Monografien fast neun Millionen Bände aus dem Zeitabschnitt 1851-1990 als Pflichtexemplare an Bundes- und Ländereinrichtungen angegeben, die akut vom Papierzerfall bedroht und als erste Stufe einer Gesamtstrategie zu entsäuern sind. Ein Ziel der KEK ist es, standardisierte und zertifizierte Verfahren zur Massenentsäuerung zu fördern. Im Metadatenformat sind zunächst fünf Verfahren der Massenentsäuerung in Form von kontrolliertem Vokabular dokumentiert: DEZ, Mg3/MBG, METE, MgO, MMMC[2]. Mit diesen Angaben, die gezielt selektiert werden können, ist mittel- und langfristig die Anwendung einzelner Verfahren der Massenentsäuerung abrufbar und statistisch auswertbar.
    Date
    22. 5.2021 12:43:05
  19. Scheven, E.: Geokoordinaten in Bibliotheksdaten : Grundlage für innovative Nachnutzung (2015) 0.02
    0.018939663 = product of:
      0.05681899 = sum of:
        0.033022083 = weight(_text_:und in 308) [ClassicSimilarity], result of:
          0.033022083 = score(doc=308,freq=6.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.33931053 = fieldWeight in 308, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=308)
        0.023796905 = product of:
          0.04759381 = sum of:
            0.04759381 = weight(_text_:22 in 308) [ClassicSimilarity], result of:
              0.04759381 = score(doc=308,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.30952093 = fieldWeight in 308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=308)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Geokoordinaten übernehmen die Rolle von Identifikatoren, die von den unterschiedlichsten Systemen verstanden und in Anwendungen benutzt werden. Wenn die geografischen Normdaten der Gemeinsamen Normdatei (GND) Geokoordinaten haben und bei Kartenblättern deren Geokoordinaten erfasst werden, ergeben sich viele neue Möglichkeiten der Datenrepräsentation im Katalog und in der Recherche.
    Date
    16.11.2015 18:22:47
  20. Hartmann, F.: Paul Otlets Hypermedium : Dokumentation als Gegenidee zur Bibliothek (2015) 0.02
    0.018939663 = product of:
      0.05681899 = sum of:
        0.033022083 = weight(_text_:und in 1432) [ClassicSimilarity], result of:
          0.033022083 = score(doc=1432,freq=6.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.33931053 = fieldWeight in 1432, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1432)
        0.023796905 = product of:
          0.04759381 = sum of:
            0.04759381 = weight(_text_:22 in 1432) [ClassicSimilarity], result of:
              0.04759381 = score(doc=1432,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.30952093 = fieldWeight in 1432, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1432)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Schon zur Wende ins 20. Jahrhundert zweifelte der belgische Privatgelehrte Paul Otlet an der Zukunft des Buches und der Bibliothek. Statt dessen begann er damit, eine Dokumentation und Neuorganisation des Weltwissens anzulegen, und mittels eines Karteikartensystems (Répertoire Bibliographique Universel) zu vernetzen. Dieses Projekt eines flexiblen, abfrageorientierten Wissensbestandes in einem 'Hypermedium' (Otlet) besetzte jene technologische Leerstelle, die inzwischen eine die bibliothekarische Epoche aufsprengende neue Wissenskultur der digitalen Medialität produziert hat.
    Date
    22. 8.2016 15:58:46

Years

Languages

  • d 445
  • e 58
  • a 1
  • More… Less…