Search (961 results, page 1 of 49)

  • × type_ss:"el"
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.25
    0.250252 = product of:
      0.6673387 = sum of:
        0.095334105 = product of:
          0.2860023 = sum of:
            0.2860023 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.2860023 = score(doc=1826,freq=2.0), product of:
                0.30533072 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036014426 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.2860023 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.2860023 = score(doc=1826,freq=2.0), product of:
            0.30533072 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036014426 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.2860023 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.2860023 = score(doc=1826,freq=2.0), product of:
            0.30533072 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036014426 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.375 = coord(3/8)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.20
    0.2002016 = product of:
      0.53387094 = sum of:
        0.07626728 = product of:
          0.22880183 = sum of:
            0.22880183 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.22880183 = score(doc=230,freq=2.0), product of:
                0.30533072 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036014426 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
        0.22880183 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.22880183 = score(doc=230,freq=2.0), product of:
            0.30533072 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036014426 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.22880183 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.22880183 = score(doc=230,freq=2.0), product of:
            0.30533072 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036014426 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
      0.375 = coord(3/8)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  3. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.13
    0.125126 = product of:
      0.33366936 = sum of:
        0.047667053 = product of:
          0.14300115 = sum of:
            0.14300115 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.14300115 = score(doc=4388,freq=2.0), product of:
                0.30533072 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036014426 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.14300115 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.14300115 = score(doc=4388,freq=2.0), product of:
            0.30533072 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036014426 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.14300115 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.14300115 = score(doc=4388,freq=2.0), product of:
            0.30533072 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036014426 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.375 = coord(3/8)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  4. Reinmann-Rothmeier, G.: Wissen Managen : das Münchener Modell (2001) 0.05
    0.050239578 = product of:
      0.20095831 = sum of:
        0.010619472 = weight(_text_:information in 3452) [ClassicSimilarity], result of:
          0.010619472 = score(doc=3452,freq=6.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.16796975 = fieldWeight in 3452, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3452)
        0.19033884 = weight(_text_:modell in 3452) [ClassicSimilarity], result of:
          0.19033884 = score(doc=3452,freq=14.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.878896 = fieldWeight in 3452, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3452)
      0.25 = coord(2/8)
    
    Abstract
    Ausgangspunkt des Münchener Wissensmanagement-Modells ist die Zielrichtung des Lernens sowie die Vorstellung von Wissen als einem variablen Zustand zwischen Information und Handeln. Wissensmanagement umschreibt im Münchener Modell den Versuch, Wissensbewegungen zwischen Information und Handeln so zu gestalten, dass konkrete Probleme und Situationen zielbezogen bewältigt werden können, es verkörpert eine neue Enstellung gegenüber Wissen und Wissensträgern sowie eine neue Kultur im Umgang mit diesen und ermöglicht eine Integration des technisch orientierten Informationsmanagements mit dem Human Ressource-orientierten Kompetenzmanagement. Mit den vier Phänomenbereichen Wissensrepräsentation, -nutzung, -kommunikation und -generierung will das Münchener Modell psychologische, organisationale und technische Aufgaben des Wissensmanagement konzeptgeleitet aufeinander beziehen. Communities bilden die Keimzelle des Wissensmanagements und verstärken die Integrationsfunktion des Modells.
    Content
    1. Mit Wissensmanagement zur lernenden Organisation 1.1 " Outlearning the wolves" - eine Geschichte zum Enstieg 1.2 Der individuelle und der organisationale Lernzyklus 2. Das Wissens- und Managementverständnis im Münchener Modell 2.1 Bedeutungswandel beim Wissensbegriff 2.2 Balanceakt beim Managementbegriff 3. Die Auffassung von Wissensmanagement im Münchener Modell 3.1 Die Integrationsfunktion des Münchener Modells 3.2 Der Bedeutungsrahmen des Münchener Modells 4. Vier Phänomenbereiche im Münchener Modell 4.1 Wissensrepräsentation 4.2 Wissenskommunikation 4.3 Wissensgenerierung 4.4 Wissensnutzung 5. Die Rolle von Communities im Münchener Modell 5.1 Communities als innovative Organisationsstruktur 5.2 Communities als Keimzelle des Wissensmanagements 6. Ausblick: Forschungsstrategische Überlegungen zum Wissensmanagement
    Theme
    Information Resources Management
  5. Gödert, W.; Lepsky, K.: Rezeption externalisierten Wissens : ein konstruktivistisches Modell auf der Basis von Poppers Drei Welten und Searles Kollektiver Intentionalität (2018) 0.05
    0.04732892 = product of:
      0.18931568 = sum of:
        0.01486726 = weight(_text_:information in 5852) [ClassicSimilarity], result of:
          0.01486726 = score(doc=5852,freq=6.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.23515764 = fieldWeight in 5852, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5852)
        0.17444842 = weight(_text_:modell in 5852) [ClassicSimilarity], result of:
          0.17444842 = score(doc=5852,freq=6.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.8055215 = fieldWeight in 5852, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5852)
      0.25 = coord(2/8)
    
    Abstract
    Wir stellen ein Modell für die Wissensrezeption aus externalisierten Informationsquellen vor. Das Modell beruht auf einem kognitiven Verständnis von Informationsverarbeitung und greift auf Vorstellungen eines Austausches von Information in Kommunikationsvorgängen zurück. Poppers Drei-Welten-Theorie mit ihrer Orientierung an falsifizierbarem wissenschaftlichen Wissen wird erweitert um Searles Konzept der Kollektiven Intentionalität. Dies erlaubt eine konsistente Beschreibung der Externalisierung und Rezeption von Wissen unter Einschluss von Alltagswissen.
    Content
    Auch unter: DOI: 10.13140/RG.2.2.21248.07688. Auch in: International Forum on Information. 44(2019) H.4, S.25-35 (http://lamb.viniti.ru/sid2/sid2free?sid2=J18357463. Zunächst auch: https://elibrary.ru/item.asp?id=41860839 bzw. http://www.viniti.ru/products/publications/pub-134048#issues [http://catalog.viniti.ru/srch_result.aspx?IRL=FETCH+QUERY%3d2603664+OBJ%3d01bsmm7z+STYLE%3dFull1&TYP=FULL1]).
    Theme
    Information
  6. Leppla, C.; Wolf, A.H.: Auf dem Weg zu einem integrativen Modell der Informationskompetenzvermittlung (IMIK) : das ACRL Framework for Information Literacy for Higher Education und der aktivitäts- und eigenschaftsorientierte Datenlebenszyklus (2021) 0.05
    0.045766015 = product of:
      0.18306406 = sum of:
        0.010404914 = weight(_text_:information in 303) [ClassicSimilarity], result of:
          0.010404914 = score(doc=303,freq=4.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.16457605 = fieldWeight in 303, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=303)
        0.17265914 = weight(_text_:modell in 303) [ClassicSimilarity], result of:
          0.17265914 = score(doc=303,freq=8.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.79725945 = fieldWeight in 303, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=303)
      0.25 = coord(2/8)
    
    Abstract
    Der Beitrag untersucht inwieweit das ACRL Framework for Information Literacy for Higher Education einen Beitrag zu einem integrativen Modell für die Vermittlung von Informations- und Datenkompetenzen leisten kann. Dazu werden die enthaltenen Kernelemente und Prinzipien vergleichend mit dem Modell des aktivitäts- und eigenschaftsorientierten Datenlebenszyklus betrachtet, der im Forschungsdatenmanagement und der Data Literacy den Forschungsprozess beschreibt. Basierend auf den Ergebnissen dieses Vergleichs werden die beiden Konzepte zu einem integrativen Modell der Informationskompetenzvermittlung (IMIK) synthetisiert, das durch den Datenlebenszyklus konkretisiert und ergänzt wird. Damit lassen sich Schulungsangebote zur Vermittlung von Informations- und Datenkompetenzen für verschiedene Zielgruppen und Niveaus ableiten, strukturieren, voneinander abgrenzen und den Agierenden aus den Fachwissenschaften und dem Infrastrukturbereich zuordnen.
  7. Reiner, U.: DDC-basierte Suche in heterogenen digitalen Bibliotheks- und Wissensbeständen (2005) 0.04
    0.04425841 = product of:
      0.11802243 = sum of:
        0.021845357 = weight(_text_:retrieval in 4854) [ClassicSimilarity], result of:
          0.021845357 = score(doc=4854,freq=2.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.20052543 = fieldWeight in 4854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=4854)
        0.08632957 = weight(_text_:modell in 4854) [ClassicSimilarity], result of:
          0.08632957 = score(doc=4854,freq=2.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.39862972 = fieldWeight in 4854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=4854)
        0.0098475 = product of:
          0.0295425 = sum of:
            0.0295425 = weight(_text_:29 in 4854) [ClassicSimilarity], result of:
              0.0295425 = score(doc=4854,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.23319192 = fieldWeight in 4854, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4854)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    Waehrend die Sachsuche schon seit Laengerem vereinheitlicht wurde, steht die Vereinheitlichung der Fachsuche fuer Endbenutzer(innen) im Wesentlichen noch aus. Als Mitglied im DFG-gefoerderten Konsortium DDC Deutsch erarbeitet der GBV Voraussetzungen fuer eine thematische Suche mit Hilfe von DDC-Notationen. Im Rahmen des VZG-Projektes Colibri (COntext Generation and LInguistic Tools for Bibliographic Retrieval Interfaces) wird das Ziel verfolgt, alle Titeldatensätze des Verbundkataloges (GVK) und die mehr als 20 Mio. Aufsatztitel der Online Contents Datenbank, die noch nicht intellektuell DDC-klassifiziert sind, entweder auf Basis von Konkordanzen zu anderen Erschliessungssystemen oder automatisch mit DDC-Notationen zu versehen. Hierzu wird aus GVK-Titeldatensaetzen eine DDC-Basis erstellt. Sowohl molekulare als auch atomare DDC-Notationen sind Bestandteil dieser DDC-Basis. Eingegangen wird auf den Stand der Forschung, insbesondere auf Songqiao Liu's Dissertation zur automatischen Zerlegung von DDC-Notationen (Univ. of California, Los Angeles, Calif., 1993). Anhand von Beispielen wird dargelegt, dass sich Liu's Ergebnisse reproduzieren lassen. Weiterhin wird der Stand der VZG-Colibri-Arbeiten zur Modell- und Begriffsbildung, Klassifizierung und Implementierung vorgestellt. Schliesslich wird gezeigt, wie DDC-Notationen zur systematischen Erkundung heterogener digitaler Bibliotheks- und Wissensbestaende herangezogen werden koennen.
    Date
    19. 1.2006 19:15:29
  8. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.03
    0.033399366 = product of:
      0.13359746 = sum of:
        0.0049049235 = weight(_text_:information in 4250) [ClassicSimilarity], result of:
          0.0049049235 = score(doc=4250,freq=2.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.0775819 = fieldWeight in 4250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
        0.12869254 = weight(_text_:modell in 4250) [ClassicSimilarity], result of:
          0.12869254 = score(doc=4250,freq=10.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.59424216 = fieldWeight in 4250, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.25 = coord(2/8)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  9. Rindflesch, T.C.; Aronson, A.R.: Semantic processing in information retrieval (1993) 0.03
    0.032116868 = product of:
      0.085644975 = sum of:
        0.017167233 = weight(_text_:information in 4121) [ClassicSimilarity], result of:
          0.017167233 = score(doc=4121,freq=8.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.27153665 = fieldWeight in 4121, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4121)
        0.056988988 = weight(_text_:retrieval in 4121) [ClassicSimilarity], result of:
          0.056988988 = score(doc=4121,freq=10.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.5231199 = fieldWeight in 4121, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4121)
        0.011488751 = product of:
          0.03446625 = sum of:
            0.03446625 = weight(_text_:29 in 4121) [ClassicSimilarity], result of:
              0.03446625 = score(doc=4121,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.27205724 = fieldWeight in 4121, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4121)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    Intuition suggests that one way to enhance the information retrieval process would be the use of phrases to characterize the contents of text. A number of researchers, however, have noted that phrases alone do not improve retrieval effectiveness. In this paper we briefly review the use of phrases in information retrieval and then suggest extensions to this paradigm using semantic information. We claim that semantic processing, which can be viewed as expressing relations between the concepts represented by phrases, will in fact enhance retrieval effectiveness. The availability of the UMLS® domain model, which we exploit extensively, significantly contributes to the feasibility of this processing.
    Date
    29. 6.2015 14:51:28
  10. Hauff-Hartig, S.: Wissensrepräsentation durch RDF: Drei angewandte Forschungsbeispiele : Bitte recht vielfältig: Wie Wissensgraphen, Disco und FaBiO Struktur in Mangas und die Humanities bringen (2021) 0.03
    0.032029495 = product of:
      0.12811798 = sum of:
        0.1151061 = weight(_text_:modell in 318) [ClassicSimilarity], result of:
          0.1151061 = score(doc=318,freq=2.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.5315063 = fieldWeight in 318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0625 = fieldNorm(doc=318)
        0.013011887 = product of:
          0.03903566 = sum of:
            0.03903566 = weight(_text_:22 in 318) [ClassicSimilarity], result of:
              0.03903566 = score(doc=318,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.30952093 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=318)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Abstract
    In der Session "Knowledge Representation" auf der ISI 2021 wurden unter der Moderation von Jürgen Reischer (Uni Regensburg) drei Projekte vorgestellt, in denen Knowledge Representation mit RDF umgesetzt wird. Die Domänen sind erfreulich unterschiedlich, die gemeinsame Klammer indes ist die Absicht, den Zugang zu Forschungsdaten zu verbessern: - Japanese Visual Media Graph - Taxonomy of Digital Research Activities in the Humanities - Forschungsdaten im konzeptuellen Modell von FRBR
    Date
    22. 5.2021 12:43:05
  11. Mayfield, J.; Finin, T.: Information retrieval on the Semantic Web : integrating inference and retrieval 0.03
    0.030192543 = product of:
      0.08051345 = sum of:
        0.012139066 = weight(_text_:information in 4330) [ClassicSimilarity], result of:
          0.012139066 = score(doc=4330,freq=4.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.1920054 = fieldWeight in 4330, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4330)
        0.056988988 = weight(_text_:retrieval in 4330) [ClassicSimilarity], result of:
          0.056988988 = score(doc=4330,freq=10.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.5231199 = fieldWeight in 4330, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4330)
        0.0113854 = product of:
          0.0341562 = sum of:
            0.0341562 = weight(_text_:22 in 4330) [ClassicSimilarity], result of:
              0.0341562 = score(doc=4330,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.2708308 = fieldWeight in 4330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4330)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    One vision of the Semantic Web is that it will be much like the Web we know today, except that documents will be enriched by annotations in machine understandable markup. These annotations will provide metadata about the documents as well as machine interpretable statements capturing some of the meaning of document content. We discuss how the information retrieval paradigm might be recast in such an environment. We suggest that retrieval can be tightly bound to inference. Doing so makes today's Web search engines useful to Semantic Web inference engines, and causes improvements in either retrieval or inference to lead directly to improvements in the other.
    Date
    12. 2.2011 17:35:22
  12. Radermacher, F.-J.: ¬Eine systemtheoretische Sicht auf intelligente Systeme (1995 (?)) 0.03
    0.028776525 = product of:
      0.2302122 = sum of:
        0.2302122 = weight(_text_:modell in 1324) [ClassicSimilarity], result of:
          0.2302122 = score(doc=1324,freq=2.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            1.0630126 = fieldWeight in 1324, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.125 = fieldNorm(doc=1324)
      0.125 = coord(1/8)
    
    Content
    Enthält das 4-Ebenen-Modell des Wissens
  13. Dambeck, H.: Wie Google mit Milliarden Unbekannten rechnet : Teil.1 (2009) 0.03
    0.028600229 = product of:
      0.22880183 = sum of:
        0.22880183 = weight(_text_:mathematisches in 3081) [ClassicSimilarity], result of:
          0.22880183 = score(doc=3081,freq=2.0), product of:
            0.30533072 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036014426 = queryNorm
            0.7493574 = fieldWeight in 3081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=3081)
      0.125 = coord(1/8)
    
    Abstract
    Ein Leben ohne Suchmaschinen? Für alle, die viel im World Wide Web unterwegs sind, eine geradezu absurde Vorstellung. Bei der Berechnung der Trefferlisten nutzt Google ein erstaunlich simples mathematisches Verfahren, das sogar Milliarden von Internetseiten in den Griff bekommt.
  14. Bischoff, M.: Hobby-Mathematiker findet die lang ersehnte Einstein-Kachel : Mathematisches Mosaik (2023) 0.03
    0.028600229 = product of:
      0.22880183 = sum of:
        0.22880183 = weight(_text_:mathematisches in 936) [ClassicSimilarity], result of:
          0.22880183 = score(doc=936,freq=2.0), product of:
            0.30533072 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036014426 = queryNorm
            0.7493574 = fieldWeight in 936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=936)
      0.125 = coord(1/8)
    
  15. Reinmann-Rothmeier, G.: ¬Eine integrative Sicht auf das Managen von Wissen (2001) 0.03
    0.026967885 = product of:
      0.10787154 = sum of:
        0.0061311545 = weight(_text_:information in 3451) [ClassicSimilarity], result of:
          0.0061311545 = score(doc=3451,freq=2.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.09697737 = fieldWeight in 3451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3451)
        0.10174038 = weight(_text_:modell in 3451) [ClassicSimilarity], result of:
          0.10174038 = score(doc=3451,freq=4.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.46978965 = fieldWeight in 3451, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3451)
      0.25 = coord(2/8)
    
    Abstract
    Stellen Sie sich vor, Sie sollen als frisch gebackener Wissensmanager Ihren Mitarbeitern aus dem Stand beschreiben, was Sie eigentlich machen, wenn Sie Wissen managen. Hätten Sie eine konsensfähige Sprachregelung für Wissen, Managen und Wissensmanagement parat? Viele Probleme fangen genau da an: bei einer mangelnden gemeinsamen Verständigungsgrundlage zwischen Menschen mit unterschiedlichen Erfahrungshintergründen. Wenn es um das Management von Wissen geht, kann das Münchener Modell eine solche Verständigungsgrundlage schaffen und als Orientierungsrahmen für Organisationen und Individuen dienen. Die Stärke dieses Modells liegt im integrativen Verständnis von Wissen und Managen sowie in der Verbindung von organisationalem und individuellem Lernen. Im Gegensatz zu anderen Wissensmanagement-Ansätzen steht das Münchener Modell für eine pädagogisch-psychologische Sicht auf das Managen von Wissen und akzentuiert Lernen als wettbewerbsdifferenzierenden Faktor der Zukunft.
    Theme
    Information Resources Management
  16. Qi, Q.; Hessen, D.J.; Heijden, P.G.M. van der: Improving information retrieval through correspondenceanalysis instead of latent semantic analysis (2023) 0.03
    0.026246186 = product of:
      0.06998983 = sum of:
        0.016451614 = weight(_text_:information in 1045) [ClassicSimilarity], result of:
          0.016451614 = score(doc=1045,freq=10.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.2602176 = fieldWeight in 1045, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=1045)
        0.043690715 = weight(_text_:retrieval in 1045) [ClassicSimilarity], result of:
          0.043690715 = score(doc=1045,freq=8.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.40105087 = fieldWeight in 1045, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=1045)
        0.0098475 = product of:
          0.0295425 = sum of:
            0.0295425 = weight(_text_:29 in 1045) [ClassicSimilarity], result of:
              0.0295425 = score(doc=1045,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.23319192 = fieldWeight in 1045, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1045)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    The initial dimensions extracted by latent semantic analysis (LSA) of a document-term matrixhave been shown to mainly display marginal effects, which are irrelevant for informationretrieval. To improve the performance of LSA, usually the elements of the raw document-term matrix are weighted and the weighting exponent of singular values can be adjusted.An alternative information retrieval technique that ignores the marginal effects is correspon-dence analysis (CA). In this paper, the information retrieval performance of LSA and CA isempirically compared. Moreover, it is explored whether the two weightings also improve theperformance of CA. The results for four empirical datasets show that CA always performsbetter than LSA. Weighting the elements of the raw data matrix can improve CA; however,it is data dependent and the improvement is small. Adjusting the singular value weightingexponent often improves the performance of CA; however, the extent of the improvementdepends on the dataset and the number of dimensions. (PDF) Improving information retrieval through correspondence analysis instead of latent semantic analysis.
    Date
    15. 9.2023 12:28:29
    Source
    Journal of intelligent information systems [https://doi.org/10.1007/s10844-023-00815-y]
  17. Information retrieval research : Proceedings of the 19th Annual BCS-IRSG Colloquium on IR Research, Aberdeen, Scotland, 8-9 April 1997 (1997) 0.03
    0.025754398 = product of:
      0.10301759 = sum of:
        0.025954416 = weight(_text_:information in 5393) [ClassicSimilarity], result of:
          0.025954416 = score(doc=5393,freq=14.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.41052482 = fieldWeight in 5393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=5393)
        0.07706317 = weight(_text_:retrieval in 5393) [ClassicSimilarity], result of:
          0.07706317 = score(doc=5393,freq=14.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.7073872 = fieldWeight in 5393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=5393)
      0.25 = coord(2/8)
    
    LCSH
    Information storage and retrieval systems / Research / Congresses
    Information retrieval / Research / Congresses
    RSWK
    Information retrieval / Kongress / Aberdeen <1997>
    Subject
    Information storage and retrieval systems / Research / Congresses
    Information retrieval / Research / Congresses
    Information retrieval / Kongress / Aberdeen <1997>
  18. Was ist GPT-3 und spricht das Modell Deutsch? (2022) 0.02
    0.024921203 = product of:
      0.19936962 = sum of:
        0.19936962 = weight(_text_:modell in 868) [ClassicSimilarity], result of:
          0.19936962 = score(doc=868,freq=6.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.920596 = fieldWeight in 868, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0625 = fieldNorm(doc=868)
      0.125 = coord(1/8)
    
    Abstract
    GPT-3 ist ein Sprachverarbeitungsmodell der amerikanischen Non-Profit-Organisation OpenAI. Es verwendet Deep-Learning um Texte zu erstellen, zusammenzufassen, zu vereinfachen oder zu übersetzen.  GPT-3 macht seit der Veröffentlichung eines Forschungspapiers wiederholt Schlagzeilen. Mehrere Zeitungen und Online-Publikationen testeten die Fähigkeiten und veröffentlichten ganze Artikel - verfasst vom KI-Modell - darunter The Guardian und Hacker News. Es wird von Journalisten rund um den Globus wahlweise als "Sprachtalent", "allgemeine künstliche Intelligenz" oder "eloquent" bezeichnet. Grund genug, die Fähigkeiten des künstlichen Sprachgenies unter die Lupe zu nehmen.
    Source
    https://www.lernen-wie-maschinen.ai/ki-pedia/was-ist-gpt-3-und-spricht-das-modell-deutsch/
  19. Sietmann, R.: Suchmaschine für das akademische Internet (2004) 0.02
    0.024421576 = product of:
      0.097686306 = sum of:
        0.025744999 = weight(_text_:retrieval in 5742) [ClassicSimilarity], result of:
          0.025744999 = score(doc=5742,freq=4.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.23632148 = fieldWeight in 5742, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
        0.07194131 = weight(_text_:modell in 5742) [ClassicSimilarity], result of:
          0.07194131 = score(doc=5742,freq=2.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.33219144 = fieldWeight in 5742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
      0.25 = coord(2/8)
    
    Abstract
    In Zusammenarbeit mit der norwegischen Suchtechnologie-Firma Fast Search & Transfer hat die Universitätsbibliothek Bielefeld den Prototyp einer Suchmaschine für wissenschaftliche Bibliotheken entwickelt. Dieser demonstriert jetzt mit dem öffentlichen Zugriff auf ausgewählte digitalisierte Sammlungen der Projektteilnehmer die neuen Möglichkeiten des akademischen Retrieval. <http://www.heise.de/RealMedia/ads/adstream_lx.ads/www.heise.de/newsticker/meldungen/wissenschaft/954604605/Middle1/he-test-contentads/zaehler.html/38363566383735383364653062323630?_RM_EMPTY_> Während kommerzielle Suchmaschinen wie Google oder Yahoo sich nicht an akademischen Kriterien orientieren, beschränkt sich die Bielefeld Academic Search Engine (BASE ) auf die von wissenschaftlichen Bibliotheken erschlossenen und aufbereiteten Inhalte. Dazu gehören Hochschulschriften, Preprints, elektronische Zeitschriften und digitale Sammlungen, wie beispielsweise die "Internet Library of Early Journals" des Oxford University Library Service und die "Wissenschaftlichen Rezensionsorgane und Literaturzeitschriften des 18. und 19. Jahrhunderts aus dem deutschen Sprachraum" der UB Bielefeld. Wer etwa bei Google die Stichworte "Immanuel Kant" +Frieden eingibt, kommt zwar schnell an den Originaltext des Aufsatzes "Zum ewigen Frieden" heran, tut sich jedoch schwer, unter den bunt gemischten über 11.000 Treffern gezielt weiter zu recherchieren. Das BASE-Modell dagegen stellt dem Nutzer hierfür vielfältige Navigationshilfen und Metainformationen zur Verfügung. So erleichtert unter anderem die Verfeinerung der Suche auf das Erscheinungsjahr den Zugriff auf die zeitgenössische Diskussion der berühmten Schrift des Königsberger Philosophen. Derzeit ermöglicht der BASE-Prototyp das Retrieval in 15 verschiedenen Archivquellen. Darunter befinden sich die Zeitschriften der Aufklärung, die Elektronischen Dissertationen der Universität Bochum, das elektronische Journal Documenta Mathematica sowie die Mathematischen Volltexte des Springer-Verlags. Der geplante Ausbau soll sich auf eine verteilte Architektur stützen, in der von einzelnen Bibliotheken lokal erstellte Indexe gemeinsam zu einem virtuellen Master-Index beitragen. Dies würde dem Nutzer die nahtlose Navigation durch die verteilten Bestände erlauben."
  20. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.02
    0.024351038 = product of:
      0.0649361 = sum of:
        0.012262309 = weight(_text_:information in 611) [ClassicSimilarity], result of:
          0.012262309 = score(doc=611,freq=2.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.19395474 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=611)
        0.036408927 = weight(_text_:retrieval in 611) [ClassicSimilarity], result of:
          0.036408927 = score(doc=611,freq=2.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.33420905 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=611)
        0.01626486 = product of:
          0.048794575 = sum of:
            0.048794575 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.048794575 = score(doc=611,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Content
    Präsentation zum Vortrag anlässlich des 98. Deutscher Bibliothekartag in Erfurt: Ein neuer Blick auf Bibliotheken; TK10: Information erschließen und recherchieren Inhalte erschließen - mit neuen Tools
    Date
    22. 8.2009 12:54:24
    Theme
    Klassifikationssysteme im Online-Retrieval

Years

Languages

Types

  • a 444
  • i 26
  • r 22
  • m 18
  • s 17
  • x 17
  • n 10
  • p 7
  • b 5
  • More… Less…

Themes