Search (32 results, page 2 of 2)

  • × type_ss:"p"
  1. Kelm, B.: Computergestützte Sacherschließung in der Deutschen Bibliothek Frankfurt am Main (1983) 0.00
    0.0048525194 = product of:
      0.019410077 = sum of:
        0.019410077 = product of:
          0.038820155 = sum of:
            0.038820155 = weight(_text_:der in 1745) [ClassicSimilarity], result of:
              0.038820155 = score(doc=1745,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.3948779 = fieldWeight in 1745, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.125 = fieldNorm(doc=1745)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  2. Grunst, G.; Thomas, Christoph; Oppermann, R.: Intelligente Benutzerschnittstellen : kontext-sensitive Hilfen und Adaptivität (1991) 0.00
    0.0048525194 = product of:
      0.019410077 = sum of:
        0.019410077 = product of:
          0.038820155 = sum of:
            0.038820155 = weight(_text_:der in 570) [ClassicSimilarity], result of:
              0.038820155 = score(doc=570,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.3948779 = fieldWeight in 570, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.125 = fieldNorm(doc=570)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Series
    Arbeitspapere der GMD; 553
  3. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.00
    0.0048525194 = product of:
      0.019410077 = sum of:
        0.019410077 = product of:
          0.038820155 = sum of:
            0.038820155 = weight(_text_:der in 2568) [ClassicSimilarity], result of:
              0.038820155 = score(doc=2568,freq=8.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.3948779 = fieldWeight in 2568, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2568)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
    Content
    Folien der Präsentation anlässlich des GENIOS Datenbankfrühstücks 2016, 19. Oktober 2016.
  4. Wille, R.: Denken in Begriffen : von der griechischen Philosophie bis zur Künstlichen Intelligenz heute (1993) 0.00
    0.004747121 = product of:
      0.018988485 = sum of:
        0.018988485 = product of:
          0.03797697 = sum of:
            0.03797697 = weight(_text_:der in 3145) [ClassicSimilarity], result of:
              0.03797697 = score(doc=3145,freq=10.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.38630107 = fieldWeight in 3145, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3145)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Mechanistisches Denken und seine maschinelle Umsetzung (insbesondere in komplexe Computersysteme) gefährdet heute zunehmend die kognitive Autonomie des Menschen. Seinen besonderen Ausdruck findet dieses Denken in den Zielen der Künstlichen Intelligenz, denen die Metapher des künstlichen Menschen zugrunde liegt. Um die Beschränktheit mechanistischen Denkens deutlich werden zu lassen, wird die Geschichte des Begriffs von der griechischen Antike bis heute in ihren wichtigsten Stationen dargelegt. Das macht insbesondere den inhaltlichen Verlust sichtbar, den einschränkende Formalisierungen des Begriffsdenkens mit sich bringen. Es wird dafür plädiert, die enge Verbindung von Inhaltlichem und Formalem im Begriffsdenken zu reaktivieren; hierzu wird dem machanistischen Weltbild entgegengestellt das Weltbild der menschlichen Kommunikationsgemeinschaft, für das kommunikatives Denken und Handeln konstitutiv ist
    Source
    Vortrag, 17. Jahrestagung der Gesellschaft für Klassifikation, 3.-5.3.1993 in Kaiserslautern
  5. Sander, C.; Schmiede, R.; Wille, R.: ¬Ein begriffliches Datensystem zur Literatur der interdisziplinären Technikforschung (1993) 0.00
    0.004747121 = product of:
      0.018988485 = sum of:
        0.018988485 = product of:
          0.03797697 = sum of:
            0.03797697 = weight(_text_:der in 5255) [ClassicSimilarity], result of:
              0.03797697 = score(doc=5255,freq=10.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.38630107 = fieldWeight in 5255, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5255)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Begriffliche Datensysteme sind im Rahmen der Formalen Begriffsanalyse entstanden und gründen sich auf mathematische Formalisierungen von Begriff, Begriffssystem und Begriffliche Datei. Sie machen Wissen, das in einer Datenbasis vorliegt, begrifflich zugänglich und interpretierbar. Hierfür werden begriffliche Zusammenhänge entsprechend gewählter Frageaspekte in gestuften Liniendiagrammen dargestellt. Durch Verfeinern, Vergröbern und Wechseln von Begriffstrukturen kann man unbegrenzt durch das in der Datenbasis gespeicherte Wissen "navigieren". In einem Forschungsprojekt, gefördert vom Zentrum für interdisziplinäre Technikforschung an der TH Darmstadt, ist ein Prototyp eines begrifflichen Datensystems erstellt worden, dem als Datenkontext eine ausgewählte, begrifflich aufgearbeitete Menge von Büchern zur interdisziplinären Technikforschung zugrunde liegt. Mit diesem Prototyp soll die flexible und variable Verwendung begrifflicher datensysteme im Literaturbereich demonstriert werden
    Source
    Vortrag, 17. Jahrestagung der Gesellschaft für Klassifikation, 3.-5.3.1993 in Kaiserslautern
  6. Jouguelet, S.: Subject access and the marketplace for bibliographic information in France (1989) 0.00
    0.004245954 = product of:
      0.016983816 = sum of:
        0.016983816 = product of:
          0.033967633 = sum of:
            0.033967633 = weight(_text_:der in 998) [ClassicSimilarity], result of:
              0.033967633 = score(doc=998,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.34551817 = fieldWeight in 998, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.109375 = fieldNorm(doc=998)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Enthält auch Beschreibung der Sacherschließungssystemen in den Nationalbibliographien
  7. Gödert, W.: Navigation und Retrieval in Datenbanken und Informationsnetzen (1995) 0.00
    0.004245954 = product of:
      0.016983816 = sum of:
        0.016983816 = product of:
          0.033967633 = sum of:
            0.033967633 = weight(_text_:der in 2113) [ClassicSimilarity], result of:
              0.033967633 = score(doc=2113,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.34551817 = fieldWeight in 2113, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2113)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Footnote
    Ausarbeitung eines Vortrages anläßlich des SWD-Kolloquiums in der Deutschen Bibliothek in Frankfurt am 23.11.1994; Text beim Verfasser erhältlich
  8. McIlwaine, I.C.: UDK: der gegenwärtige Zustand und künftige Entwicklungen (1993) 0.00
    0.004245954 = product of:
      0.016983816 = sum of:
        0.016983816 = product of:
          0.033967633 = sum of:
            0.033967633 = weight(_text_:der in 398) [ClassicSimilarity], result of:
              0.033967633 = score(doc=398,freq=8.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.34551817 = fieldWeight in 398, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=398)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Der Vortrag berichtet über die Fertigstellung des maschinenlesbaren Master Reference File der UDK und zeigt, wie er zusammengestellt wurde. Die als Quelle benutzte Ausgaben werden vorgestellt, insbesondere die Internationale Mittlere Ausgabe in Englisch und Französisch, die neuen Abschnitte für Physikalische Chemie und für Sprachen, die in den 'Extensions and corrections to the UDC 14(1992)' veröffentlicht wurden, werden dargestellt und Pläne für die weitere Entwicklung der Systematik auf einer konsequenten facettierten Grundlage entwickelt. Zwei aktuelle Ausgaben, Classification décimale universelle, édition moyenne, Vol.1(1990) und CDU: Classification Decimal Universal, edicion abreviada española (1991) werden besprochen
  9. Smith, R.: Nationalbibliographien auf CD-ROM : Entwicklung eines gemeinsamen Ansatzes (1993) 0.00
    0.004202405 = product of:
      0.01680962 = sum of:
        0.01680962 = product of:
          0.03361924 = sum of:
            0.03361924 = weight(_text_:der in 6231) [ClassicSimilarity], result of:
              0.03361924 = score(doc=6231,freq=6.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.34197432 = fieldWeight in 6231, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6231)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Papier beschreibt, wie ein EG-finanziertes Projekt, unter Einbeziehung von 7 Nationalbibliotheken, die Entwicklung gemeinsamer Problemansätze bei CD-ROM Veröffentlichungen gefördert hat. Das Projekt als ganzes wird beschrieben und auf die Hauptergebnisse hingewiesen, einschließlich der Formulierung einer allgemeinen RetrievalSchnittstelle und der Entwicklung eines UNIMARC-Pilotprojektes auf CD-ROM unter Einbeziehung von 4 Nationalbibliographien. Das Papier beschreibt weiterhin in detaillierter Form die Hauptaspekte der Retrieval-Schnittstelle und die Methodologie für die Entwicklung einer CD-ROM von 4 unterschiedlichen bibliographischen Daten mit jeweils verschiedenen Formaten und Zeichensätzen
  10. Finni, J.F.; Paulson, P.J.: ¬Die Dewey Decimal Classification kommt in das Computer-Zeitalter : Entwicklung der DDC-Datenbank und des 'Editorial Support System' (1987) 0.00
    0.0036393893 = product of:
      0.014557557 = sum of:
        0.014557557 = product of:
          0.029115114 = sum of:
            0.029115114 = weight(_text_:der in 826) [ClassicSimilarity], result of:
              0.029115114 = score(doc=826,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.29615843 = fieldWeight in 826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.09375 = fieldNorm(doc=826)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  11. Geißelmann, F.: Perspektiven für eine DDC-Anwendung in den Bibliotheksverbünden (1999) 0.00
    0.0030328245 = product of:
      0.012131298 = sum of:
        0.012131298 = product of:
          0.024262596 = sum of:
            0.024262596 = weight(_text_:der in 486) [ClassicSimilarity], result of:
              0.024262596 = score(doc=486,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.2467987 = fieldWeight in 486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.078125 = fieldNorm(doc=486)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Ich sehe meine Aufgabe also daher darin, darzulegen, was aus meiner Sicht eine deutsche wissenschaftliche Bibliothek, vielleicht noch enger eine Hochschulbibliothek mit der DDC anfangen kann.
  12. Jaenecke, P.: Knowledge organization due to theory formation (1995) 0.00
    0.0024262597 = product of:
      0.009705039 = sum of:
        0.009705039 = product of:
          0.019410077 = sum of:
            0.019410077 = weight(_text_:der in 3751) [ClassicSimilarity], result of:
              0.019410077 = score(doc=3751,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.19743896 = fieldWeight in 3751, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3751)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Vortrag, anläßlich der Tagung 'EOCONSID '95: 2nd Meeting on Knowledge Organization in Information and Documentation Systems', Madrid, Nov. 16-17, 1995