Search (68 results, page 1 of 4)

  • × type_ss:"p"
  1. Wätjen, H.-J.: Mensch oder Maschine? : Auswahl und Erschließung vonm Informationsressourcen im Internet (1996) 0.04
    0.037849955 = product of:
      0.07569991 = sum of:
        0.012620768 = weight(_text_:in in 3161) [ClassicSimilarity], result of:
          0.012620768 = score(doc=3161,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.21253976 = fieldWeight in 3161, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=3161)
        0.03350648 = weight(_text_:und in 3161) [ClassicSimilarity], result of:
          0.03350648 = score(doc=3161,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.34630734 = fieldWeight in 3161, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3161)
        0.029572664 = product of:
          0.059145328 = sum of:
            0.059145328 = weight(_text_:22 in 3161) [ClassicSimilarity], result of:
              0.059145328 = score(doc=3161,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.38690117 = fieldWeight in 3161, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3161)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Date
    2. 2.1996 15:40:22
    Footnote
    Erscheint in: Zeitschrift für Bibliothekswesen und Bibliographie; abzurufen vom Server des Verfassers: http://waetjen.bis.uni-oldenburg.de
    Source
    Vortrag anläßlich des Workshops'Internet-basierte Informationssysteme der Bibliotheken', 15.-17.1.96 in Bielefeld
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.03
    0.026202893 = product of:
      0.07860868 = sum of:
        0.06933434 = product of:
          0.20800301 = sum of:
            0.20800301 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.20800301 = score(doc=862,freq=2.0), product of:
                0.37010026 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043654136 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.009274333 = weight(_text_:in in 862) [ClassicSimilarity], result of:
          0.009274333 = score(doc=862,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1561842 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.33333334 = coord(2/6)
    
    Abstract
    This research revisits the classic Turing test and compares recent large language models such as ChatGPT for their abilities to reproduce human-level comprehension and compelling text generation. Two task challenges- summary and question answering- prompt ChatGPT to produce original content (98-99%) from a single text entry and sequential questions initially posed by Turing in 1950. We score the original and generated content against the OpenAI GPT-2 Output Detector from 2019, and establish multiple cases where the generated content proves original and undetectable (98%). The question of a machine fooling a human judge recedes in this work relative to the question of "how would one prove it?" The original contribution of the work presents a metric and simple grammatical set for understanding the writing mechanics of chatbots in evaluating their readability and statistical clarity, engagement, delivery, overall quality, and plagiarism risks. While Turing's original prose scores at least 14% below the machine-generated output, whether an algorithm displays hints of Turing's true initial thoughts (the "Lovelace 2.0" test) remains unanswerable.
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Gödert, W.: Navigation und Retrieval in Datenbanken und Informationsnetzen (1995) 0.02
    0.02284973 = product of:
      0.068549186 = sum of:
        0.02164011 = weight(_text_:in in 2113) [ClassicSimilarity], result of:
          0.02164011 = score(doc=2113,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.3644298 = fieldWeight in 2113, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.109375 = fieldNorm(doc=2113)
        0.04690907 = weight(_text_:und in 2113) [ClassicSimilarity], result of:
          0.04690907 = score(doc=2113,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.4848303 = fieldWeight in 2113, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2113)
      0.33333334 = coord(2/6)
    
    Footnote
    Ausarbeitung eines Vortrages anläßlich des SWD-Kolloquiums in der Deutschen Bibliothek in Frankfurt am 23.11.1994; Text beim Verfasser erhältlich
  4. Wormell, I.: Multifunctional information work : new demands for training? (1995) 0.02
    0.022646975 = product of:
      0.06794092 = sum of:
        0.012365777 = weight(_text_:in in 3371) [ClassicSimilarity], result of:
          0.012365777 = score(doc=3371,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.2082456 = fieldWeight in 3371, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3371)
        0.05557514 = product of:
          0.11115028 = sum of:
            0.11115028 = weight(_text_:ausbildung in 3371) [ClassicSimilarity], result of:
              0.11115028 = score(doc=3371,freq=2.0), product of:
                0.23429902 = queryWeight, product of:
                  5.3671665 = idf(docFreq=560, maxDocs=44218)
                  0.043654136 = queryNorm
                0.47439498 = fieldWeight in 3371, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3671665 = idf(docFreq=560, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3371)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    The paper calls for an integrated approach to information science education where disciplinary interaction is predicated on the forgoing of formal, informal and sustainable links with researchers and pracitioners in other fields. The modern information profession, in order to promote its creativity and to strengthen its development, has to go beyond the traditional roles and functions and should extend the professions' horizons. Thus the LIS education and training programmes must aim to foster professionals who, one day, will create new jobs and not just fill the old ones
    Source
    Vortrag, IFLA-Tagung 1995 in Istanbul
    Theme
    Ausbildung
  5. Frühwald, W.: ¬Das Forscherwissen und die Öffentlichkeit : Überlegungen zur Laisierung wissenschaftlicher Erkenntnis (1992) 0.02
    0.022629712 = product of:
      0.06788913 = sum of:
        0.014278769 = weight(_text_:in in 3045) [ClassicSimilarity], result of:
          0.014278769 = score(doc=3045,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.24046129 = fieldWeight in 3045, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.125 = fieldNorm(doc=3045)
        0.053610366 = weight(_text_:und in 3045) [ClassicSimilarity], result of:
          0.053610366 = score(doc=3045,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.55409175 = fieldWeight in 3045, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=3045)
      0.33333334 = coord(2/6)
    
    Source
    Eröffnungsvortrag der 117. Versammlung der Gesellschaft Deutscher Naturforschung und Ärzte, 19.9.92 in Aachen
  6. Rahmstorf, G.: Methoden und Formate für mehrsprachige Begriffssysteme (1996) 0.02
    0.019984448 = product of:
      0.059953343 = sum of:
        0.010709076 = weight(_text_:in in 7110) [ClassicSimilarity], result of:
          0.010709076 = score(doc=7110,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 7110, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=7110)
        0.049244266 = weight(_text_:und in 7110) [ClassicSimilarity], result of:
          0.049244266 = score(doc=7110,freq=6.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.5089658 = fieldWeight in 7110, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7110)
      0.33333334 = coord(2/6)
    
    Footnote
    Ausgehändigtes Papier während der Sitzung 'Methoden und Formate für sprachbezogene Begriffssysteme' anläßlich der 20. Jahrestagung der Gesellschaft für Klassifikation am 5.3.1995 in Freiburg
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Ockenfeld, M.: MultiMedia Forum : Konzeption und Erprobung einer elektronischen Mitarbeiterzeitung in einer räumlich verteilten Organisation (1994) 0.02
    0.017395675 = product of:
      0.05218702 = sum of:
        0.014278769 = weight(_text_:in in 7420) [ClassicSimilarity], result of:
          0.014278769 = score(doc=7420,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.24046129 = fieldWeight in 7420, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.125 = fieldNorm(doc=7420)
        0.037908252 = weight(_text_:und in 7420) [ClassicSimilarity], result of:
          0.037908252 = score(doc=7420,freq=2.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.39180204 = fieldWeight in 7420, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=7420)
      0.33333334 = coord(2/6)
    
  8. Sander, C.; Schmiede, R.; Wille, R.: ¬Ein begriffliches Datensystem zur Literatur der interdisziplinären Technikforschung (1993) 0.02
    0.017017838 = product of:
      0.05105351 = sum of:
        0.013968632 = weight(_text_:in in 5255) [ClassicSimilarity], result of:
          0.013968632 = score(doc=5255,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.23523843 = fieldWeight in 5255, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5255)
        0.037084877 = weight(_text_:und in 5255) [ClassicSimilarity], result of:
          0.037084877 = score(doc=5255,freq=10.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.38329202 = fieldWeight in 5255, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5255)
      0.33333334 = coord(2/6)
    
    Abstract
    Begriffliche Datensysteme sind im Rahmen der Formalen Begriffsanalyse entstanden und gründen sich auf mathematische Formalisierungen von Begriff, Begriffssystem und Begriffliche Datei. Sie machen Wissen, das in einer Datenbasis vorliegt, begrifflich zugänglich und interpretierbar. Hierfür werden begriffliche Zusammenhänge entsprechend gewählter Frageaspekte in gestuften Liniendiagrammen dargestellt. Durch Verfeinern, Vergröbern und Wechseln von Begriffstrukturen kann man unbegrenzt durch das in der Datenbasis gespeicherte Wissen "navigieren". In einem Forschungsprojekt, gefördert vom Zentrum für interdisziplinäre Technikforschung an der TH Darmstadt, ist ein Prototyp eines begrifflichen Datensystems erstellt worden, dem als Datenkontext eine ausgewählte, begrifflich aufgearbeitete Menge von Büchern zur interdisziplinären Technikforschung zugrunde liegt. Mit diesem Prototyp soll die flexible und variable Verwendung begrifflicher datensysteme im Literaturbereich demonstriert werden
    Source
    Vortrag, 17. Jahrestagung der Gesellschaft für Klassifikation, 3.-5.3.1993 in Kaiserslautern
  9. Hobohm, H.-C.: Zensur in der Digitalität - eine Überwindung der Moderne? : Die Rolle der Bibliotheken (2020) 0.02
    0.016972285 = product of:
      0.050916854 = sum of:
        0.010709076 = weight(_text_:in in 5371) [ClassicSimilarity], result of:
          0.010709076 = score(doc=5371,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 5371, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=5371)
        0.040207777 = weight(_text_:und in 5371) [ClassicSimilarity], result of:
          0.040207777 = score(doc=5371,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.41556883 = fieldWeight in 5371, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5371)
      0.33333334 = coord(2/6)
    
    Content
    Beitrag zur Tagung: "Nationalsozialismus Digital. Die Verantwortung von Bibliotheken, Archiven und Museen sowie Forschungseinrichtungen und Medien im Umgang mit der NSZeit im Netz." Österreichische Nationalbibliothek, Universität Wien, 27. - 29. November 2019
  10. McIlwaine, I.C.: UDK: der gegenwärtige Zustand und künftige Entwicklungen (1993) 0.02
    0.016486328 = product of:
      0.049458984 = sum of:
        0.008834538 = weight(_text_:in in 398) [ClassicSimilarity], result of:
          0.008834538 = score(doc=398,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 398, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=398)
        0.040624447 = weight(_text_:und in 398) [ClassicSimilarity], result of:
          0.040624447 = score(doc=398,freq=12.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.41987535 = fieldWeight in 398, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=398)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Vortrag berichtet über die Fertigstellung des maschinenlesbaren Master Reference File der UDK und zeigt, wie er zusammengestellt wurde. Die als Quelle benutzte Ausgaben werden vorgestellt, insbesondere die Internationale Mittlere Ausgabe in Englisch und Französisch, die neuen Abschnitte für Physikalische Chemie und für Sprachen, die in den 'Extensions and corrections to the UDC 14(1992)' veröffentlicht wurden, werden dargestellt und Pläne für die weitere Entwicklung der Systematik auf einer konsequenten facettierten Grundlage entwickelt. Zwei aktuelle Ausgaben, Classification décimale universelle, édition moyenne, Vol.1(1990) und CDU: Classification Decimal Universal, edicion abreviada española (1991) werden besprochen
  11. Dietze, J.: Sachkatalogisierung in einem OPAC (1993) 0.02
    0.015968312 = product of:
      0.04790493 = sum of:
        0.010820055 = weight(_text_:in in 7388) [ClassicSimilarity], result of:
          0.010820055 = score(doc=7388,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1822149 = fieldWeight in 7388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7388)
        0.037084877 = weight(_text_:und in 7388) [ClassicSimilarity], result of:
          0.037084877 = score(doc=7388,freq=10.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.38329202 = fieldWeight in 7388, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7388)
      0.33333334 = coord(2/6)
    
    Abstract
    Katalogisierung über den Rechner bedeutet immer auch, einen OPAC aufzubauen, der es erlaubt, nach unterschiedlichen Merkmalen - formal und sachlich - und mit deren Kombination zu recherchieren. Die Freiwortrecherche wird von den Benutzern gern verwendet, obwohl dabei die Recall Ration (Vollständigkeit) nicht ausgeschöpft wird. Die Nutzung von Schlagwörtern sollte deren Standardisierung in einer Normdatei voraussetzen, um den Subjektivismus der Katalogisierer auszuschalten. Schlagwortketten sind prinzipiell für einen OPAC überflüssig. Bei Verwendung einer hierarchischen, d.h. systematischen Klassifikation sollte deren Notation systemkohärent, flexibel und synthetisch (Facetten bzw. Schlüssel) sein. Mit Hilfe von Registern sind Schlagwörter und Systemnotationen vice versa zu verknüpfen. Wenn Sachkatalogisierung im Verbund erfolgt, bilden Terminologiekontrolle und Einheitsklassifikation als Grobsysteme wichtige Desiderate
    Footnote
    Vgl. auch Beitrag gleichen Titels in: ZfBB 41(1994) H.3, S.297-303
  12. Smith, R.: Nationalbibliographien auf CD-ROM : Entwicklung eines gemeinsamen Ansatzes (1993) 0.02
    0.01501588 = product of:
      0.045047637 = sum of:
        0.0071393843 = weight(_text_:in in 6231) [ClassicSimilarity], result of:
          0.0071393843 = score(doc=6231,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.120230645 = fieldWeight in 6231, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=6231)
        0.037908252 = weight(_text_:und in 6231) [ClassicSimilarity], result of:
          0.037908252 = score(doc=6231,freq=8.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.39180204 = fieldWeight in 6231, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6231)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieses Papier beschreibt, wie ein EG-finanziertes Projekt, unter Einbeziehung von 7 Nationalbibliotheken, die Entwicklung gemeinsamer Problemansätze bei CD-ROM Veröffentlichungen gefördert hat. Das Projekt als ganzes wird beschrieben und auf die Hauptergebnisse hingewiesen, einschließlich der Formulierung einer allgemeinen RetrievalSchnittstelle und der Entwicklung eines UNIMARC-Pilotprojektes auf CD-ROM unter Einbeziehung von 4 Nationalbibliographien. Das Papier beschreibt weiterhin in detaillierter Form die Hauptaspekte der Retrieval-Schnittstelle und die Methodologie für die Entwicklung einer CD-ROM von 4 unterschiedlichen bibliographischen Daten mit jeweils verschiedenen Formaten und Zeichensätzen
  13. Wille, R.: Denken in Begriffen : von der griechischen Philosophie bis zur Künstlichen Intelligenz heute (1993) 0.01
    0.014231484 = product of:
      0.042694453 = sum of:
        0.013968632 = weight(_text_:in in 3145) [ClassicSimilarity], result of:
          0.013968632 = score(doc=3145,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.23523843 = fieldWeight in 3145, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3145)
        0.028725822 = weight(_text_:und in 3145) [ClassicSimilarity], result of:
          0.028725822 = score(doc=3145,freq=6.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.2968967 = fieldWeight in 3145, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3145)
      0.33333334 = coord(2/6)
    
    Abstract
    Mechanistisches Denken und seine maschinelle Umsetzung (insbesondere in komplexe Computersysteme) gefährdet heute zunehmend die kognitive Autonomie des Menschen. Seinen besonderen Ausdruck findet dieses Denken in den Zielen der Künstlichen Intelligenz, denen die Metapher des künstlichen Menschen zugrunde liegt. Um die Beschränktheit mechanistischen Denkens deutlich werden zu lassen, wird die Geschichte des Begriffs von der griechischen Antike bis heute in ihren wichtigsten Stationen dargelegt. Das macht insbesondere den inhaltlichen Verlust sichtbar, den einschränkende Formalisierungen des Begriffsdenkens mit sich bringen. Es wird dafür plädiert, die enge Verbindung von Inhaltlichem und Formalem im Begriffsdenken zu reaktivieren; hierzu wird dem machanistischen Weltbild entgegengestellt das Weltbild der menschlichen Kommunikationsgemeinschaft, für das kommunikatives Denken und Handeln konstitutiv ist
    Source
    Vortrag, 17. Jahrestagung der Gesellschaft für Klassifikation, 3.-5.3.1993 in Kaiserslautern
  14. Schöneberg, U.; Gödert, W.: Erschließung mathematischer Publikationen mittels linguistischer Verfahren (2012) 0.01
    0.014131139 = product of:
      0.042393416 = sum of:
        0.0075724614 = weight(_text_:in in 1055) [ClassicSimilarity], result of:
          0.0075724614 = score(doc=1055,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.12752387 = fieldWeight in 1055, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.034820955 = weight(_text_:und in 1055) [ClassicSimilarity], result of:
          0.034820955 = score(doc=1055,freq=12.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.35989314 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Zahl der mathematik-relevanten Publikationn steigt von Jahr zu Jahr an. Referatedienste wie da Zentralblatt MATH und Mathematical Reviews erfassen die bibliographischen Daten, erschließen die Arbeiten inhaltlich und machen sie - heute über Datenbanken, früher in gedruckter Form - für den Nutzer suchbar. Keywords sind ein wesentlicher Bestandteil der inhaltlichen Erschließung der Publikationen. Keywords sind meist keine einzelnen Wörter, sondern Mehrwortphrasen. Das legt die Anwendung linguistischer Methoden und Verfahren nahe. Die an der FH Köln entwickelte Software 'Lingo' wurde für die speziellen Anforderungen mathematischer Texte angepasst und sowohl zum Aufbau eines kontrollierten Vokabulars als auch zur Extraction von Keywords aus mathematischen Publikationen genutzt. Es ist geplant, über eine Verknüpfung von kontrolliertem Vokabular und der Mathematical Subject Classification Methoden für die automatische Klassifikation für den Referatedienst Zentralblatt MATH zu entwickeln und zu erproben.
    Footnote
    Vortrag anlässlich der DMV-Tagung in Saarbrücken, 17.-20.09.2012.
  15. Madsen, M.: Teaching bibliography, bibliographic control and bibliographical competence (2000) 0.01
    0.013893785 = product of:
      0.083362706 = sum of:
        0.083362706 = product of:
          0.16672541 = sum of:
            0.16672541 = weight(_text_:ausbildung in 5408) [ClassicSimilarity], result of:
              0.16672541 = score(doc=5408,freq=2.0), product of:
                0.23429902 = queryWeight, product of:
                  5.3671665 = idf(docFreq=560, maxDocs=44218)
                  0.043654136 = queryNorm
                0.71159244 = fieldWeight in 5408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3671665 = idf(docFreq=560, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5408)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Theme
    Ausbildung
  16. McIlwaine, J.: Bibliographical control : self-instruction from individualised investigations (2000) 0.01
    0.013893785 = product of:
      0.083362706 = sum of:
        0.083362706 = product of:
          0.16672541 = sum of:
            0.16672541 = weight(_text_:ausbildung in 5410) [ClassicSimilarity], result of:
              0.16672541 = score(doc=5410,freq=2.0), product of:
                0.23429902 = queryWeight, product of:
                  5.3671665 = idf(docFreq=560, maxDocs=44218)
                  0.043654136 = queryNorm
                0.71159244 = fieldWeight in 5410, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3671665 = idf(docFreq=560, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5410)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Theme
    Ausbildung
  17. Snyman, R.: Bibliographic control : is the current training still relevant (2000) 0.01
    0.013893785 = product of:
      0.083362706 = sum of:
        0.083362706 = product of:
          0.16672541 = sum of:
            0.16672541 = weight(_text_:ausbildung in 5413) [ClassicSimilarity], result of:
              0.16672541 = score(doc=5413,freq=2.0), product of:
                0.23429902 = queryWeight, product of:
                  5.3671665 = idf(docFreq=560, maxDocs=44218)
                  0.043654136 = queryNorm
                0.71159244 = fieldWeight in 5413, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3671665 = idf(docFreq=560, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5413)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Theme
    Ausbildung
  18. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.01
    0.013056986 = product of:
      0.039170958 = sum of:
        0.012365777 = weight(_text_:in in 2568) [ClassicSimilarity], result of:
          0.012365777 = score(doc=2568,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.2082456 = fieldWeight in 2568, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=2568)
        0.026805183 = weight(_text_:und in 2568) [ClassicSimilarity], result of:
          0.026805183 = score(doc=2568,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.27704588 = fieldWeight in 2568, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2568)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
  19. Finni, J.F.; Paulson, P.J.: ¬Die Dewey Decimal Classification kommt in das Computer-Zeitalter : Entwicklung der DDC-Datenbank und des 'Editorial Support System' (1987) 0.01
    0.013046755 = product of:
      0.039140265 = sum of:
        0.010709076 = weight(_text_:in in 826) [ClassicSimilarity], result of:
          0.010709076 = score(doc=826,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=826)
        0.02843119 = weight(_text_:und in 826) [ClassicSimilarity], result of:
          0.02843119 = score(doc=826,freq=2.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.29385152 = fieldWeight in 826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=826)
      0.33333334 = coord(2/6)
    
  20. Holley, R.P.: Entwicklung und Fortschritt bei Klassifikation und Indexierung (1987) 0.01
    0.008935061 = product of:
      0.053610366 = sum of:
        0.053610366 = weight(_text_:und in 929) [ClassicSimilarity], result of:
          0.053610366 = score(doc=929,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.55409175 = fieldWeight in 929, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=929)
      0.16666667 = coord(1/6)
    

Years

Languages

  • e 44
  • d 24

Types