Search (9 results, page 1 of 1)

  • × classification_ss:"ST 300"
  1. New directions in cognitive information retrieval (2005) 0.02
    0.018289922 = product of:
      0.0457248 = sum of:
        0.022425208 = weight(_text_:index in 338) [ClassicSimilarity], result of:
          0.022425208 = score(doc=338,freq=2.0), product of:
            0.18579477 = queryWeight, product of:
              4.369764 = idf(docFreq=1520, maxDocs=44218)
              0.04251826 = queryNorm
            0.12069881 = fieldWeight in 338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.369764 = idf(docFreq=1520, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.023299592 = weight(_text_:system in 338) [ClassicSimilarity], result of:
          0.023299592 = score(doc=338,freq=8.0), product of:
            0.13391352 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.04251826 = queryNorm
            0.17398985 = fieldWeight in 338, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
      0.4 = coord(2/5)
    
    Footnote
    CIR Concepts - Interactive information retrieval: Bringing the user to a selection state, von Charles Cole et al. (Montréal), konzentriert sich auf den kognitiven Aspekt von Benutzern bei der Interaktion mit den bzw. der Reaktion auf die vom IR-System ausgesandten Stimuli; "selection" bezieht sich dabei auf die Auswahl, die das System den Benutzern abverlangt und die zur Veränderung ihrer Wissensstrukturen beiträgt. - Cognitive overlaps along the polyrepresentation continuum, von Birger Larsen und Peter Ingwersen (Kopenhagen), beschreibt einen auf Ingwersens Principle of Polyrepresentation beruhenden methodischen Ansatz, der dem IR-System ein breiteres Bild des Benutzers bzw. der Dokumente vermittelt als dies bei herkömmlichen, lediglich anfragebasierten Systemen möglich ist. - Integrating approaches to relevance, von Ian Ruthven (Glasgow), analysiert den Relevanzbegriff und schlägt anstelle des gegenwärtig in IR-Systemverwendeten, eindimensionalen Relevanzkonzepts eine multidimensionale Sichtweise vor. - New cognitive directions, von Nigel Ford (Sheffield), führt neue Begriffe ein: Ford schlägt anstelle von information need und information behaviour die Alternativen knowledge need und knowledge behaviour vor.
    CIR Processes - A multitasking framework for cognitive information retrieval, von Amanda Spink und Charles Cole (Australien/Kanada), sieht - im Gegensatz zu traditionellen Ansätzen - die simultane Bearbeitung verschiedener Aufgaben (Themen) während einer Informationssuche als den Normalfall an und analysiert das damit verbundene Benutzerverhalten. - Explanation in information seeking and retrieval, von Pertti Vakkari und Kalervo Järvelin (Tampere), plädiert anhand zweier empirischer Untersuchungen für die Verwendung des aufgabenorientierten Ansatzes ("task") in der IR-Forschung, gerade auch als Bindeglied zwischen nicht ausreichend mit einander kommunizierenden Disziplinen (Informationswissenschaft, Informatik, diverse Sozialwissenschaften). - Towards an alternative information retrieval system for children, von Jamshid Beheshti et al. (Montréal), berichtet über den Stand der IR-Forschung für Kinder und schlägt vor, eine Metapher aus dem Sozialkonstruktivismus (Lernen als soziales Verhandeln) als Gestaltungsprinzip für einschlägige IR-Systeme zu verwenden. CIR Techniques - Implicit feedback: using behavior to infer relevance, von Diane Kelly (North Carolina), setzt sich kritisch mit den Techniken zur Analyse des von Benutzern von IR-Systemen geäußerten Relevance-Feedbacks - explizit und implizit - auseinander. - Educational knowledge domain visualizations, von Peter Hook und Katy Börner (Indiana), beschreibt verschiedene Visualisierungstechniken zur Repräsentation von Wissensgebieten, die "Novizen" bei der Verwendung fachspezifischer IR-Systeme unterstützen sollen. - Learning and training to search, von Wendy Lucas und Heikki Topi (Massachusetts), analysiert, im breiteren Kontext der Information- Seeking-Forschung, Techniken zur Schulung von Benutzern von IRSystemen.
    Sämtliche Beiträge sind von hohem Niveau und bieten anspruchsvolle Lektüre. Verallgemeinert formuliert, fragen sie nach der Verknüpfung zwischen dem breiteren Kontext des Warum und Wie der menschlichen Informationssuche und den technischen bzw. sonstigen Randbedingungen, die die Interaktion zwischen Benutzern und Systemen bestimmen. Natürlich liegt hier kein Hand- oder Lehrbuch vor, sodass man - fairerweise - nicht von einer systematischen Behandlung dieses Themenbereichs oder einem didaktischen Aufbau ausgehen bzw. derlei erwarten darf. Das Buch bietet jedenfalls einen guten und vielfältigen Einstieg und Einblick in dieses interessante Forschungsgebiet. Fachlich einschlägige und größere allgemeine Bibliotheken sollten es daher jedenfalls in ihren Bestand aufnehmen. Schon die Rezension des oben zitierten zweiten Buches des Herausgeber-Duos Spink-Cole enthielt einen kritischen Hinweis auf das dortige Sachregister. Der vorliegende Band erfordert noch stärkere Nerven, denn der hier als "Index" bezeichnete Seitenfüller spottet geradezu jeder Beschreibung, umso mehr, als wir uns in einem informationswissenschaftlichen Kontext befi nden. Was soll man denn tatsächlich mit Einträgen wie "information" anfangen, noch dazu, wenn dazu über 150 verschiedene Seitenzahlen angegeben werden? Ähnlich verhält es sich mit anderen allgemeinen Begriffen wie z.B. "knowledge", "model", "tasks", "use", "users" - allesamt mit einer gewaltigen Menge von Seitenzahlen versehen und damit ohne Wert! Dieses der Leserschaft wenig dienliche Register ist wohl dem Verlag anzulasten, auch wenn die Herausgeber selbst seine Urheber gewesen sein sollten. Davon abgesehen wurde wieder einmal ein solide gefertigter Band vorgelegt, der allerdings wegen seines hohen Preis eher nur institutionelle Käufer ansprechen wird."
  2. Stuart, D.: Practical ontologies for information professionals (2016) 0.01
    0.005648775 = product of:
      0.028243875 = sum of:
        0.028243875 = weight(_text_:context in 5152) [ClassicSimilarity], result of:
          0.028243875 = score(doc=5152,freq=2.0), product of:
            0.17622331 = queryWeight, product of:
              4.14465 = idf(docFreq=1904, maxDocs=44218)
              0.04251826 = queryNorm
            0.16027321 = fieldWeight in 5152, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.14465 = idf(docFreq=1904, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5152)
      0.2 = coord(1/5)
    
    Abstract
    Practical Ontologies for Information Professionals provides an accessible introduction and exploration of ontologies and demonstrates their value to information professionals. More data and information is being created than ever before. Ontologies, formal representations of knowledge with rich semantic relationships, have become increasingly important in the context of today's information overload and data deluge. The publishing and sharing of explicit explanations for a wide variety of conceptualizations, in a machine readable format, has the power to both improve information retrieval and discover new knowledge. Information professionals are key contributors to the development of new, and increasingly useful, ontologies. Practical Ontologies for Information Professionals provides an accessible introduction to the following: defining the concept of ontologies and why they are increasingly important to information professionals ontologies and the semantic web existing ontologies, such as RDF, RDFS, SKOS, and OWL2 adopting and building ontologies, showing how to avoid repetition of work and how to build a simple ontology interrogating ontologies for reuse the future of ontologies and the role of the information professional in their development and use. This book will be useful reading for information professionals in libraries and other cultural heritage institutions who work with digitalization projects, cataloguing and classification and information retrieval. It will also be useful to LIS students who are new to the field.
  3. Zur Konstruktion künstlicher Gehirne (2009) 0.01
    0.005272096 = product of:
      0.02636048 = sum of:
        0.02636048 = weight(_text_:system in 77) [ClassicSimilarity], result of:
          0.02636048 = score(doc=77,freq=4.0), product of:
            0.13391352 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.04251826 = queryNorm
            0.19684705 = fieldWeight in 77, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03125 = fieldNorm(doc=77)
      0.2 = coord(1/5)
    
    RSWK
    Visuelles System / Synapse / Informationsverarbeitung / Objekterkennung / Merkmalsextraktion / Neuronales Feld
    Subject
    Visuelles System / Synapse / Informationsverarbeitung / Objekterkennung / Merkmalsextraktion / Neuronales Feld
  4. Semantische Technologien : Grundlagen - Konzepte - Anwendungen (2012) 0.00
    0.0046130843 = product of:
      0.02306542 = sum of:
        0.02306542 = weight(_text_:system in 167) [ClassicSimilarity], result of:
          0.02306542 = score(doc=167,freq=4.0), product of:
            0.13391352 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.04251826 = queryNorm
            0.17224117 = fieldWeight in 167, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
      0.2 = coord(1/5)
    
    RSWK
    Semantic Web / Information Extraction / Suche / Wissensbasiertes System / Aufsatzsammlung
    Subject
    Semantic Web / Information Extraction / Suche / Wissensbasiertes System / Aufsatzsammlung
  5. Günther, G.: ¬Das Bewußtsein der Maschinen : Sammlung ; eine Metaphysik der Kybernetik (2002) 0.00
    0.0027959512 = product of:
      0.013979756 = sum of:
        0.013979756 = weight(_text_:system in 474) [ClassicSimilarity], result of:
          0.013979756 = score(doc=474,freq=2.0), product of:
            0.13391352 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.04251826 = queryNorm
            0.104393914 = fieldWeight in 474, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0234375 = fieldNorm(doc=474)
      0.2 = coord(1/5)
    
    Abstract
    Das Buch 'Das Bewusstsein der Maschinen' des deutsch-amerikanischen Philosophen und Logikers Gotthard Günther (1900-1984) erschien bereits 1957 und in einer erweiterten 2. Auflage im Jahr 1963. Was damals sensationell wirkte, ist heute Bestandteil unseres philosophischen Bewusstseins geworden: die Hereinnahme der Kybernetik nicht nur in unsere praktisch-technische Welt, sondern auch in die philosophische Spekulation wie in unsere soziologische Reflexion. Immer aber noch ist die Lektüre der Güntherschen Theoreme und Einsichten für Wissenschaftler wie auch für den Laien aufregend, die Revolutionierung unseres gesamten Denkens offenbar. Daß die maschinelle Intelligenz den Leistungen des menschlichen Bewusstseins überlegen sein kann - wer bestreitet das heute noch? Daß aber mit dem Maschinenbewusstsein die alten Denkgewohnheiten des Menschen aus den Angeln gehoben und alle klassischen Schemata wie auch die dialektische Spekulation auf einen mehr oder minder aufwendigen Schutthaufen geworfen sind - dagegen werden die philosophischen Lehrstühle sich noch lange wehren. - Auch diese erweiterte Auflage des Güntherschen Buches ist kein Abschluß und kein System, sondern Frage und Anregung zur Metaphysik unseres Jahrhunderts. Die jetzt nach etwa 40 Jahren erneut aufgelegte und nochmals erweiterte Ausgabe ist - betrachtet man den heutigen Stand der Diskussionen um die Themen 'Künstliche Intelligenz', 'Maschinelles Lernen' oder 'Maschinenbewusstsein' - nicht nur aus philosophischer sondern vor allem aus wissenschaftslogischer Sicht seiner Zeit immer noch weit voraus. Dies begründet sich insbesondere darin, dass Gotthard Günther nicht nur einen Entwurf geliefert, sondern im Verlauf seiner wissenschaftlichen Tätigkeiten am Biological Computer Laboratory (BCL) in Illinois (Urbana) auch die Grundlagen zu einer nichtaristotelischen Logik gelegt hat, die sich am besten unter dem Begriff 'Theorie polykontexturaler Systeme' subsumieren lassen.
  6. Schank, R.C.; Childers, P.G.: ¬Die Zukunft der künstlichen Intelligenz : Chancen und Risiken (1986) 0.00
    0.0023251716 = product of:
      0.011625858 = sum of:
        0.011625858 = product of:
          0.034877572 = sum of:
            0.034877572 = weight(_text_:29 in 3708) [ClassicSimilarity], result of:
              0.034877572 = score(doc=3708,freq=2.0), product of:
                0.14956595 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04251826 = queryNorm
                0.23319192 = fieldWeight in 3708, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3708)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
    Date
    5.11.2017 9:36:29
  7. Penrose, R.: Computerdenken : Des Kaisers neue Kleider oder Die Debatte um Künstliche Intelligenz, Bewußtsein und die Gesetze der Physik (1991) 0.00
    0.002192193 = product of:
      0.0109609645 = sum of:
        0.0109609645 = product of:
          0.03288289 = sum of:
            0.03288289 = weight(_text_:29 in 4451) [ClassicSimilarity], result of:
              0.03288289 = score(doc=4451,freq=4.0), product of:
                0.14956595 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04251826 = queryNorm
                0.21985546 = fieldWeight in 4451, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4451)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
    Classification
    NAT 29
    SFB
    NAT 29
  8. Lenzen, M.: Künstliche Intelligenz : was sie kann & was uns erwartet (2018) 0.00
    0.0019202124 = product of:
      0.009601062 = sum of:
        0.009601062 = product of:
          0.028803186 = sum of:
            0.028803186 = weight(_text_:22 in 4295) [ClassicSimilarity], result of:
              0.028803186 = score(doc=4295,freq=2.0), product of:
                0.1488917 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04251826 = queryNorm
                0.19345059 = fieldWeight in 4295, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4295)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
    Date
    18. 6.2018 19:22:02
  9. Euzenat, J.; Shvaiko, P.: Ontology matching (2010) 0.00
    0.0015361699 = product of:
      0.0076808496 = sum of:
        0.0076808496 = product of:
          0.023042548 = sum of:
            0.023042548 = weight(_text_:22 in 168) [ClassicSimilarity], result of:
              0.023042548 = score(doc=168,freq=2.0), product of:
                0.1488917 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04251826 = queryNorm
                0.15476047 = fieldWeight in 168, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=168)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
    Date
    20. 6.2012 19:08:22

Years

Languages

Types