Search (97 results, page 4 of 5)

  • × type_ss:"x"
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.01
    0.006528757 = product of:
      0.032643784 = sum of:
        0.032643784 = product of:
          0.13057514 = sum of:
            0.13057514 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.13057514 = score(doc=701,freq=2.0), product of:
                0.34849894 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.041106213 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  2. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.01
    0.006528757 = product of:
      0.032643784 = sum of:
        0.032643784 = product of:
          0.13057514 = sum of:
            0.13057514 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.13057514 = score(doc=5820,freq=2.0), product of:
                0.34849894 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.041106213 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  3. Pichler, R.: Annäherung an die Bildsprache : Ontologien als Hilfsmittel für Bilderschliessung und Bildrecherche in Kunstbilddatenbanken (2007) 0.01
    0.005971969 = product of:
      0.029859845 = sum of:
        0.029859845 = weight(_text_:r in 4821) [ClassicSimilarity], result of:
          0.029859845 = score(doc=4821,freq=2.0), product of:
            0.13607219 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.041106213 = queryNorm
            0.2194412 = fieldWeight in 4821, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
      0.2 = coord(1/5)
    
  4. Frei, R.: Informationswissenschaftliche Begriffe und Kernprozesse aus Sicht des Radikalen Konstruktivismus (2009) 0.01
    0.005971969 = product of:
      0.029859845 = sum of:
        0.029859845 = weight(_text_:r in 3268) [ClassicSimilarity], result of:
          0.029859845 = score(doc=3268,freq=2.0), product of:
            0.13607219 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.041106213 = queryNorm
            0.2194412 = fieldWeight in 3268, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.046875 = fieldNorm(doc=3268)
      0.2 = coord(1/5)
    
  5. Heinz, A.: ¬Diie Lösung des Leib-Seele-Problems bei John R. Searle (2002) 0.01
    0.0056304266 = product of:
      0.028152132 = sum of:
        0.028152132 = weight(_text_:r in 4299) [ClassicSimilarity], result of:
          0.028152132 = score(doc=4299,freq=4.0), product of:
            0.13607219 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.041106213 = queryNorm
            0.20689115 = fieldWeight in 4299, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.03125 = fieldNorm(doc=4299)
      0.2 = coord(1/5)
    
    Abstract
    Das Verhältnis von Leib und Seele, oder, um es zeitgemäßer auszudrücken, von Physischem und Mentalem, ist "eine der zentralen und hartnäckigsten Fragestellungen der Philosophie" . Wenn es darum geht, wie unser Gehirn Bewußtsein hervorbringen kann, ist auch in neuesten Beiträgen von einem "Rätsel" oder einem "Geheimnis" die Rede. Trotzdem werden immer mehr optimistische Stimmen laut, die diesem Rätsel auf der Spur zu sein scheinen oder es bereits als gelöst betrachten. Dabei spielt die Erforschung der neurobiologischen Grundlage des Bewußtseins, des Gehirns, eine entscheidende Rolle. John R. Searle gehört zu den zeitgenössischen Philosophen, für die das Leib -Seele - Problem eine "ganz einfache Lösung" gefunden hat: "Und das ist sie: Geistige Phänomene werden von neurophysiologischen Vorgängen im Hirn verursacht und sind selbst Merkmale des Hirns." Daß die (biologische) Tatsache des Bewußtseins von Vielen immer noch als ein geheimnisvolles Phänomen aufgefaßt wird, wurzelt seiner Meinung nach darin, "daß wir mit einem überholten Vokabular des 17. Jahrhunderts über ein Problem des 20. Jahrhunderts sprechen". Sein Ausgangspunkt ist somit die Kritik an den traditionellen Lösungsmodellen des Leib -Seele -Problems, die allesamt auf die cartesische Unterscheidung von res cogitans und res extensa zurückgreifen. An drei solcher Positionen soll im ersten Kapitel dieser Arbeit exemplarisch verdeutlicht werden, warum Searle deren Untauglichkeit konstatieren kann. Im zweiten Kapitel wird es um die sog. Intentionalität gehen, die als Kern der Funktionsweise des Bewußtseins (grob gesprochen) das Vermögen bezeichnet, mit der Welt in Beziehung zu treten. Sie ist für Searle der Schlüssel, der die Tür zum Verständnis des Bewußtseins öffnen kann, ohne auf mißverständliche mystifizierende Kategorien rekurrieren zu müssen. Die Entfaltung seines Neuansatzes zur Struktur des Bewußtseins, den er den "biologischen Naturalismus" nennt, bildet den dritten Schwerpunkt. Dort wird gezeigt, daß Mentales und Physisches nicht dem Wesen nach unterschieden sind, sondern eine biologische Einheit bilden.
  6. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.005569325 = product of:
      0.027846623 = sum of:
        0.027846623 = product of:
          0.055693246 = sum of:
            0.055693246 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.055693246 = score(doc=3406,freq=2.0), product of:
                0.14394696 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041106213 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    30. 5.2010 16:22:35
  7. Engel, F.: Expertensuche in semantisch integrierten Datenbeständen (2015) 0.01
    0.005509253 = product of:
      0.027546266 = sum of:
        0.027546266 = weight(_text_:u in 2283) [ClassicSimilarity], result of:
          0.027546266 = score(doc=2283,freq=4.0), product of:
            0.13460001 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.041106213 = queryNorm
            0.20465277 = fieldWeight in 2283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
      0.2 = coord(1/5)
    
    Abstract
    Wissen ist das intellektuelle Kapital eines Unternehmens und der effektive Zugriff darauf entscheidend für die Anpassungsfähigkeit und Innovationskraft. Eine häufig angewandte Lösung für den erfolgreichen Zugriff auf diese Wissensressourcen ist die Umsetzung der Expertensuche in den Daten der verteilten Informationssysteme des Unternehmens. Aktuelle Expertensuchverfahren berücksichtigen zur Berechnung der Relevanz eines Kandidaten zumeist nur die Information aus Datenquellen (u. a. E-Mails oder Publikationen eines Kandidaten), über die eine Verbindung zwischen dem Thema der Frage und einem Kandidaten hergestellt werden kann. Die aus den Datenquellen gewonnene Information, fließt dann gewichtet in die Relevanzbewertung ein. Analysen aus dem Fachbereich Wissensmanagement zeigen jedoch, dass neben dem Themenbezug auch noch weitere Kriterien Einfluss auf die Auswahl eines Experten in einer Expertensuche haben können (u. a. der Bekanntheitsgrad zwischen dem Suchenden und Kandidat). Um eine optimale Gewichtung der unterschiedlichen Bestandteile und Quellen, aus denen sich die Berechnung der Relevanz speist, zu finden, werden in aktuellen Anwendungen zur Suche nach Dokumenten oder zur Suche im Web verschiedene Verfahren aus dem Umfeld des maschinellen Lernens eingesetzt. Jedoch existieren derzeit nur sehr wenige Arbeiten zur Beantwortung der Frage, wie gut sich diese Verfahren eignen um auch in der Expertensuche verschiedene Bestandteile der Relevanzbestimmung optimal zusammenzuführen. Informationssysteme eines Unternehmens können komplex sein und auf einer verteilten Datenhaltung basieren. Zunehmend finden Technologien aus dem Umfeld des Semantic Web Akzeptanz in Unternehmen, um eine einheitliche Zugriffsschnittstelle auf den verteilten Datenbestand zu gewährleisten. Der Zugriff auf eine derartige Zugriffschnittstelle erfolgt dabei über Abfragesprachen, welche lediglich eine alphanumerische Sortierung der Rückgabe erlauben, jedoch keinen Rückschluss auf die Relevanz der gefundenen Objekte zulassen. Für die Suche nach Experten in einem derartig aufbereiteten Datenbestand bedarf es zusätzlicher Berechnungsverfahren, die einen Rückschluss auf den Relevanzwert eines Kandidaten ermöglichen. In dieser Arbeit soll zum einen ein Beitrag geleistet werden, der die Anwendbarkeit lernender Verfahren zur effektiven Aggregation unterschiedlicher Kriterien in der Suche nach Experten zeigt. Zum anderen soll in dieser Arbeit nach Möglichkeiten geforscht werden, wie die Relevanz eines Kandidaten über Zugriffsschnittstellen berechnet werden kann, die auf Technologien aus dem Umfeld des Semantic Web basieren.
  8. Porth, R.: Betrachtung des Formatumstiegs von MAB2 zu MARC 21 : Potentielle Mehrwerte bei der Internationalisierung eines bibliographischen Formats (2009) 0.00
    0.004976641 = product of:
      0.024883203 = sum of:
        0.024883203 = weight(_text_:r in 4036) [ClassicSimilarity], result of:
          0.024883203 = score(doc=4036,freq=2.0), product of:
            0.13607219 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.041106213 = queryNorm
            0.18286766 = fieldWeight in 4036, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4036)
      0.2 = coord(1/5)
    
  9. Weiner, U.: Vor uns die Dokumentenflut oder Automatische Indexierung als notwendige und sinnvolle Ergänzung zur intellektuellen Sacherschließung (2012) 0.00
    0.004869538 = product of:
      0.024347689 = sum of:
        0.024347689 = weight(_text_:u in 598) [ClassicSimilarity], result of:
          0.024347689 = score(doc=598,freq=2.0), product of:
            0.13460001 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.041106213 = queryNorm
            0.1808892 = fieldWeight in 598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
      0.2 = coord(1/5)
    
  10. Renker, L.: Exploration von Textkorpora : Topic Models als Grundlage der Interaktion (2015) 0.00
    0.004869538 = product of:
      0.024347689 = sum of:
        0.024347689 = weight(_text_:u in 2380) [ClassicSimilarity], result of:
          0.024347689 = score(doc=2380,freq=2.0), product of:
            0.13460001 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.041106213 = queryNorm
            0.1808892 = fieldWeight in 2380, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
      0.2 = coord(1/5)
    
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  11. Rautenberg, M.: Konzeption eines Internetangebots für Kinder über Buchautoren und -autorinnen im Rahmen der europäischen virtuellen Kinderbibliothek CHILIAS (1997) 0.00
    0.00445546 = product of:
      0.0222773 = sum of:
        0.0222773 = product of:
          0.0445546 = sum of:
            0.0445546 = weight(_text_:22 in 1491) [ClassicSimilarity], result of:
              0.0445546 = score(doc=1491,freq=2.0), product of:
                0.14394696 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041106213 = queryNorm
                0.30952093 = fieldWeight in 1491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1491)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 7.1998 18:00:49
  12. Rogalla von Bieberstein, J.A.: Moderne oder historische Musikinstrumente? : ein Katalogisierungsproblem (1997) 0.00
    0.00445546 = product of:
      0.0222773 = sum of:
        0.0222773 = product of:
          0.0445546 = sum of:
            0.0445546 = weight(_text_:22 in 1492) [ClassicSimilarity], result of:
              0.0445546 = score(doc=1492,freq=2.0), product of:
                0.14394696 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041106213 = queryNorm
                0.30952093 = fieldWeight in 1492, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1492)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 7.1998 18:05:52
  13. Thielemann, A.: Sacherschließung für die Kunstgeschichte : Möglichkeiten und Grenzen von DDC 700: The Arts (2007) 0.00
    0.00445546 = product of:
      0.0222773 = sum of:
        0.0222773 = product of:
          0.0445546 = sum of:
            0.0445546 = weight(_text_:22 in 1409) [ClassicSimilarity], result of:
              0.0445546 = score(doc=1409,freq=2.0), product of:
                0.14394696 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041106213 = queryNorm
                0.30952093 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Nach der Veröffentlichung einer deutschen Übersetzung der Dewey Decimal Classification 22 im Oktober 2005 und ihrer Nutzung zur Inhaltserschließung in der Deutschen Nationalbibliographie seit Januar 2006 stellt sich aus Sicht der deutschen kunsthistorischen Spezialbibliotheken die Frage nach einer möglichen Verwendung der DDC und ihrer generellen Eignung zur Inhalterschließung kunsthistorischer Publikationen. Diese Frage wird vor dem Hintergrund der bestehenden bibliothekarischen Strukturen für die Kunstgeschichte sowie mit Blick auf die inhaltlichen Besonderheiten, die Forschungsmethodik und die publizistischen Traditionen dieses Faches erörtert.
  14. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.00
    0.00445546 = product of:
      0.0222773 = sum of:
        0.0222773 = product of:
          0.0445546 = sum of:
            0.0445546 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.0445546 = score(doc=401,freq=2.0), product of:
                0.14394696 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041106213 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    11. 9.2012 19:43:22
  15. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.00
    0.0039813123 = product of:
      0.019906562 = sum of:
        0.019906562 = weight(_text_:r in 1076) [ClassicSimilarity], result of:
          0.019906562 = score(doc=1076,freq=2.0), product of:
            0.13607219 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.041106213 = queryNorm
            0.14629413 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.2 = coord(1/5)
    
    Type
    r
  16. Hoffmann, R.: Entwicklung einer benutzerunterstützten automatisierten Klassifikation von Web - Dokumenten : Untersuchung gegenwärtiger Methoden zur automatisierten Dokumentklassifikation und Implementierung eines Prototyps zum verbesserten Information Retrieval für das xFIND System (2002) 0.00
    0.0039813123 = product of:
      0.019906562 = sum of:
        0.019906562 = weight(_text_:r in 4197) [ClassicSimilarity], result of:
          0.019906562 = score(doc=4197,freq=2.0), product of:
            0.13607219 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.041106213 = queryNorm
            0.14629413 = fieldWeight in 4197, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
      0.2 = coord(1/5)
    
  17. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.00
    0.0039813123 = product of:
      0.019906562 = sum of:
        0.019906562 = weight(_text_:r in 865) [ClassicSimilarity], result of:
          0.019906562 = score(doc=865,freq=2.0), product of:
            0.13607219 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.041106213 = queryNorm
            0.14629413 = fieldWeight in 865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
      0.2 = coord(1/5)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
  18. Bertram, J.: Informationen verzweifelt gesucht : Enterprise Search in österreichischen Großunternehmen (2011) 0.00
    0.0039381073 = product of:
      0.019690536 = sum of:
        0.019690536 = product of:
          0.039381072 = sum of:
            0.039381072 = weight(_text_:22 in 2657) [ClassicSimilarity], result of:
              0.039381072 = score(doc=2657,freq=4.0), product of:
                0.14394696 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041106213 = queryNorm
                0.27358043 = fieldWeight in 2657, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Die Arbeit geht dem Status quo der unternehmensweiten Suche in österreichischen Großunternehmen nach und beleuchtet Faktoren, die darauf Einfluss haben. Aus der Analyse des Ist-Zustands wird der Bedarf an Enterprise-Search-Software abgeleitet und es werden Rahmenbedingungen für deren erfolgreiche Einführung skizziert. Die Untersuchung stützt sich auf eine im Jahr 2009 durchgeführte Onlinebefragung von 469 österreichischen Großunternehmen (Rücklauf 22 %) und daran anschließende Leitfadeninterviews mit zwölf Teilnehmern der Onlinebefragung. Der theoretische Teil verortet die Arbeit im Kontext des Informations- und Wissensmanagements. Der Fokus liegt auf dem Ansatz der Enterprise Search, ihrer Abgrenzung gegenüber der Suche im Internet und ihrem Leistungsspektrum. Im empirischen Teil wird zunächst aufgezeigt, wie die Unternehmen ihre Informationen organisieren und welche Probleme dabei auftreten. Es folgt eine Analyse des Status quo der Informati-onssuche im Unternehmen. Abschließend werden Bekanntheit und Einsatz von Enterprise-Search-Software in der Zielgruppe untersucht sowie für die Einführung dieser Software nötige Rahmenbedingungen benannt. Defizite machen die Befragten insbesondere im Hinblick auf die übergreifende Suche im Unternehmen und die Suche nach Kompetenzträgern aus. Hier werden Lücken im Wissensmanagement offenbar. 29 % der Respondenten der Onlinebefragung geben zu-dem an, dass es in ihren Unternehmen gelegentlich bis häufig zu Fehlentscheidungen infolge defizitärer Informationslagen kommt. Enterprise-Search-Software kommt in 17 % der Unternehmen, die sich an der Onlinebefragung beteiligten, zum Einsatz. Die durch Enterprise-Search-Software bewirkten Veränderungen werden grundsätzlich posi-tiv beurteilt. Alles in allem zeigen die Ergebnisse, dass Enterprise-Search-Strategien nur Erfolg haben können, wenn man sie in umfassende Maßnahmen des Informations- und Wissensmanagements einbettet.
    Date
    22. 1.2016 20:40:31
  19. Kowalewski, I.: Barockliteratur online im Internet : Das Verzeichnis der im deutschen Sprachraum erschienenen Drucke des 17. Jahrhunderts (VD 17) (1999) 0.00
    0.0038985272 = product of:
      0.019492636 = sum of:
        0.019492636 = product of:
          0.03898527 = sum of:
            0.03898527 = weight(_text_:22 in 1637) [ClassicSimilarity], result of:
              0.03898527 = score(doc=1637,freq=2.0), product of:
                0.14394696 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041106213 = queryNorm
                0.2708308 = fieldWeight in 1637, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1637)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 2.2000 10:31:39
  20. Zudnik, J.: Artifizielle Semantik : Wider das Chinesische Zimmer (2017) 0.00
    0.0038956304 = product of:
      0.019478152 = sum of:
        0.019478152 = weight(_text_:u in 4426) [ClassicSimilarity], result of:
          0.019478152 = score(doc=4426,freq=2.0), product of:
            0.13460001 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.041106213 = queryNorm
            0.14471136 = fieldWeight in 4426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03125 = fieldNorm(doc=4426)
      0.2 = coord(1/5)
    
    Abstract
    "Talks at Google" hatte kürzlich einen Star zu Gast (Google 2016). Der gefeierte Philosoph referierte in gewohnt charmanter Art sein berühmtes Gedankenexperiment, welches er vor 35 Jahren ersonnen hatte. Aber es war keine reine Geschichtslektion, sondern er bestand darauf, daß die Implikationen nach wie vor Gültigkeit besaßen. Die Rede ist natürlich von John Searle und dem Chinesischen Zimmer. Searle eroberte damit ab 1980 die Welt der Philosophie des Geistes, indem er bewies, daß man Computer besprechen kann, ohne etwas von ihnen zu verstehen. In seinen Worten, man könne ohnehin die zugrunde liegenden Konzepte dieser damned things in 5 Minuten erfassen. Dagegen verblassten die scheuen Einwände des AI-Starapologeten Ray Kurzweil der im Publikum saß, die jüngste Akquisition in Googles Talentpool. Searle wirkte wie die reine Verkörperung seiner Thesen, daß Berechnung, Logik und harte Fakten angesichts der vollen Entfaltung polyvalenter Sprachspiele eines menschlichen Bewußtseins im sozialen Raum der Kultur keine Macht über uns besitzen. Doch obwohl große Uneinigkeit bezüglich der Gültigkeit des chinesischen Zimmers besteht, und die logische Struktur des Arguments schon vor Jahrzehnten widerlegt worden ist, u. a. von Copeland (1993), wird erstaunlicherweise noch immer damit gehandelt. Es hat sich von einem speziellen Werkzeug zur Widerlegung der Starken AI These, wonach künstliche Intelligenz mit einer symbolverarbeitenden Rechenmaschine geschaffen werden kann, zu einem Argument für all die Fälle entwickelt, in welchen sich Philosophen des Geistes mit unbequemen Fragen bezüglich der Berechenbarkeit des menschlichen Geistes auseinandersetzen hätten können. Es ist also mit den Jahrzehnten zu einer Immunisierungs- und Konservierungsstrategie für all jene geworden, die sich Zeit erkaufen wollten, sich mit der wirklichen Komplexität auseinander zu setzen. Denn die Definition von Sinn ist eben plastisch, vor allem wenn die Pointe der Searlschen Geschichte noch immer eine hohe Suggestionskraft besitzt, da ihre Konklusion, man könne nicht von einer computationalen Syntax zu einer Semantik kommen, noch immer unzureichend widerlegt ist.

Languages

  • d 85
  • e 10
  • f 1
  • hu 1
  • More… Less…

Types