Search (105 results, page 2 of 6)

  • × type_ss:"x"
  1. Pitz, B.: ¬Die Schlagwortregeln der Deutschen Bibliothek und der Universitätsbibliothek Augsburg und ihre überörtliche Anwendung : eine vergleichende Untersuchung (1980) 0.01
    0.009677563 = product of:
      0.06774294 = sum of:
        0.06774294 = product of:
          0.13548587 = sum of:
            0.13548587 = weight(_text_:anwendung in 1252) [ClassicSimilarity], result of:
              0.13548587 = score(doc=1252,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.74887794 = fieldWeight in 1252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1252)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  2. Emshoff, H.: ¬Die Schlagwortregeln der Deutschen Bibliothek und der Universitätsbibliothek Augsburg und ihre überörtliche Anwendung : eine vergleichende Untersuchung (1980) 0.01
    0.009677563 = product of:
      0.06774294 = sum of:
        0.06774294 = product of:
          0.13548587 = sum of:
            0.13548587 = weight(_text_:anwendung in 5305) [ClassicSimilarity], result of:
              0.13548587 = score(doc=5305,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.74887794 = fieldWeight in 5305, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5305)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  3. Pitz, B.: ¬Die Schlagwortregeln der Deutschen Bibliothek und der Universitätsbibliothek Augsburg und ihre überörtliche Anwendung : eine vergleichende Untersuchung (1980) 0.01
    0.009677563 = product of:
      0.06774294 = sum of:
        0.06774294 = product of:
          0.13548587 = sum of:
            0.13548587 = weight(_text_:anwendung in 5306) [ClassicSimilarity], result of:
              0.13548587 = score(doc=5306,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.74887794 = fieldWeight in 5306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5306)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  4. Rockenbach, H.D.: ¬Die Schlagwortregeln der Deutschen Bibliothek und der Universitätsbibliothek Augsburg und ihre überörtliche Anwendung : eine vergleichende Untersuchung (1980) 0.01
    0.009677563 = product of:
      0.06774294 = sum of:
        0.06774294 = product of:
          0.13548587 = sum of:
            0.13548587 = weight(_text_:anwendung in 5307) [ClassicSimilarity], result of:
              0.13548587 = score(doc=5307,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.74887794 = fieldWeight in 5307, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5307)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  5. Sander, G.: ¬Die Schlagwortregeln der Deutschen Bibliothek und der Universitätsbibliothek Augsburg und ihre überörtliche Anwendung : eine vergleichende Untersuchung (1980) 0.01
    0.009677563 = product of:
      0.06774294 = sum of:
        0.06774294 = product of:
          0.13548587 = sum of:
            0.13548587 = weight(_text_:anwendung in 5308) [ClassicSimilarity], result of:
              0.13548587 = score(doc=5308,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.74887794 = fieldWeight in 5308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5308)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  6. Schubert, P.: Revision von Aufbau und Anwendung des kontrollierten Vokabulars einer bibliografischen Datensammlung zum Thema Dramturgie (2003) 0.01
    0.009677563 = product of:
      0.06774294 = sum of:
        0.06774294 = product of:
          0.13548587 = sum of:
            0.13548587 = weight(_text_:anwendung in 2518) [ClassicSimilarity], result of:
              0.13548587 = score(doc=2518,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.74887794 = fieldWeight in 2518, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2518)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  7. Umlauf, K.: Einführung in die Regeln für den Schlagwortkatalog RSWK : Mit Übungen (1999) 0.01
    0.008381016 = product of:
      0.05866711 = sum of:
        0.05866711 = product of:
          0.11733422 = sum of:
            0.11733422 = weight(_text_:anwendung in 4050) [ClassicSimilarity], result of:
              0.11733422 = score(doc=4050,freq=6.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.64854735 = fieldWeight in 4050, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4050)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Einführung macht mit den Regeln für den Schlagwortkatalog RSWK (nach der 3. Aufl. 1998) bekannt. Die Grundregeln und die wichtigsten Regeln für die einzelnen Schlagwortkategorien einschließlich Sonderregeln für Kunst- und Bauwerke, Werke der Literatur und Rechtsmaterien werden dargestellt. Die Probleme bei verbaler Sacherschließung allgemein werden behandelt und hieraus Anforderungen an Regelwerke und ihre Anwendung abgeleitet. Die Anwendung der RSWK einschließlich der Anwendung in Verbünden und der Benutzung der Schlagwortnormdatei SWD werden umrissen. Kommentierte Literaturhinweise. Es folgen Übungen zur Beschlagwortung mit Hinweisen, wie die erfolgte Beschlagwortung überprüft werden kann
  8. Ludwig, D.: ¬Die Diskussion um die BBK in der sowjetischen Fachliteratur seit 1965 : mit einem Exkurs über die Anwendung der BBK in Bibliotheken der DDR (1984) 0.01
    0.008295055 = product of:
      0.058065377 = sum of:
        0.058065377 = product of:
          0.116130754 = sum of:
            0.116130754 = weight(_text_:anwendung in 7172) [ClassicSimilarity], result of:
              0.116130754 = score(doc=7172,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.6418954 = fieldWeight in 7172, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7172)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  9. Meißner, M.: Vergleichende Untersuchung von Thesauri, Schlagwortlisten und Klassifikationen im Hinblick auf ihre Anwendung für die Indexierung von Informationen zur Thematik "Alternativmethoden zu Tierversuchen" und auf angrenzenden Gebieten (2002) 0.01
    0.008295055 = product of:
      0.058065377 = sum of:
        0.058065377 = product of:
          0.116130754 = sum of:
            0.116130754 = weight(_text_:anwendung in 1578) [ClassicSimilarity], result of:
              0.116130754 = score(doc=1578,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.6418954 = fieldWeight in 1578, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1578)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  10. Widdra, M.: Besonderheiten eines multilingualen Thesaurus : Am Beispiel des "Europäischen Thesaurus Internationale Beziehungen und Länderkunde" (2004) 0.01
    0.008295055 = product of:
      0.058065377 = sum of:
        0.058065377 = product of:
          0.116130754 = sum of:
            0.116130754 = weight(_text_:anwendung in 4628) [ClassicSimilarity], result of:
              0.116130754 = score(doc=4628,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.6418954 = fieldWeight in 4628, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4628)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Rieder, S.: ¬Das Datenbankprogramm CDS/ISIS und dessen Anwendung in der Bundesrepublik Deutschland : Ergebnisse einer Nutzerstudie (1995) 0.01
    0.007820653 = product of:
      0.054744564 = sum of:
        0.054744564 = product of:
          0.10948913 = sum of:
            0.10948913 = weight(_text_:anwendung in 1416) [ClassicSimilarity], result of:
              0.10948913 = score(doc=1416,freq=4.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.6051848 = fieldWeight in 1416, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1416)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Ergebnisse einer Umfrage über die Anwendung des Datenbankprogramms CDS/ISIS in der Bundesrepublik Deutschland. Von 130 angeschriebenem deutschen ISIS-Lizenznehmern haben 42 geantwortet, die das Programm nicht anwenden und 20, die es anwenden. Deren Verhalten, Gründe für die Nicht-Nutzung und verwirklichte Anwendungen wurden ausführlich untersucht und dargelegt.Auf eine allgemeine Auswertung hin folgt ein Überblick über das ISIS-Anwendungsspektrum mit konkreten Einzeldarstellungen aller Anwender. Im ersten Teil werden Hauptmerkmale und -funktionen des leistingsfähigen Programm beschrieben und bewertet, außerdem Bedeutung und Verbreitung in anderen Ländern kurz vorgestellt
  12. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.01
    0.0077411463 = product of:
      0.05418802 = sum of:
        0.05418802 = weight(_text_:interpretation in 3359) [ClassicSimilarity], result of:
          0.05418802 = score(doc=3359,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.25315216 = fieldWeight in 3359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
      0.14285715 = coord(1/7)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  13. Slavic-Overfield, A.: Classification management and use in a networked environment : the case of the Universal Decimal Classification (2005) 0.01
    0.0077411463 = product of:
      0.05418802 = sum of:
        0.05418802 = weight(_text_:interpretation in 2191) [ClassicSimilarity], result of:
          0.05418802 = score(doc=2191,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.25315216 = fieldWeight in 2191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=2191)
      0.14285715 = coord(1/7)
    
    Abstract
    In the Internet information space, advanced information retrieval (IR) methods and automatic text processing are used in conjunction with traditional knowledge organization systems (KOS). New information technology provides a platform for better KOS publishing, exploitation and sharing both for human and machine use. Networked KOS services are now being planned and developed as powerful tools for resource discovery. They will enable automatic contextualisation, interpretation and query matching to different indexing languages. The Semantic Web promises to be an environment in which the quality of semantic relationships in bibliographic classification systems can be fully exploited. Their use in the networked environment is, however, limited by the fact that they are not prepared or made available for advanced machine processing. The UDC was chosen for this research because of its widespread use and its long-term presence in online information retrieval systems. It was also the first system to be used for the automatic classification of Internet resources, and the first to be made available as a classification tool on the Web. The objective of this research is to establish the advantages of using UDC for information retrieval in a networked environment, to highlight the problems of automation and classification exchange, and to offer possible solutions. The first research question was is there enough evidence of the use of classification on the Internet to justify further development with this particular environment in mind? The second question is what are the automation requirements for the full exploitation of UDC and its exchange? The third question is which areas are in need of improvement and what specific recommendations can be made for implementing the UDC in a networked environment? A summary of changes required in the management and development of the UDC to facilitate its full adaptation for future use is drawn from this analysis.
  14. Tzitzikas, Y.: Collaborative ontology-based information indexing and retrieval (2002) 0.01
    0.0077411463 = product of:
      0.05418802 = sum of:
        0.05418802 = weight(_text_:interpretation in 2281) [ClassicSimilarity], result of:
          0.05418802 = score(doc=2281,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.25315216 = fieldWeight in 2281, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=2281)
      0.14285715 = coord(1/7)
    
    Abstract
    An information system like the Web is a continuously evolving system consisting of multiple heterogeneous information sources, covering a wide domain of discourse, and a huge number of users (human or software) with diverse characteristics and needs, that produce and consume information. The challenge nowadays is to build a scalable information infrastructure enabling the effective, accurate, content based retrieval of information, in a way that adapts to the characteristics and interests of the users. The aim of this work is to propose formally sound methods for building such an information network based on ontologies which are widely used and are easy to grasp by ordinary Web users. The main results of this work are: - A novel scheme for indexing and retrieving objects according to multiple aspects or facets. The proposed scheme is a faceted scheme enriched with a method for specifying the combinations of terms that are valid. We give a model-theoretic interpretation to this model and we provide mechanisms for inferring the valid combinations of terms. This inference service can be exploited for preventing errors during the indexing process, which is very important especially in the case where the indexing is done collaboratively by many users, and for deriving "complete" navigation trees suitable for browsing through the Web. The proposed scheme has several advantages over the hierarchical classification schemes currently employed by Web catalogs, namely, conceptual clarity (it is easier to understand), compactness (it takes less space), and scalability (the update operations can be formulated more easily and be performed more effciently). - A exible and effecient model for building mediators over ontology based information sources. The proposed mediators support several modes of query translation and evaluation which can accommodate various application needs and levels of answer quality. The proposed model can be used for providing users with customized views of Web catalogs. It can also complement the techniques for building mediators over relational sources so as to support approximate translation of partially ordered domain values.
  15. Riebe, U.: John R. Searles Position zum Leib-Seele-Problem (2008) 0.01
    0.0077411463 = product of:
      0.05418802 = sum of:
        0.05418802 = weight(_text_:interpretation in 4567) [ClassicSimilarity], result of:
          0.05418802 = score(doc=4567,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.25315216 = fieldWeight in 4567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=4567)
      0.14285715 = coord(1/7)
    
    Abstract
    Wenig ist heute für den gebildeten Bürger interessanter, als die aktuellen Erkenntnisse der Neurowissenschaften zu verfolgen. Letztere ermöglichen durch bildgebende Verfahren wie z. B. EEG, fMRT oder MEG, dem Menschen "beim Denken zuzusehen". So heißt es zumindest in den Medien. Aktuelle Forschungsberichte zeigen eine Näherung an diese Sichtweise. Kalifornischen Forschern ist es durch eine Hirnmessung jüngst gelungen, mit groer Wahrscheinlichkeit zu erkennen, welches Bild eine Versuchsperson gerade betrachtet. Dazu wurden der Versuchsperson erst 1.750 Bilder mit Naturmotiven gezeigt und die jeweilige Stimulation im Hirn per fMRT gemessen. Geachtet wurde speziell auf visuelle Areale, die in eine dreidimensionale Matrix transformiert wurden. Die einzelnen Segmente heissen Voxel (analog zu zweidimensionalen Pixeln). So entstand eine Datenbank aus Voxel-Aktivitätsmustern. Im folgenden Durchlauf wurden der Versuchsperson 120 neue Bilder gezeigt und anhand der Datenbank die wahrscheinliche Voxel-Aktivität berechnet. Vorausgesagt wurde dann das Bild, dessen tatsächliches Voxel-Muster mit dem berechneten am meisten übereinstimmte. Bei Versuchsperson A wurde eine Trefferquote von 92% erreicht, bei Versuchsperson B immerhin 72%. Die Forscher folgern optimistisch, dass es über ihren Ansatz möglich sein wird, gesehene Bildeindrücke über Hirnmessungen zu rekonstruieren. Hier wird versucht auf Kants Frage "Was ist der Mensch?" auf materialistische Weise näher zu kommen. Im Bezug auf frühere Experimente von Benjamin Libet schließen heutzutage einige Hirnforscher, dass das bewusste Erleben eines Menschen nur Beiwerk von deterministisch ablaufenden Hirnprozessen ist, weil das Erleben neuronaler Aktivität zeitlich hinterherhinkt. Auch wird gefolgert, dass empfundene Willensfreiheit nur eine Illusion ist, obwohl Libet diese harte Schlussfolgerung nicht zieht. Die Ergebnisse solcher Studien sind zwar hochinteressant, doch muss man bei der Interpretation auch hohe Sorgfalt walten lassen, insbesondere wenn es um das Thema Bewusstsein geht. Von philosophischer Seite her hat sich John Searle intensiv mit dem Thema auseinandergesetzt und eine Theorie entwickelt, die alle bisherigen philosophischen Modelle verwirft.
  16. Aufreiter, M.: Informationsvisualisierung und Navigation im Semantic Web (2008) 0.01
    0.007183728 = product of:
      0.050286092 = sum of:
        0.050286092 = product of:
          0.100572184 = sum of:
            0.100572184 = weight(_text_:anwendung in 4711) [ClassicSimilarity], result of:
              0.100572184 = score(doc=4711,freq=6.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.5558977 = fieldWeight in 4711, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4711)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Der Anreiz und das Potential von Informationsvisualisierungen wird bereits häufig erkannt und der Wunsch nach deren Anwendung immer stärker. Gerade im Bereich des Wissensmanagements spielt dieses Gebiet eine immer wichtigere Rolle. Diese Arbeit beschäftigt sich mit Informationsvisualisierung im Semantic Web und vermittelt einen Überblick über aktuelle Entwicklungen zum Thema Knowledge Visualization. Zun¨achst werden grundlegende Konzepte der Informationsvisualisierung vorgestellt und deren Bedeutung in Hinblick auf das Wissensmanagement erklärt. Aus den Anforderungen, die das Semantic Web an die Informationsvisualisierungen stellt, lassen sich Kriterien ableiten, die zur Beurteilung von Visualisierungstechniken herangezogen werden können. Die ausgewählten Kriterien werden im Rahmen dieser Arbeit zu einem Kriterienkatalog zusammengefasst. Schließlich werden ausgewählte Werkzeuge beschrieben, die im Wissensmanagement bereits erfolgreich Anwendung finden. Die einzelnen Untersuchungsobjekte werden nach einer detailierten Beschreibung anhand der ausgewählten Kriterien analysiert und bewertet. Dabei wird besonders auf deren Anwendung im Kontext des Semantic Web eingegangen.
  17. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.01
    0.0061827684 = product of:
      0.043279376 = sum of:
        0.043279376 = product of:
          0.08655875 = sum of:
            0.08655875 = weight(_text_:anwendung in 4031) [ClassicSimilarity], result of:
              0.08655875 = score(doc=4031,freq=10.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.47844058 = fieldWeight in 4031, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4031)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
  18. Sauer, C.S.: Analyse von Webcommunities und Extraktion von Wissen aus Communitydaten für Case-Based Reasoning Systeme (2010) 0.01
    0.00598644 = product of:
      0.04190508 = sum of:
        0.04190508 = product of:
          0.08381016 = sum of:
            0.08381016 = weight(_text_:anwendung in 2231) [ClassicSimilarity], result of:
              0.08381016 = score(doc=2231,freq=6.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.46324813 = fieldWeight in 2231, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2231)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit den Möglichkeiten der Informationsextraktion aus den Daten von Webcommunities und der Verwendung der extrahierten Informationen in Case-Based Reasoning- (CBR) Systemen. Im Rahmen der Arbeit wird auf die Entwicklung der Webcommunities im Zeitraum der letzten 30 Jahre eingegangen. Es wird eine Klassifikation der derzeitig anzutreffenden Webcommunities in verschiedene Kategorien von Webcommunities vorgenommen. Diese Klassifikation erfolgt hinsichtlich der Struktur, der technischen Mittel sowie der Interessen der Nutzer dieser Webcommunities. Aufbauend auf die vorgenommene Klassifikation von Webcommunities erfolgt eine Untersuchung der Eignung dieser Kategorien von Webcommunities zur Informationsextraktion im Kontext der Verwendung der extrahierten Informationen in CBR-Systemen. Im selben Kontext werden verschiedene Ansätze und Techniken der Informationsextraktion auf ihre Eignung zur Extraktion von Wissen speziell für die Wissenscontainer von CBR -Systeme geprüft. Aufbauend auf den dadurch gewonnenen Erkenntnissen wird, angelehnt an den Prozess der Knowledge Discovery in Databases, ein eigenes Prozessmodell der Wissensextraktion aus Webcommunities für CBR-Systeme entworfen. Im Zuge der näheren Betrachtung dieses Prozessmodells wird auf verschiedene, durch die beabsichtigte Verwendung der extrahierten Informationen in den vier Wissenscontainern des CBR bedingte, Anforderungen an NLP- sowie IE-Techniken, die zur Extraktion dieser Daten verwendet werden, eingegangen. Die in den theoretischen Betrachtungen erlangten Erkenntnisse werden dann dazu eingesetzt, eine Anwendung zur Informationsextraktion aus einer Webcommunity für ein CBR-System, in Form der Knowledge Extraction Workbench zu implementieren. Diese IEAnwendung arbeitet im Kontext des auf der SEASALT-Architektur aufbauenden Projektes docQuery. Die Realisierung dieser IE-Anwendung wird dokumentiert sowie die Extraktionsergebnisse der Anwendung hinsichtlich ihres Umfanges und ihrer Qualität evaluiert.
  19. Umlauf, K.: Sacherschließung auf der VLBPlus-CD-ROM durch Klassifikation : Die Warengruppen-Systematik des Buchhandels (2001) 0.01
    0.005865489 = product of:
      0.04105842 = sum of:
        0.04105842 = product of:
          0.08211684 = sum of:
            0.08211684 = weight(_text_:anwendung in 1404) [ClassicSimilarity], result of:
              0.08211684 = score(doc=1404,freq=4.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.4538886 = fieldWeight in 1404, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1404)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Auf der VLBPlus-CD-ROM ist seit einiger Zeit nicht nur eine Erschließung nach Stich- und Schlagwörtern sowie nach ca. 66 Sachgruppen, sondern auch nach einer differenzierten Klassifikation enthalten (Warengruppen-Systematik). Diese Klassifikation mit rund 1.000 Klassen wird auf dem Hintergrund der bibliothekarischen Beschäftigung mit dem Thema Sacherschließung in den Zusammenhang der Erschließung durch Klassifikationen versus verbaler Sacherschließung gestellt. Es folgt eine strukturelle Analyse sowie eine Untersuchung ihrer Funktion für den Buchhandel sowie hinsichtlich möglicher Anwendungen in Bibliotheken. Freilich leidet die gegenwärtige Anwendung auf der VLB-CD-ROM unter erheblichen Mängeln, vor allem unter einer konsequent inkonsistenten Anwendung, die in Teilen an eine beliebige Zuordnung zu Bündeln von Klassen erinnert, so dass etliche Einzelklassen ihre Funktion zu verlieren drohen. Die Mängel werden an Beispielen aufgezeigt und die Ursachen benannt, z.B. fehlende Definitionen von Klasseninhalten. Lösungswege bis hin zu Verfahren der automatischen Klassifikation werden angesprochen.
  20. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.01
    0.005865489 = product of:
      0.04105842 = sum of:
        0.04105842 = product of:
          0.08211684 = sum of:
            0.08211684 = weight(_text_:anwendung in 4333) [ClassicSimilarity], result of:
              0.08211684 = score(doc=4333,freq=4.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.4538886 = fieldWeight in 4333, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.

Authors

Languages

  • d 89
  • e 14
  • f 1
  • hu 1
  • More… Less…

Types