Search (44 results, page 1 of 3)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.23
    0.22609904 = product of:
      0.3956733 = sum of:
        0.03956733 = product of:
          0.11870199 = sum of:
            0.11870199 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.11870199 = score(doc=701,freq=2.0), product of:
                0.31681007 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.11870199 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.11870199 = score(doc=701,freq=2.0), product of:
            0.31681007 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.037368443 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.11870199 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.11870199 = score(doc=701,freq=2.0), product of:
            0.31681007 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.037368443 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.11870199 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.11870199 = score(doc=701,freq=2.0), product of:
            0.31681007 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.037368443 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5714286 = coord(4/7)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  2. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.01
    0.010528908 = product of:
      0.07370235 = sum of:
        0.07370235 = sum of:
          0.048387814 = weight(_text_:anwendung in 1670) [ClassicSimilarity], result of:
            0.048387814 = score(doc=1670,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.2674564 = fieldWeight in 1670, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1670)
          0.02531454 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
            0.02531454 = score(doc=1670,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.19345059 = fieldWeight in 1670, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1670)
      0.14285715 = coord(1/7)
    
    Date
    26. 9.2006 21:00:22
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Schubert, P.: Revision von Aufbau und Anwendung des kontrollierten Vokabulars einer bibliografischen Datensammlung zum Thema Dramturgie (2003) 0.01
    0.009677563 = product of:
      0.06774294 = sum of:
        0.06774294 = product of:
          0.13548587 = sum of:
            0.13548587 = weight(_text_:anwendung in 2518) [ClassicSimilarity], result of:
              0.13548587 = score(doc=2518,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.74887794 = fieldWeight in 2518, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2518)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  4. Meißner, M.: Vergleichende Untersuchung von Thesauri, Schlagwortlisten und Klassifikationen im Hinblick auf ihre Anwendung für die Indexierung von Informationen zur Thematik "Alternativmethoden zu Tierversuchen" und auf angrenzenden Gebieten (2002) 0.01
    0.008295055 = product of:
      0.058065377 = sum of:
        0.058065377 = product of:
          0.116130754 = sum of:
            0.116130754 = weight(_text_:anwendung in 1578) [ClassicSimilarity], result of:
              0.116130754 = score(doc=1578,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.6418954 = fieldWeight in 1578, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1578)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  5. Widdra, M.: Besonderheiten eines multilingualen Thesaurus : Am Beispiel des "Europäischen Thesaurus Internationale Beziehungen und Länderkunde" (2004) 0.01
    0.008295055 = product of:
      0.058065377 = sum of:
        0.058065377 = product of:
          0.116130754 = sum of:
            0.116130754 = weight(_text_:anwendung in 4628) [ClassicSimilarity], result of:
              0.116130754 = score(doc=4628,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.6418954 = fieldWeight in 4628, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4628)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.01
    0.0077411463 = product of:
      0.05418802 = sum of:
        0.05418802 = weight(_text_:interpretation in 3359) [ClassicSimilarity], result of:
          0.05418802 = score(doc=3359,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.25315216 = fieldWeight in 3359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
      0.14285715 = coord(1/7)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  7. Slavic-Overfield, A.: Classification management and use in a networked environment : the case of the Universal Decimal Classification (2005) 0.01
    0.0077411463 = product of:
      0.05418802 = sum of:
        0.05418802 = weight(_text_:interpretation in 2191) [ClassicSimilarity], result of:
          0.05418802 = score(doc=2191,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.25315216 = fieldWeight in 2191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=2191)
      0.14285715 = coord(1/7)
    
    Abstract
    In the Internet information space, advanced information retrieval (IR) methods and automatic text processing are used in conjunction with traditional knowledge organization systems (KOS). New information technology provides a platform for better KOS publishing, exploitation and sharing both for human and machine use. Networked KOS services are now being planned and developed as powerful tools for resource discovery. They will enable automatic contextualisation, interpretation and query matching to different indexing languages. The Semantic Web promises to be an environment in which the quality of semantic relationships in bibliographic classification systems can be fully exploited. Their use in the networked environment is, however, limited by the fact that they are not prepared or made available for advanced machine processing. The UDC was chosen for this research because of its widespread use and its long-term presence in online information retrieval systems. It was also the first system to be used for the automatic classification of Internet resources, and the first to be made available as a classification tool on the Web. The objective of this research is to establish the advantages of using UDC for information retrieval in a networked environment, to highlight the problems of automation and classification exchange, and to offer possible solutions. The first research question was is there enough evidence of the use of classification on the Internet to justify further development with this particular environment in mind? The second question is what are the automation requirements for the full exploitation of UDC and its exchange? The third question is which areas are in need of improvement and what specific recommendations can be made for implementing the UDC in a networked environment? A summary of changes required in the management and development of the UDC to facilitate its full adaptation for future use is drawn from this analysis.
  8. Tzitzikas, Y.: Collaborative ontology-based information indexing and retrieval (2002) 0.01
    0.0077411463 = product of:
      0.05418802 = sum of:
        0.05418802 = weight(_text_:interpretation in 2281) [ClassicSimilarity], result of:
          0.05418802 = score(doc=2281,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.25315216 = fieldWeight in 2281, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=2281)
      0.14285715 = coord(1/7)
    
    Abstract
    An information system like the Web is a continuously evolving system consisting of multiple heterogeneous information sources, covering a wide domain of discourse, and a huge number of users (human or software) with diverse characteristics and needs, that produce and consume information. The challenge nowadays is to build a scalable information infrastructure enabling the effective, accurate, content based retrieval of information, in a way that adapts to the characteristics and interests of the users. The aim of this work is to propose formally sound methods for building such an information network based on ontologies which are widely used and are easy to grasp by ordinary Web users. The main results of this work are: - A novel scheme for indexing and retrieving objects according to multiple aspects or facets. The proposed scheme is a faceted scheme enriched with a method for specifying the combinations of terms that are valid. We give a model-theoretic interpretation to this model and we provide mechanisms for inferring the valid combinations of terms. This inference service can be exploited for preventing errors during the indexing process, which is very important especially in the case where the indexing is done collaboratively by many users, and for deriving "complete" navigation trees suitable for browsing through the Web. The proposed scheme has several advantages over the hierarchical classification schemes currently employed by Web catalogs, namely, conceptual clarity (it is easier to understand), compactness (it takes less space), and scalability (the update operations can be formulated more easily and be performed more effciently). - A exible and effecient model for building mediators over ontology based information sources. The proposed mediators support several modes of query translation and evaluation which can accommodate various application needs and levels of answer quality. The proposed model can be used for providing users with customized views of Web catalogs. It can also complement the techniques for building mediators over relational sources so as to support approximate translation of partially ordered domain values.
  9. Riebe, U.: John R. Searles Position zum Leib-Seele-Problem (2008) 0.01
    0.0077411463 = product of:
      0.05418802 = sum of:
        0.05418802 = weight(_text_:interpretation in 4567) [ClassicSimilarity], result of:
          0.05418802 = score(doc=4567,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.25315216 = fieldWeight in 4567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=4567)
      0.14285715 = coord(1/7)
    
    Abstract
    Wenig ist heute für den gebildeten Bürger interessanter, als die aktuellen Erkenntnisse der Neurowissenschaften zu verfolgen. Letztere ermöglichen durch bildgebende Verfahren wie z. B. EEG, fMRT oder MEG, dem Menschen "beim Denken zuzusehen". So heißt es zumindest in den Medien. Aktuelle Forschungsberichte zeigen eine Näherung an diese Sichtweise. Kalifornischen Forschern ist es durch eine Hirnmessung jüngst gelungen, mit groer Wahrscheinlichkeit zu erkennen, welches Bild eine Versuchsperson gerade betrachtet. Dazu wurden der Versuchsperson erst 1.750 Bilder mit Naturmotiven gezeigt und die jeweilige Stimulation im Hirn per fMRT gemessen. Geachtet wurde speziell auf visuelle Areale, die in eine dreidimensionale Matrix transformiert wurden. Die einzelnen Segmente heissen Voxel (analog zu zweidimensionalen Pixeln). So entstand eine Datenbank aus Voxel-Aktivitätsmustern. Im folgenden Durchlauf wurden der Versuchsperson 120 neue Bilder gezeigt und anhand der Datenbank die wahrscheinliche Voxel-Aktivität berechnet. Vorausgesagt wurde dann das Bild, dessen tatsächliches Voxel-Muster mit dem berechneten am meisten übereinstimmte. Bei Versuchsperson A wurde eine Trefferquote von 92% erreicht, bei Versuchsperson B immerhin 72%. Die Forscher folgern optimistisch, dass es über ihren Ansatz möglich sein wird, gesehene Bildeindrücke über Hirnmessungen zu rekonstruieren. Hier wird versucht auf Kants Frage "Was ist der Mensch?" auf materialistische Weise näher zu kommen. Im Bezug auf frühere Experimente von Benjamin Libet schließen heutzutage einige Hirnforscher, dass das bewusste Erleben eines Menschen nur Beiwerk von deterministisch ablaufenden Hirnprozessen ist, weil das Erleben neuronaler Aktivität zeitlich hinterherhinkt. Auch wird gefolgert, dass empfundene Willensfreiheit nur eine Illusion ist, obwohl Libet diese harte Schlussfolgerung nicht zieht. Die Ergebnisse solcher Studien sind zwar hochinteressant, doch muss man bei der Interpretation auch hohe Sorgfalt walten lassen, insbesondere wenn es um das Thema Bewusstsein geht. Von philosophischer Seite her hat sich John Searle intensiv mit dem Thema auseinandergesetzt und eine Theorie entwickelt, die alle bisherigen philosophischen Modelle verwirft.
  10. Aufreiter, M.: Informationsvisualisierung und Navigation im Semantic Web (2008) 0.01
    0.007183728 = product of:
      0.050286092 = sum of:
        0.050286092 = product of:
          0.100572184 = sum of:
            0.100572184 = weight(_text_:anwendung in 4711) [ClassicSimilarity], result of:
              0.100572184 = score(doc=4711,freq=6.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.5558977 = fieldWeight in 4711, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4711)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Der Anreiz und das Potential von Informationsvisualisierungen wird bereits häufig erkannt und der Wunsch nach deren Anwendung immer stärker. Gerade im Bereich des Wissensmanagements spielt dieses Gebiet eine immer wichtigere Rolle. Diese Arbeit beschäftigt sich mit Informationsvisualisierung im Semantic Web und vermittelt einen Überblick über aktuelle Entwicklungen zum Thema Knowledge Visualization. Zun¨achst werden grundlegende Konzepte der Informationsvisualisierung vorgestellt und deren Bedeutung in Hinblick auf das Wissensmanagement erklärt. Aus den Anforderungen, die das Semantic Web an die Informationsvisualisierungen stellt, lassen sich Kriterien ableiten, die zur Beurteilung von Visualisierungstechniken herangezogen werden können. Die ausgewählten Kriterien werden im Rahmen dieser Arbeit zu einem Kriterienkatalog zusammengefasst. Schließlich werden ausgewählte Werkzeuge beschrieben, die im Wissensmanagement bereits erfolgreich Anwendung finden. Die einzelnen Untersuchungsobjekte werden nach einer detailierten Beschreibung anhand der ausgewählten Kriterien analysiert und bewertet. Dabei wird besonders auf deren Anwendung im Kontext des Semantic Web eingegangen.
  11. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.01
    0.0061827684 = product of:
      0.043279376 = sum of:
        0.043279376 = product of:
          0.08655875 = sum of:
            0.08655875 = weight(_text_:anwendung in 4031) [ClassicSimilarity], result of:
              0.08655875 = score(doc=4031,freq=10.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.47844058 = fieldWeight in 4031, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4031)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
  12. Umlauf, K.: Sacherschließung auf der VLBPlus-CD-ROM durch Klassifikation : Die Warengruppen-Systematik des Buchhandels (2001) 0.01
    0.005865489 = product of:
      0.04105842 = sum of:
        0.04105842 = product of:
          0.08211684 = sum of:
            0.08211684 = weight(_text_:anwendung in 1404) [ClassicSimilarity], result of:
              0.08211684 = score(doc=1404,freq=4.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.4538886 = fieldWeight in 1404, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1404)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Auf der VLBPlus-CD-ROM ist seit einiger Zeit nicht nur eine Erschließung nach Stich- und Schlagwörtern sowie nach ca. 66 Sachgruppen, sondern auch nach einer differenzierten Klassifikation enthalten (Warengruppen-Systematik). Diese Klassifikation mit rund 1.000 Klassen wird auf dem Hintergrund der bibliothekarischen Beschäftigung mit dem Thema Sacherschließung in den Zusammenhang der Erschließung durch Klassifikationen versus verbaler Sacherschließung gestellt. Es folgt eine strukturelle Analyse sowie eine Untersuchung ihrer Funktion für den Buchhandel sowie hinsichtlich möglicher Anwendungen in Bibliotheken. Freilich leidet die gegenwärtige Anwendung auf der VLB-CD-ROM unter erheblichen Mängeln, vor allem unter einer konsequent inkonsistenten Anwendung, die in Teilen an eine beliebige Zuordnung zu Bündeln von Klassen erinnert, so dass etliche Einzelklassen ihre Funktion zu verlieren drohen. Die Mängel werden an Beispielen aufgezeigt und die Ursachen benannt, z.B. fehlende Definitionen von Klasseninhalten. Lösungswege bis hin zu Verfahren der automatischen Klassifikation werden angesprochen.
  13. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.01
    0.005865489 = product of:
      0.04105842 = sum of:
        0.04105842 = product of:
          0.08211684 = sum of:
            0.08211684 = weight(_text_:anwendung in 4333) [ClassicSimilarity], result of:
              0.08211684 = score(doc=4333,freq=4.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.4538886 = fieldWeight in 4333, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  14. Steiner, E.S.: OPAC 2.0 : Mit Web 2.0-Technologie zum Bibliothekskatalog der Zukunft? (2007) 0.01
    0.005530036 = product of:
      0.03871025 = sum of:
        0.03871025 = product of:
          0.0774205 = sum of:
            0.0774205 = weight(_text_:anwendung in 678) [ClassicSimilarity], result of:
              0.0774205 = score(doc=678,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.42793027 = fieldWeight in 678, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0625 = fieldNorm(doc=678)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Diese Arbeit besteht im Wesentlichen aus zwei Teilen: Der erste Teil beinhaltet eine Einführung in den Begriff Web 2.0 und in die allgemeinen Rahmenbedingungen der zugehörigen technischen Entwicklungen. Des Weiteren werden exemplarische Techniken vorgestellt, die Web 2.0 zugeschrieben werden können sowie einige beispielhafte Anwendungen. Im zweiten Teil wird die Diskussion um Bibliothek 2.0 aufgegriffen, um anschließend näher auf Web 2.0 Techniken in Bibliothekskatalogen bzw. den OPAC 2.0 einzugehen. Verschiedene Techniken, die im OPAC 2.0 Anwendung finden können, werden diskutiert und zuletzt werden einige beispielhafte OPACs vorgestellt.
  15. Sperling, R.: Anlage von Literaturreferenzen für Onlineressourcen auf einer virtuellen Lernplattform (2004) 0.01
    0.005062908 = product of:
      0.035440356 = sum of:
        0.035440356 = product of:
          0.07088071 = sum of:
            0.07088071 = weight(_text_:22 in 4635) [ClassicSimilarity], result of:
              0.07088071 = score(doc=4635,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.5416616 = fieldWeight in 4635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4635)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    26.11.2005 18:39:22
  16. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.00
    0.0048879073 = product of:
      0.03421535 = sum of:
        0.03421535 = product of:
          0.0684307 = sum of:
            0.0684307 = weight(_text_:anwendung in 4283) [ClassicSimilarity], result of:
              0.0684307 = score(doc=4283,freq=4.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3782405 = fieldWeight in 4283, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
  17. Haßelmeier, B.: ¬Die Dewey Decimal Classification : Eine Einführung im Zusammenhang mit dem Projekt "DDC Deutsch" (2004) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 2880) [ClassicSimilarity], result of:
              0.06774294 = score(doc=2880,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 2880, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2880)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Diese Arbeit möchte im Zusammenhang mit dem Übersetzungsprojekt "Dewey Decimal Classification Deutsch" eine Einführung zur Entstehung, Anwendung, Struktur und Erscheinungsweise des amerikanischen Originals geben. Zunächst werden einige grundlegende Begriffe der allgemeinen Klassifikationslehre erläutert. Anschließend werden Funktion und Bedeutung von Klassifikationen für den Bibliotheks- und Dokumentationsbereich skizziert. Im dritten Kapitel wird dann ausführlich auf die Dewey Decimal Classification eingegangen, bevor im letzten Kapitel dargestellt wird, welche Ziele mit dem Projekt "DDC Deutsch" verfolgt werden und welche Schwierigkeiten und Herausforderungen mit der Übersetzung verbunden sind. Die Arbeit schließt mit einem Ausblick auf die Möglichkeiten, die sich für das Bibliotheks- und Dokumentationswesen in Deutschland durch eine Übersetzung der Dewey Decimal Classification eröffnen.
  18. Schmidt, S.: Vergleich exemplarischer XML-Datenbanken in Konzeption, Anwendung und verfügbaren Schnittstellen in Abgrenzung zu relationalen, objektorientierten und XML fähigen Datenbanken (2004) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 3704) [ClassicSimilarity], result of:
              0.06774294 = score(doc=3704,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 3704, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3704)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  19. Sieber, W.: Visualisierung von Thesaurus-Strukturen unter besonderer Berücksichtigung eines Hyperbolic Tree Views (2004) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 1456) [ClassicSimilarity], result of:
              0.06774294 = score(doc=1456,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 1456, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1456)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  20. Hoeffken, P.: Kollaborative Ansätze zur Vereinheitlichung von Namensformen in LibraryThing.com (2009) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 2221) [ClassicSimilarity], result of:
              0.06774294 = score(doc=2221,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 2221, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2221)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    LibraryThing.com ist eine Web 2.0 Anwendung, die sich der Community-Bildung verschrieben hat und dazu (Privat-)Bibliotheken ins Zentrum stellt. Die Nutzer erstellen dabei die Inhalte der Kataloge einerseits durch Import von Daten, andererseits durch eigenständige Eingabe. Dabei werden auch zu Autoren Seiten angelegt, die die Nutzer mit diversen Daten anreichern können. In dieser Arbeit werden diese Bestrebungen hinsichtlich der Autorenseiten dargestellt und mit der Personennamendatei der Deutschen Nationalbibliothek verglichen. Dabei wird aufgezeigt, welche Unterschiede und Gemeinsamkeiten bestehen. Schließlich wird untersucht in welcher Form in LibraryThing Inhalte generiert werden und ob sie fachlichen Ansprüchen an Bibliothekskataloge genügen können.