Search (33 results, page 1 of 2)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.18
    0.18101043 = product of:
      0.36202085 = sum of:
        0.036202088 = product of:
          0.10860626 = sum of:
            0.10860626 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.10860626 = score(doc=701,freq=2.0), product of:
                0.28986505 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03419022 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.10860626 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10860626 = score(doc=701,freq=2.0), product of:
            0.28986505 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03419022 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.10860626 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10860626 = score(doc=701,freq=2.0), product of:
            0.28986505 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03419022 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.10860626 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10860626 = score(doc=701,freq=2.0), product of:
            0.28986505 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03419022 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(4/8)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  2. Kupfer, T.: DIF: Universelle Darstellung und Austausch geowissenschaftlicher Metadaten mit dem Directory Interchange Format (2004) 0.02
    0.020304043 = product of:
      0.16243234 = sum of:
        0.16243234 = weight(_text_:darstellung in 4637) [ClassicSimilarity], result of:
          0.16243234 = score(doc=4637,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.8572388 = fieldWeight in 4637, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.109375 = fieldNorm(doc=4637)
      0.125 = coord(1/8)
    
  3. Ernst, S.: Aspekte der Modellierung und Visualisierung von XML Topic Maps : die Entwicklung von Stylesheets zur Darstellung von Topic Maps in SVG (2004) 0.02
    0.017403465 = product of:
      0.13922772 = sum of:
        0.13922772 = weight(_text_:darstellung in 2216) [ClassicSimilarity], result of:
          0.13922772 = score(doc=2216,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.73477614 = fieldWeight in 2216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.09375 = fieldNorm(doc=2216)
      0.125 = coord(1/8)
    
  4. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.01
    0.014290807 = product of:
      0.114326455 = sum of:
        0.114326455 = weight(_text_:diagramm in 572) [ClassicSimilarity], result of:
          0.114326455 = score(doc=572,freq=2.0), product of:
            0.31793457 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.03419022 = queryNorm
            0.35959113 = fieldWeight in 572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
      0.125 = coord(1/8)
    
    Abstract
    Die Arbeit wird in zwei Hauptteile gegliedert. Der erste Teil besteht aus Kapiteln 1-5, in denen theoretische Grundlagen zum Thema Sprachidentifikation dargelegt werden. Das erste Kapitel beschreibt den Sprachidentifikationsprozess und definiert grundlegende Begriffe. Im zweiten und dritten Kapitel werden vorherrschende Ansätze zur Sprachidentifikation von monolingualen Dokumenten dargestellt und miteinander verglichen, indem deren Vor- und Nachteile diskutiert werden. Das vierte Kapitel stellt einige Arbeiten vor, die sich mit der Sprachidentifikation von multilingualen Texten befasst haben. Der erste Teil der Arbeit wird mit einem Überblick über die bereits entwickelten und im Internet verfügbaren Sprachidentifikationswerkzeuge abgeschlossen. Der zweite Teil der Arbeit stellt die Entwicklung des Sprachidentifikationssystems LangIdent dar. In den Kapiteln 6 und 7 werden die an das System gestellten Anforderungen zusammengefasst und die wichtigsten Phasen des Projekts definiert. In den weiterführenden Kapiteln 8 und 9 werden die Systemarchitektur und eine detaillierte Beschreibung ihrer Kernkomponenten gegeben. Das Kapitel 10 liefert ein statisches UML-Klassendiagramm mit einer ausführlichen Erklärung von Attributen und Methoden der im Diagramm vorgestellten Klassen. Das nächste Kapitel befasst sich mit den im Prozess der Systementwicklung aufgetretenen Problemen. Die Bedienung des Programms wird im Kapitel 12 beschrieben. Im letzten Kapitel der Arbeit wird die Systemevaluierung vorgestellt, in der der Aufbau und Umfang von Trainingskorpora sowie die wichtigsten Ergebnisse mit der anschließenden Diskussion präsentiert werden.
  5. Nagelschmidt, M.: Verfahren zur Anfragemodifikation im Information Retrieval (2008) 0.01
    0.012306109 = product of:
      0.09844887 = sum of:
        0.09844887 = weight(_text_:darstellung in 2774) [ClassicSimilarity], result of:
          0.09844887 = score(doc=2774,freq=4.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.5195652 = fieldWeight in 2774, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
      0.125 = coord(1/8)
    
    Abstract
    Für das Modifizieren von Suchanfragen kennt das Information Retrieval vielfältige Möglichkeiten. Nach einer einleitenden Darstellung der Wechselwirkung zwischen Informationsbedarf und Suchanfrage wird eine konzeptuelle und typologische Annäherung an Verfahren zur Anfragemodifikation gegeben. Im Anschluss an eine kurze Charakterisierung des Fakten- und des Information Retrieval, sowie des Vektorraum- und des probabilistischen Modells, werden intellektuelle, automatische und interaktive Modifikationsverfahren vorgestellt. Neben klassischen intellektuellen Verfahren, wie der Blockstrategie und der "Citation Pearl Growing"-Strategie, umfasst die Darstellung der automatischen und interaktiven Verfahren Modifikationsmöglichkeiten auf den Ebenen der Morphologie, der Syntax und der Semantik von Suchtermen. Darüber hinaus werden das Relevance Feedback, der Nutzen informetrischer Analysen und die Idee eines assoziativen Retrievals auf der Basis von Clustering- und terminologischen Techniken, sowie zitationsanalytischen Verfahren verfolgt. Ein Eindruck für die praktischen Gestaltungsmöglichkeiten der behandelten Verfahren soll abschließend durch fünf Anwendungsbeispiele vermittelt werden.
  6. Müller, M.: ¬Das Fremde und die Medien : interkulturelle Vergleiche der Darstellung von Ethnizität im öffentlich-rechtlichen Fernsehen und deren Rezeption in den Metropolen Hamburg und Sydney (2004) 0.01
    0.0116023095 = product of:
      0.092818476 = sum of:
        0.092818476 = weight(_text_:darstellung in 3717) [ClassicSimilarity], result of:
          0.092818476 = score(doc=3717,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.48985076 = fieldWeight in 3717, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0625 = fieldNorm(doc=3717)
      0.125 = coord(1/8)
    
  7. Maier, A.; Peters, A.: Entwicklung eines interaktiven dynamischen semantischen Netzes mit multimedialen Informationsobjekten am Beispiel eines wissenschaftlichen digitalen Schriftarchivs (2004) 0.01
    0.0116023095 = product of:
      0.092818476 = sum of:
        0.092818476 = weight(_text_:darstellung in 4732) [ClassicSimilarity], result of:
          0.092818476 = score(doc=4732,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.48985076 = fieldWeight in 4732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
      0.125 = coord(1/8)
    
    Abstract
    Im ersten Teil wird eine Idee zur Darstellung von Informationen und deren Beziehungen in einem semantischen Netzwerk beschrieben. Eine mögliche Realisierung der Idee wird an einem Beispiel gezeigt. Im zweiten Teil wird beschrieben, wie die Informationsobjekte, die in einem Bild enthalten sind, mit zusätzlichen multimedialen Informationen versehen werden können. Als Informationsbestand diente ein digitales Schriftarchiv, das im Rahmen des Forschungsprojektes "Hebräische Typographie im deutschsprachigen Raum" entstanden wurde.
  8. Trunk, D.: Inhaltliche Semantische Netze in Informationssystemen : Verbesserung der Suche durch Interaktion und Visualisierung (2005) 0.01
    0.010152021 = product of:
      0.08121617 = sum of:
        0.08121617 = weight(_text_:darstellung in 790) [ClassicSimilarity], result of:
          0.08121617 = score(doc=790,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.4286194 = fieldWeight in 790, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
      0.125 = coord(1/8)
    
    Abstract
    Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Sie bestehen aus relationierten Begriffen und helfen dem Nutzer, das richtige Vokabular zur Fragebildung zu finden. Eine leicht und intuitiv erfassbare Darstellung und eine interaktive Bedienungsmöglichkeit optimieren den Suchprozess mit der Begriffsstruktur. Als Interaktionsform bietet sich Hypertext mit seinem Point- und Klickverfahren an. Die Visualisierung erfolgt als Netzstruktur aus Punkten und Linien. Es werden die Anwendungsbeispiele Wissensnetz im Brockhaus multimedial, WordSurfer der Firma BiblioMondo, SpiderSearch der Firma BOND und Topic Maps Visualization in dandelon.com und im Portal Informationswissenschaft der Firma AGI - Information Management Consultants vorgestellt.
  9. Boltzendahl, S.: Ontologien in digitalen Bibliotheken unter dem Schwerpunkt Inhaltserschliessung und Recherche (2004) 0.01
    0.010047896 = product of:
      0.08038317 = sum of:
        0.08038317 = weight(_text_:darstellung in 1414) [ClassicSimilarity], result of:
          0.08038317 = score(doc=1414,freq=6.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.42422324 = fieldWeight in 1414, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=1414)
      0.125 = coord(1/8)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit Anwendungsmöglichkeiten von "formalen Ontologien" in digitalen Bibliotheken. Der Schwerpunkt liegt dabei auf der Inhaltserschließung und der Recherche, also dem Information Retrieval. Ontologien sind neuere Entwicklungen der künstlichen Intelligenz, die es sich zur Aufgabe gemacht haben, die Semantik elektronisch gespeicherter Daten zu beschreiben. Sie versprechen, damit angesichts einer steigenden Informationsflut" weltweiter Vemetzung und einem auch wirtschaftlich immer wichtiger werdenden Zugang zu und Austausch von Information und Wissen intelligente Lösungen zu liefern. Durch die Darstellung von gegenstandsbezogenem Wissen sollen mit Hilfe von Ontologien semantische Heterogenität behandelt und Integriert, intelligente Recherchemöglichkeiten auch für große Datenmengen eröffnet und damit Lösungen v.a. für das Wissensmanagement geboten werden. In dieser Arbeit soll der Frage nachgegangen werden, was unter Ontologien in diesem Sinne zu verstehen ist, wie sie in digitalen BIbliotheken als neuen Informationssystemen eingesetzt werden können und was sie im Verhältnis zu herkömmlichen Hilfsmitteln im Information Retrieval leisten. Dafür soll zunächst erläutert werden, was formale Ontologien sind und wo und zu welchen Zwecken sie eingesetzt werden können (Kapitel 2). Im darauf folgenden Kapitel sollen zunächst Anforderungen an das Information Retrieval in digitalen Bibliotheken skizziert werden und mögliche Einsatzbereiche von Ontologien aufgezeigt werden (Kapitel 3). Dieses Kapitel wird durch Beispiele von konkreten Projekten, die Ontologien in digitalen Bibliotheken einsetzen, ergänzt. Schließlich sollen in Kapitel 4 Ontologien in Beziehung gesetzt werden zu herkömmlichen dokumentarischen Hilfsmitteln der Inhaltserschließung und Recherche, v.a. dem Thesaurus. Bei dieser Darstellung kann es sich nur um einen allgemeinen Überblick über den Themenbereich handeln, eine genauere Darstellung würde den Rahmen dieser Arbeit sprengen. Auf einige Probleme und mögliche Untersuchungsbereiche" die sich für den Einsatz von Ontologien in digitalen Bibliotheken stellen, soll jedoch noch am Schluss dieser Arbeit (Kapitel 5) hingewiesen werden. Auf besondere Ansätze z.B. in der Thesaurusforschung (wie z.B. einem "semiotischen Thesaurus" (vgl. Schwarz/Umstätter) kann in diesem Rahmen nicht eingegangen werden.
  10. Mikosch, M.: Relevance Ranking in Bibliothek-OPACs : ein aktueller Überblick (2008) 0.01
    0.008701732 = product of:
      0.06961386 = sum of:
        0.06961386 = weight(_text_:darstellung in 5999) [ClassicSimilarity], result of:
          0.06961386 = score(doc=5999,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.36738807 = fieldWeight in 5999, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=5999)
      0.125 = coord(1/8)
    
    Abstract
    Die Suchmaschinentechnologie der Internetsuchmaschinen wie Google und Yahoo haben die Erwartungen der Benutzer von Bibliotheks OPACs verändert. Relevance Ranking Sortierung bei der Ausgabe von Trefferlisten wird von den Benutzern vermehrt als normal angesehen. Bibliotheks-OPACs sind durch die Erwartungen der Benutzer im Zugzwang, sich den Erwartungen anzupassen. Bibliotheken, die damit begonnen haben Relevance Ranking in ihr System zu implementieren, verwenden dabei verschiedene Lösungsansätze. Sowohl die Darstellung als auch die Funktionalität ist ungleich und noch im Stadium der Erprobung und Entwicklung. Die Kataloganreicherung durch Inhaltsverzeichnisse und Abstracts geht tendenziell mit der effektiven Nutzung von bekannten Relevance Ranking Algorithmen in der Umgebung der Bibliotheks-OPACs einher. Um mit den Erwartungen der Benutzer, die sich durch die Nutzung der Internetsuchmaschinen ändern, müssen Bibliotheken sich der Aufgabe stellen, neue Funktionen in ihre OPACs zu implementieren ohne dabei die Hauptfunktionen des OPACs zu behindern.
  11. Schönauer, S.: Wissensmanagement im Fokus kommunikativer Prozesse (2003) 0.01
    0.008204073 = product of:
      0.06563258 = sum of:
        0.06563258 = weight(_text_:darstellung in 3407) [ClassicSimilarity], result of:
          0.06563258 = score(doc=3407,freq=4.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.3463768 = fieldWeight in 3407, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=3407)
      0.125 = coord(1/8)
    
    Abstract
    Der Untersuchungsgegenstand dieser Arbeit umfasst sowohl die theoretischen Konzepte zum Management von Wissen, als auch die Möglichkeit der Integration neuer Informations- und Kommunikationstechnologien in den Prozess des Wissensmanagements. Da eine kritische Betrachtung von Wissensmanagementkonzepten ohne der grundsätzlichen Darstellung des ökonomischen Umfeldes, sowie der Klärung der Frage, welche Faktoren die Entstehung von Wissen beeinflussen nicht möglich ist, werden im Rahmen dieser Arbeit auch diese Aspekte betrachtet. In Bezug auf die Integration neuer Informations- und Kommunikationstechnologien müssen neben den grundsätzlichen Charakteristika dieser Technologien auch die Bedeutung von Kommunikation und Information im Kontext des ökonomischen Systems, als auch im Kontext von Wissen untersucht werden. Aus der grundsätzlichen Darstellung der Zusammenhänge von Kommunikation und Wissen und der Bedeutung von Wissen für die Wirtschaft lassen sich einige grundlegende Anforderungen an das Management von Wissen stellen, anhand derer das Wissensmanagement untersucht wird. Eine Analyse der Charakteristika neuer Informations- und Kommunikationstechnologien und der Bedeutung von Kommunikation für die Wissensgenerierung können Hinweise darauf geben, welche Wissensmanagementkonzepte dem Untersuchungsgegenstand Wissen gerecht werden und welche Relevanz neue Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement haben.
  12. May, M.: Fachspezifische Vermittlung von Informationskompetenz in der Universität : Umsetzung und Akzeptanz am Beispiel des Faches Biologie der TU Darmstadt (2008) 0.01
    0.007251444 = product of:
      0.05801155 = sum of:
        0.05801155 = weight(_text_:darstellung in 1405) [ClassicSimilarity], result of:
          0.05801155 = score(doc=1405,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.30615672 = fieldWeight in 1405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1405)
      0.125 = coord(1/8)
    
    Abstract
    Die vorliegende Arbeit untersucht am Beispiel des Studienfaches Biologie an der TU Darmstadt die Möglichkeiten der Vermittlung fachspezifischer Informationskompetenz als integralem Bestandteil der neuen Bachelor-Studiengänge durch die ULB Darmstadt und die Akzeptanz dieser Vermittlung durch die Professoren des Fachbereichs Biologie. Grundlage der Untersuchung bilden eine Einführung in die Entwicklung der Vermittlung von Informationskompetenz im Bibliothekswesen, eine Darstellung der spezifischen Anforderungen des Faches Biologie an die Vermittlung von Informationskompetenz, eine Beschreibung der Veranstaltungen zur Vermittlung dieser Schlüsselqualifikation im Fachbereich Biologie der TUD und eine Darlegung der Aktivitäten der ULB Darmstadt zur Vermittlung von Informationskompetenz sowie insbesondere die Ergebnisse leitfadengestützter qualitativer Interviews, die mit den Professorinnen und Professoren des Fachbereichs Biologie durchgeführt wurden. Die Ergebnisse der Untersuchung zeigen deutlich, dass Informationskompetenz nicht nur von den Bibliothekaren, sondern auch von den Professorinnen und Professoren als unabdingbare Schlüsselqualifikation für Studium und Forschung angesehen wird. Es wird festgestellt, welche Schulungszeitpunkte und -modelle von den Professorinnen und Professoren favorisiert werden. Die Ergebnisse zeigen aber auch die Schwierigkeiten bei der Vermittlung fachspezifischer Informationskompetenz in dem naturwissenschaftlichen Fach Biologie auf und lassen Probleme der Professorinnen und Professoren bei der Akzeptanz der Vermittlung durch die Bibliothek erkennen. Es wird notwendig sein, bei der Vermittlung von Informationskompetenz eine enge inhaltliche Verbindung zur universitären Lehre des Faches Biologie herzustellen.
  13. Klasing, M.: Crosskonkordanzen als Möglichkeit zur Heterogenitätsbehandlung : dargestellt am Projekt CrissCross (2008) 0.01
    0.007251444 = product of:
      0.05801155 = sum of:
        0.05801155 = weight(_text_:darstellung in 2460) [ClassicSimilarity], result of:
          0.05801155 = score(doc=2460,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.30615672 = fieldWeight in 2460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
      0.125 = coord(1/8)
    
    Abstract
    In Zeiten, in denen der schnelle und einfache Zugriff auf strukturierte und umfangreiche Datenbestände zunehmend an Bedeutung gewinnt, stellt die Heterogenität eben dieser Bestände ein großes Problem dar. Die meisten Bibliothekskataloge, Datenbanken usw. sind inhaltlich durch unterschiedliche Instrumente erschlossen, was für den Benutzer eine gewisse Einarbeitungszeit in jedes Erschließungsinstrument sowie die Notwendigkeit zur wiederholten und neu formulierten Suche in den unterschiedlich erschlossenen Datenbeständen bedeutet. Als Möglichkeit zur Behandlung der Heterogenitätsproblematik kommen beispielsweise Crosskonkordanzen in Betracht, durch welche semantisch übereinstimmende Schlagwörter, Deskriptoren bzw. Notationen verschiedener Erschließungsinstrumente intellektuell miteinander verbunden werden, so dass mit identischer Suchfrage mehrere unterschiedlich erschlossene Datenbestände durchsucht werden können. In der vorliegenden Arbeit soll die Problematik heterogener Datenbestände sowie die Behandlungsmöglichkeit durch Crosskonkordanzen beschrieben werden. Die konkretisierende Darstellung erfolgt anhand des Projektes CrissCross, einem gemeinschaftlichen Projekt der Deutschen Nationalbibliothek und der Fachhochschule Köln, in dem Crosskonkordanzen zwischen den Erschließungsinstrumenten SWD, DDC sowie LCSH und RAMEAU erstellt werden. Besonderheiten des Projektes CrissCross sind neben der Multilingualität und der Verbindung von verbalen und klassifikatorischen Erschließungsinstrumenten auch eine intellektuelle Gewichtung der Beziehungsstärke zweier verknüpfter Terme, die so genannte Determiniertheit. Neben den integrierten Erschließungsinstrumenten wird auch die konkrete Vorgehensweise ihrer Verbindung erläutert. Des Weiteren werden die Problemfelder des Projektes und im Besonderen denkbare Einsatzmöglichkeiten der Projektergebnisse vorgestellt, die wesentlich zur Lösung der Heterogenitätsproblematik und somit zu einer Verbesserung des Retrievals für den Benutzer beitragen können.
  14. Faden, M.: ¬Der Einsatz eines WIKIs als zentrales Kommunikationsinstrument für die Thesauruspflege an verteilten Bibliotheksstandorten (2007) 0.01
    0.007251444 = product of:
      0.05801155 = sum of:
        0.05801155 = weight(_text_:darstellung in 2824) [ClassicSimilarity], result of:
          0.05801155 = score(doc=2824,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.30615672 = fieldWeight in 2824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2824)
      0.125 = coord(1/8)
    
    Abstract
    Mit dieser Arbeit wird untersucht, welche Möglichkeiten und Vorteile ein Wiki bei der Pflege und Weiterentwicklung eines Thesaurus bietet. Als Basis für diese Arbeit wird ein entsprechendes Wiki, der Standard-Thesaurus Wirtschaft (STW) und Einrichtungen an verschiedenen Standorten, die mit dem STW arbeiten (das sog. STW-Konsortium) herangezogen. Um die Untersuchungsergebnisse zu präsentieren und zu belegen, wird parallel dazu der Prototyp "Wikisaurus oeconomicus" entwickelt; er ist die praktische Umsetzung der hier beschriebenen Möglichkeiten und wird im Internet zur Verfügung gestellt. Die Arbeit gliedert sich in zwei wesentliche Bereiche. Zuerst wird in einem kurzen Abriss die Entwicklungsgeschichte der Dokumentationssprachen, insbesondere von Thesauri, im 20. Jhd. beschrieben. Darauf aufbauend folgt die Darstellung der Genese und der Struktur des STW sowie dessen Pflege und Weiterentwicklung. Der zweite Teil widmet sich dann dem eigentlichen Untersuchungsgegenstand: Um diesen sinnvoll vor- und darstellen zu können, erfolgt eine Einführung in die, zugegebenermaßen kurze Geschichte der WikiWelt. Dazu wird noch die Software MediaWiki, deren Möglichkeiten sowie die Theorie der Zusammenarbeit in Wikis beschrieben. Danach wird ein möglicher Einsatz von Wikitechnik bei der Pflege und Weiterentwicklung des STW beschrieben. Wie oben schon erwähnt, wird zur Präsentation der Ergebnisse im Inter-net, der Prototyp "Wikisaurus oeconomicus" entwickelt. Neben der reinen Präsentation soll so auch ein (exemplarischer) Eindruck über die Praktikabilität und Anwendbarkeit der Wiki-technik vermittelt werden.
  15. Parsian, D.: Überlegungen zur Aufstellungssystematik und Reklassifikation an der Fachbereichsbibliothek Afrikawissenschaften und Orientalistik (2007) 0.01
    0.007251444 = product of:
      0.05801155 = sum of:
        0.05801155 = weight(_text_:darstellung in 3396) [ClassicSimilarity], result of:
          0.05801155 = score(doc=3396,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.30615672 = fieldWeight in 3396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3396)
      0.125 = coord(1/8)
    
    Abstract
    Der praktische Einsatz der Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung sowie als Aufstellungssystematik in wissenschaftlichen Bibliotheken des deutschen Sprachraums hat wenig Tradition und wurde bisher von der Literatur kaum aufgearbeitet. Nach einer Darstellung der Rahmenbedingungen und der Problemlage in der Fachbereichsbibliothek Afrikanistik/Orientalistik der Universität Wien, gibt der Autor einen Überblick über die Erfahrungen mit und die Einschätzung von DDC in vergleichbaren wissenschaftlichen Bibliotheken vor allem im deutschen und englischen Sprachraum, definiert Kriterien für eine neue Systematik und klärt inwieweit diese mit dem Einsatz von DDC erfüllbar sind. Ausgehend von den quantitativen und räumlichen Rahmenbedingungen und der Segmentierung des Bestandes im Hinblick auf die Erfordernisse der Reklassifikation, sowie auf der Basis eigener Erfahrungen und Plausibilitätsprüfungen schätzt der Autor anhand von drei Varianten den nötigen Personal- und Zeitaufwand für den Einsatz von DDC im Rahmen eines Reklassifizierungsprojektes. Abschließend enthält die vorliegende Arbeit praktische Erfahrungen im Umgang mit der DDC am Beispiel des Themenbereiches "Islamwissenschaft", durch die auf einige Besonderheiten und Probleme bei der Verwendung von DDC für die Reklassifizierung hingewiesen wird.
  16. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.01
    0.007251444 = product of:
      0.05801155 = sum of:
        0.05801155 = weight(_text_:darstellung in 4283) [ClassicSimilarity], result of:
          0.05801155 = score(doc=4283,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.30615672 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
      0.125 = coord(1/8)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
  17. Frommeyer, J.: Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken : eine Analyse von RSWK, LCSH und RAMEAU sowie Entwicklung eines theoretischen Modells für ein Zeitretrieval (2003) 0.01
    0.006279935 = product of:
      0.05023948 = sum of:
        0.05023948 = weight(_text_:darstellung in 2203) [ClassicSimilarity], result of:
          0.05023948 = score(doc=2203,freq=6.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.26513952 = fieldWeight in 2203, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2203)
      0.125 = coord(1/8)
    
    Footnote
    Rez. in: ZfBB 50(2003) H.5, S.295-297 (E. Scheven):"In ihrem Buch »Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken« entwickelt die Autorin ein theoretisches Modell für ein Zeitretrieval in allgemeinbibliografischen Datenbanken. Dafür untersucht sie die Verwendung von Zeitbegriffen (Epochenbezeichnungen, historiografischen Begriffen) und Zeitcodierungen (Jahreszahlen, Datumsangaben) bei der Indexierung von Dokumenten in allgemeinbibliografischen Datenbanken und deren Retrievalmöglichkeiten. Durch Globalisierung und Internet ist der Zugang zu den Katalogen unterschiedlichster lnstitutionen weit überdie Landesgrenzen hinaus möglich geworden. Dadurch ist der Zwang zur Standardisierung der bibliothekarischen Regeln weltweit verschärft, um Daten-Interoperabilität zu gewährleisten. Hauptziel der Sacherschließung muss immer die optimale Befriedigung der Benutzerbedürfnisse sein. - Kompetente Einführung - Nach einer kurzen geschichtlichen Darstellung der Zeitrechnung an sich und der bibliothekarischen Regelentwicklung wendet sich die Autorin den wichtigsten Sacherschließungswerkzeugen der westlichen WeIt zu, zum einen den beiden internationalen Universalklassifikationen, DDC und UDK, und zum anderen den drei Schlagwortsystemen LCSH, Rameau und SWD,wobei sieden Schwerpunkt auf die verbalen Sacherschließungssysteme legt. LCSH, Rameau und SWD mit RSWK werden kompetent und ausführlich in 164 von 316 Seiten mit ihrer Entwicklungsgeschichte und ihren Unterschieden dargestellt. Jutta Frommeyer ist hier eine gute vergleichende Einführung in die großen verbalen Sacherschließungssysteme gelungen und zwar nicht nur für Anfänger, sondern auch für praxis-erfahrene Sacherschließer. Die Darstellung von Zeitaspekten nach LCSH kann nach sechs verschiedenen Varianten erfolgen. Es gibt keine allgemeinen subdivisions für Zeitangaben. Rameau stimmt in seiner Struktur mit den LCSH überein, weicht aber bei der Indexierung bezüglich der subdivisions von den LCSH ab. Rameau hat eine allgemein zu verwendende Liste (subdivision) mit ca. 40 Unterteilungen für den Zeitaspekt. Nach RSWK wird der Zeitaspekt durch so genannte Zeitschlagwörter wiedergegeben, die wie auch bestimmte Formalschlagwörter durch Jahreszahlen erweitert werden können. Der im Dokument behandelte Zeitabschnitt wird für die Beschlagwortung herangezogen. Vorgegebene Zeituntergliederungen für bestimmte Themenbereiche wie bei LCSH und Rameau gibt es bei RSWK nicht. Zwischen den Schlagwortsystemen gibt es unterschiedliche Indexierungsregeln, wann ein Zeitschlagwort benutzt werden soll oder nicht.
    - Zum Schluss - Das Buch liest sich gut und ist übersichtlich gegliedert mit zehn Kapiteln und einem Anhang für verschiedene, den Zeitaspekt betreffende Hilfstabellen der vorgestellten Sacherschließungssysteme. Wo möglich und angebracht, insbesondere bei der Darstellung der Retrievalmöglichkeiten der untersuchten elektronischen Informationsmittel, werden zur Veranschaulichung Abbildungen eingesetzt. Allerdings sind der Qualität Grenzen gesetzt, weil im Schwarz-Druck ein ursprünglich farbiges Benutzer-Interface manchmal fast seine ganze Aussagekraft verliert. Hier wäre es wahrscheinlich besser gewesen, die benötigten Abbildungen vorher über ein Grafik-Programm in eine richtige Schwarz-Weiß-Abbildung umgesetzt zu haben. Das Literaturverzeichnis ist umfangreich und sehr übersichtlich gestaltet. Das Buch bietet denjenigen, die sich mit Sacherschließung oder OPAC-Entwicklung beschäftigen, wichtige Anregungen. Die Notwendigkeit von Sacherschließung gerade im Zeitalter der Globalisierung und des Internets bedeutet, dass bei der Weiterentwicklung von nationalen Regelwerken die internationalen Bedürfnisse berücksichtigt werden müssen. Es bleibt zu hoffen, dass die Ideen von Frau Frommeyer aufgegriffen, die deutsche Sprachgrenze überwunden und bei den Regelwerksdiskussionen und Formatentwicklungen international berücksichtigt werden."
  18. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.01
    0.0058011548 = product of:
      0.046409238 = sum of:
        0.046409238 = weight(_text_:darstellung in 548) [ClassicSimilarity], result of:
          0.046409238 = score(doc=548,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.24492538 = fieldWeight in 548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
      0.125 = coord(1/8)
    
    Content
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
  19. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.01
    0.0058011548 = product of:
      0.046409238 = sum of:
        0.046409238 = weight(_text_:darstellung in 861) [ClassicSimilarity], result of:
          0.046409238 = score(doc=861,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.24492538 = fieldWeight in 861, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
      0.125 = coord(1/8)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.
  20. Korves, J.: Seiten bewerten : Googles PageRank (2005) 0.01
    0.0058011548 = product of:
      0.046409238 = sum of:
        0.046409238 = weight(_text_:darstellung in 866) [ClassicSimilarity], result of:
          0.046409238 = score(doc=866,freq=2.0), product of:
            0.18948318 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03419022 = queryNorm
            0.24492538 = fieldWeight in 866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=866)
      0.125 = coord(1/8)
    
    Abstract
    Diese Seminararbeit widmet sich der Darstellung des PageRank-Algorithmus sowie der Erläuterung von Verbesserungen, durch die der Algorithmus schneller und effizienter wird. Hierzu werden dem Leser in Kapitel 2 zunächst einige Grundlagen nahe gebracht. Anschließend wird im Hauptteil dieser Ausarbeitung in Kapitel 3 detailliert auf den PageRank-Algorithmus sowie auf drei Weiterentwicklungen eingegangen, welche die Verarbeitungseffizienz des Grundalgorithmus so erhöhen, dass dadurch ein themenspezifisches Ranking ermöglicht werden könnte. Abschließend werden die Ergebnisse in Kapitel 4 zusammengefasst und ein Ausblick auf die Zukunft gegeben.