Search (599 results, page 1 of 30)

  • × type_ss:"x"
  1. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.10
    0.102267124 = product of:
      0.20453425 = sum of:
        0.14885503 = weight(_text_:sprachen in 1746) [ClassicSimilarity], result of:
          0.14885503 = score(doc=1746,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.5637476 = fieldWeight in 1746, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.037831545 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.037831545 = score(doc=1746,freq=14.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.017847678 = product of:
          0.035695355 = sum of:
            0.035695355 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.035695355 = score(doc=1746,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  2. Düring, M.: ¬Die Dewey Decimal Classification : Entstehung, Aufbau und Ausblick auf eine Nutzung in deutschen Bibliotheken (2003) 0.07
    0.074368246 = product of:
      0.14873649 = sum of:
        0.087713666 = weight(_text_:sprachen in 2460) [ClassicSimilarity], result of:
          0.087713666 = score(doc=2460,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.33219144 = fieldWeight in 2460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.04614976 = weight(_text_:und in 2460) [ClassicSimilarity], result of:
          0.04614976 = score(doc=2460,freq=30.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.47420087 = fieldWeight in 2460, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.014873066 = product of:
          0.029746132 = sum of:
            0.029746132 = weight(_text_:22 in 2460) [ClassicSimilarity], result of:
              0.029746132 = score(doc=2460,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.19345059 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Die ständig steigende Zahl an publizierter Information in immer neuen Formen verlangt besonders von Informations- und Dokumentationseinrichtungen immer präzisere Lösungen zur Erschließung dieser Informationen und ihrer benutzerfreundlichen Aufbereitung. Besonders im derzeitigen Zeitalter der Datenbanken und Online-Kataloge ist die Kombination von verbaler und klassifikatorischer Sacherschließung gefordert, ohne dabei die Verbindung zu den älteren, vielerorts noch (zumindest zusätzlich) in Verwendung befindlichen, Zettelkatalogen zu verlieren. Weltweit ist eine Vielzahl an verschiedenen Klassifikationen im Einsatz. Die Wahl der für eine Einrichtung passenden Klassifikation ist abhängig von ihrer thematischen und informationellen Ausrichtung, der Größe und Art der Bestände und nicht zuletzt von technischen und personellen Voraussetzungen. Auf Seiten der zu wählenden Klassifikation sind die Einfachheit der Handhabung für den Bibliothekar, die Verständlichkeit für den Benutzer, die Erweiterungsfähigkeit der Klassifikation durch das Aufkommen neuer Wissensgebiete und die Einbindung in informationelle Netze mit anderen Einrichtungen von entscheidender Bedeutung. In dieser Arbeit soll die Dewey Dezimalklassifikation (DDC) hinsichtlich dieser Punkte näher beleuchtet werden. Sie ist die weltweit am häufigsten benutzte Klassifikation. Etwa 200.000 Bibliotheken in 135 Ländern erschließen ihre Bestände mit diesem System. Sie liegt derzeit bereits in der 22. ungekürzten Auflage vor und wurde bisher in 30 Sprachen übersetzt. Eine deutsche Komplettübersetzung wird im Jahre 2005 erscheinen. Trotz teils heftig geführter Standardisierungsdebatten und Plänen für die Übernahme von amerikanischen Formalerschließungsregeln herrscht in Bezug auf die Sacherschließung unter deutschen Bibliotheken wenig Einigkeit. Die DDC ist in Deutschland und anderen europäischen Ländern kaum verbreitet, sieht von Großbritannien und von der Verwendung in Bibliografien ab. Diese Arbeit geht demzufolge auf die historischen Gründe dieser Entwicklung ein und wagt einen kurzen Ausblick in die Zukunft der Dezimalklassifikation.
  3. Schmedemann, B.: Konzeption und beispielhafte Umsetzung der themenorientierten Aufstellung der Sachliteratur in der Stadtbücherei Elmshorn (2004) 0.07
    0.06978038 = product of:
      0.20934112 = sum of:
        0.16806352 = weight(_text_:einzelne in 3695) [ClassicSimilarity], result of:
          0.16806352 = score(doc=3695,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.6502892 = fieldWeight in 3695, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.078125 = fieldNorm(doc=3695)
        0.041277602 = weight(_text_:und in 3695) [ClassicSimilarity], result of:
          0.041277602 = score(doc=3695,freq=6.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.42413816 = fieldWeight in 3695, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3695)
      0.33333334 = coord(2/6)
    
    Abstract
    Um in der Stadtbücherei Elmshorn Teile der Sachliteratur auch nach Interessenkreisen oder in Kabinetten zu präsentieren, wird ein Konzept entwickelt, einzelne Aspekte (von Standortbestimmung, Medienbearbeitung bis Präsentation) werden modellhaft aufgearbeitet.
    Footnote
    Diplomarbeit im Studiengang Bibliotheks- und Informationsmanagement
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  4. Schmude, A.N.: Ontologiebasierte Suche und Navigation in webbasierten Informationssystemen : am Beispiel Bürgerinformationsdienste (2004) 0.06
    0.063517675 = product of:
      0.12703535 = sum of:
        0.06722541 = weight(_text_:einzelne in 4605) [ClassicSimilarity], result of:
          0.06722541 = score(doc=4605,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.26011568 = fieldWeight in 4605, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.033022083 = weight(_text_:und in 4605) [ClassicSimilarity], result of:
          0.033022083 = score(doc=4605,freq=24.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.33931053 = fieldWeight in 4605, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.026787855 = product of:
          0.05357571 = sum of:
            0.05357571 = weight(_text_:allgemein in 4605) [ClassicSimilarity], result of:
              0.05357571 = score(doc=4605,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.23221152 = fieldWeight in 4605, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4605)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Webbasierte Informationssysteme werden heute von einer Vielzahl unterschiedlicher Organisationen angeboten, mit ganz verschiedenen Zielsetzungen. Die technischen Herausforderungen bzgl. Datenhaltung, Pflege der Informationen und Anbindung an das Internet scheinen gelöst. Das Auffinden bestimmter Informationen stellt für viele Nutzer aber dennoch eine große Herausforderung dar. Das gilt für das WWW (WorldWide Web ) als Ganzes, wie auch für viele einzelne webbasierte Informationssysteme. Grund dafür sind im Wesentlichen die nach wie vor ungenügenden Benutzungs-schnittstellen. Heutig gängige webbasierte Informationssysteme bieten Nutzern meist neben einer Navigation die Möglichkeit, Informationen durch das Absenden einer Suchanfrage zu suchen. Beide Strategien, also die Suche und die Navigation, weisen jeweils eigene Probleme in der Umsetzung auf, die es verhindern, dass Nutzer die gewünschte Information einfach auffinden können. Oftmals werden Suchanfragen unspezifisch und allgemein gehalten vorgetragen. Wird eine solche Anfrage mit einer großen Zusammenstellung von Daten beantwortet, man denke nur an Suchergebnisse von Suchmaschinen mit tausenden Treffern, und damit tausenden von Nieten, kann sich schnell Frust einstellen. Aber auch heutige Navigationen sind nicht geeignet, es dem Nutzer so einfach wie möglich zu machen. Sie beschränken sich meist auf Begriffshierarchien. Der Informationsraum wird also in Ober- und Unterklassen gegliedert und die Informationsobjekte den Ebenen zugeordnet. Eine solche Aufteilung kann für den einen sinnvoll und verständlich sein, andere aber in die Irre führen. Zudem lassen sich Begriffe nur anhand zweier Beziehungen, nämlich Ober- und Unterbegriff, strukturieren. Begriffe und Konzepte vieler Themengebiete weisen aber weitere Beziehungen auf, wie "gehört zu", "arbeitet zusammen mit", "entwickelte" um nur ein paar Beispiele zu nennen. Semantische Netze bzw. Ontologien können eine solche Verknüpfung durch die Beschreibung ebendieser Beziehungen leisten. Die Ausgangsüberlegung dieser Arbeit ist es, die Strukturierung des Informationsraums mit Hilfe einer Ontologie vorzunehmen. Diese erweiterte Strukturierung soll sowohl für die Suche als auch für die Navigation genutzt werden, um die Auffindbarkeit von Information zu verbessern. Eine Suchfunktionalität müsste sich nicht mehr nur auf eine wortbasierte Suche verlassen, sondern könnte das Beziehungsgeflecht nutzen. Die Navigation wiederum könnte die Beziehungen explizit machen und dadurch Nutzern helfen, den Informationsraum zu verstehen und dadurch einfacher zielgerichtet zu der gewünschten Information zu navigieren. Als Untersuchungsgegenstand werden in dieser Arbeit Bürgerinformationssysteme betrachtet. Die Anwendungsdomäne webbasierte Bürgerinformation ist ausreichend komplex, um daran die oben angeführten Probleme untersuchen zu können. Heutige Bürgerinformationssysteme weisen, neben anderen Problemen, genau die oben beschriebenen Schwächen auf, wie sich zeigen wird.
  5. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.06
    0.056026682 = product of:
      0.16808005 = sum of:
        0.13948208 = product of:
          0.41844624 = sum of:
            0.41844624 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.41844624 = score(doc=973,freq=2.0), product of:
                0.37227118 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0439102 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.02859796 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.02859796 = score(doc=973,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  6. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.05
    0.046912767 = product of:
      0.1407383 = sum of:
        0.10634717 = weight(_text_:sprachen in 572) [ClassicSimilarity], result of:
          0.10634717 = score(doc=572,freq=6.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.40276074 = fieldWeight in 572, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.034391116 = weight(_text_:und in 572) [ClassicSimilarity], result of:
          0.034391116 = score(doc=572,freq=34.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.35337773 = fieldWeight in 572, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
      0.33333334 = coord(2/6)
    
    Abstract
    Identifikation der Sprache bzw. Sprachen elektronischer Textdokumente ist einer der wichtigsten Schritte in vielen Prozessen maschineller Textverarbeitung. Die vorliegende Arbeit stellt LangIdent, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten vor. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
    Die Arbeit wird in zwei Hauptteile gegliedert. Der erste Teil besteht aus Kapiteln 1-5, in denen theoretische Grundlagen zum Thema Sprachidentifikation dargelegt werden. Das erste Kapitel beschreibt den Sprachidentifikationsprozess und definiert grundlegende Begriffe. Im zweiten und dritten Kapitel werden vorherrschende Ansätze zur Sprachidentifikation von monolingualen Dokumenten dargestellt und miteinander verglichen, indem deren Vor- und Nachteile diskutiert werden. Das vierte Kapitel stellt einige Arbeiten vor, die sich mit der Sprachidentifikation von multilingualen Texten befasst haben. Der erste Teil der Arbeit wird mit einem Überblick über die bereits entwickelten und im Internet verfügbaren Sprachidentifikationswerkzeuge abgeschlossen. Der zweite Teil der Arbeit stellt die Entwicklung des Sprachidentifikationssystems LangIdent dar. In den Kapiteln 6 und 7 werden die an das System gestellten Anforderungen zusammengefasst und die wichtigsten Phasen des Projekts definiert. In den weiterführenden Kapiteln 8 und 9 werden die Systemarchitektur und eine detaillierte Beschreibung ihrer Kernkomponenten gegeben. Das Kapitel 10 liefert ein statisches UML-Klassendiagramm mit einer ausführlichen Erklärung von Attributen und Methoden der im Diagramm vorgestellten Klassen. Das nächste Kapitel befasst sich mit den im Prozess der Systementwicklung aufgetretenen Problemen. Die Bedienung des Programms wird im Kapitel 12 beschrieben. Im letzten Kapitel der Arbeit wird die Systemevaluierung vorgestellt, in der der Aufbau und Umfang von Trainingskorpora sowie die wichtigsten Ergebnisse mit der anschließenden Diskussion präsentiert werden.
    Imprint
    Hildesheim : Universität Hildesheim / Fachbereich III; Informations- und Kommunikationswissenschaften
  7. Fröhlich, T.: Vorüberlegungen zu einem Gesamtkatalog der Bibliotheken des Deutschen Archäologischen Instituts (DAI) (2001) 0.04
    0.042373925 = product of:
      0.12712178 = sum of:
        0.03336429 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.03336429 = score(doc=4980,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34282678 = fieldWeight in 4980, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4980)
        0.093757495 = product of:
          0.18751499 = sum of:
            0.18751499 = weight(_text_:allgemein in 4980) [ClassicSimilarity], result of:
              0.18751499 = score(doc=4980,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.8127403 = fieldWeight in 4980, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4980)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
    Theme
    Katalogfragen allgemein
  8. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.04
    0.041153707 = product of:
      0.12346111 = sum of:
        0.087713666 = weight(_text_:sprachen in 3194) [ClassicSimilarity], result of:
          0.087713666 = score(doc=3194,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.33219144 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.03574745 = weight(_text_:und in 3194) [ClassicSimilarity], result of:
          0.03574745 = score(doc=3194,freq=18.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3673144 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
      0.33333334 = coord(2/6)
    
    Abstract
    In dieser Untersuchung wurden zwei Systeme eingesetzt, um MWT aus einer Dokumentkollektion mit fachsprachlichem Bezug (Volltexte des ACL Anthology Reference Corpus) automatisch zu extrahieren. Das thematische Spektrum umfasste alle Bereiche der natürlichen Sprachverarbeitung, im Speziellen die CL als interdisziplinäre Wissenschaft. Ziel war es MWT zu extrahieren, die als potentielle Indexterme im IR Verwendung finden können. Diese sollten auf Konzepte, Methoden, Verfahren und Algorithmen in der CL und angrenzenden Teilgebieten, wie Linguistik und Informatik hinweisen bzw. benennen.
    Als Extraktionssysteme wurden der TreeTagger und die Indexierungssoftware Lingo verwendet. Der TreeTagger basiert auf einem statistischen Tagging- und Chunking- Algorithmus, mit dessen Hilfe NPs automatisch identifiziert und extrahiert werden. Er kann für verschiedene Anwendungsszenarien der natürlichen Sprachverarbeitung eingesetzt werden, in erster Linie als POS-Tagger für unterschiedliche Sprachen. Das Indexierungssystem Lingo arbeitet im Gegensatz zum TreeTagger mit elektronischen Wörterbüchern und einem musterbasierten Abgleich. Lingo ist ein auf automatische Indexierung ausgerichtetes System, was eine Vielzahl von Modulen mitliefert, die individuell auf eine bestimmte Aufgabenstellung angepasst und aufeinander abgestimmt werden können. Die unterschiedlichen Verarbeitungsweisen haben sich in den Ergebnismengen beider Systeme deutlich gezeigt. Die gering ausfallenden Übereinstimmungen der Ergebnismengen verdeutlichen die abweichende Funktionsweise und konnte mit einer qualitativen Analyse beispielhaft beschrieben werden. In der vorliegenden Arbeit kann abschließend nicht geklärt werden, welches der beiden Systeme bevorzugt für die Generierung von Indextermen eingesetzt werden sollte.
  9. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.04
    0.039851796 = product of:
      0.119555384 = sum of:
        0.1052564 = weight(_text_:sprachen in 4333) [ClassicSimilarity], result of:
          0.1052564 = score(doc=4333,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.39862972 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
        0.01429898 = weight(_text_:und in 4333) [ClassicSimilarity], result of:
          0.01429898 = score(doc=4333,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.14692576 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  10. Kaluza, H.: Methoden und Verfahren bei der Archivierung von Internetressourcen : "The Internet Archive" und PANDORA (2002) 0.04
    0.03861087 = product of:
      0.1158326 = sum of:
        0.06722541 = weight(_text_:einzelne in 973) [ClassicSimilarity], result of:
          0.06722541 = score(doc=973,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.26011568 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
        0.048607185 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.048607185 = score(doc=973,freq=52.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.49945155 = fieldWeight in 973, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
      0.33333334 = coord(2/6)
    
    Content
    "Die vorliegende Arbeit befasst sich mit den Methoden und Verfahren bei der Archivierung von Internetressourcen. Ziel ist es, anhand einer vergleichenden Beschreibung zweier zur Zeit aktiver, bzw. im Aufbau befindlicher Projekte, die Grundprobleme dieser speziellen Art der Archivierung darzustellen und deren unterschiedliche Vorgehensweisen beim Aufbau des Archivs zu beschreiben und zu vergleichen. Daraus erfolgt eine Diskussion über grundsätzliche Fragestellungen zu diesem Thema. Hierzu ist es vonnöten, zuerst auf das besondere Medium Internet, insbesondere auf das World Wide Web (WWW), einzugehen, sowie dessen Geschichte und Entstehung zu betrachten. Weiterhin soll ein besonderes Augenmerk auf die Datenmenge, die Datenstruktur und die Datentypen (hier vor allem im World Wide Web) gelegt werden. Da die daraus entstehenden Probleme für Erschließung und Retrieval, die Qualität und die Fluktuation der Angebote im Web eine wichtige Rolle im Rahmen der Archivierung von Internetressourcen darstellen, werden diese gesondert mittels kurzer Beschreibungen bestimmter Instrumente und Projekte zur Lösung derselben beschrieben. Hier finden insbesondere Suchmaschinen und Webkataloge, deren Arbeitsweise und Aufbau besondere Beachtung. Weiterhin sollen die "Virtuelle Bibliothek" und das "Dublin Core"- Projekt erläutert werden. Auf dieser Basis wird dann speziell auf das allgemeine Thema der Archivierung von Internetressourcen eingegangen. Ihre Grundgedanken und ihre Ziele sollen beschrieben und erste Diskussionsfragen und Diskrepanzen aufgezeigt werden. Ein besonderes Augenmerk gilt hier vor allem den technischen und rechtlichen Problemen, sowie Fragen des Jugendschutzes und der Zugänglichkeit zu mittlerweile verbotenen Inhalten. Einzelne Methoden der Archivierung, die vor allem im folgenden Teil anhand von Beispielen Beachtung finden, werden kurz vorgestellt. Im darauf folgenden Teil werden zwei Archivierungsprojekte detailliert beschrieben und analysiert. Einem einführenden Überblick über das jeweilige Projekt, folgen detaillierte Beschreibungen zu Projektverlauf, Philosophie und Vorgehensweise. Die Datenbasis und das Angebot, sowie die Funktionalitäten werden einer genauen Untersuchung unterzogen. Stärken und Schwächen werden genannt, und wenn möglich, untereinander verglichen. Hier ist vor allem auch die Frage von Bedeutung, ob das Angebot a) den Ansprüchen und Zielsetzungen des Anbieters genügt, und ob es b) den allgemeinen Grundfragen der Archivierung von Internetressourcen gleichkommt, die in Kapitel 3 genannt worden sind. Auf Basis aller Teile soll dann abschließend der derzeitige Stand im Themengebiet diskutiert werden. Die Arbeit schließt mit einer endgültigen Bewertung und alternativen Lösungen."
  11. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.04
    0.03550985 = product of:
      0.10652955 = sum of:
        0.06722541 = weight(_text_:einzelne in 4031) [ClassicSimilarity], result of:
          0.06722541 = score(doc=4031,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.26011568 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.039304134 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.039304134 = score(doc=4031,freq=34.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
      0.33333334 = coord(2/6)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  12. Schmidt, S.: Vergleich exemplarischer XML-Datenbanken in Konzeption, Anwendung und verfügbaren Schnittstellen in Abgrenzung zu relationalen, objektorientierten und XML fähigen Datenbanken (2004) 0.03
    0.034069054 = product of:
      0.10220716 = sum of:
        0.055328414 = weight(_text_:und in 3704) [ClassicSimilarity], result of:
          0.055328414 = score(doc=3704,freq=22.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.56851393 = fieldWeight in 3704, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3704)
        0.046878748 = product of:
          0.093757495 = sum of:
            0.093757495 = weight(_text_:allgemein in 3704) [ClassicSimilarity], result of:
              0.093757495 = score(doc=3704,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.40637016 = fieldWeight in 3704, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3704)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Unabhängigkeit von Plattformen und Fähigkeit, Daten verlustfrei über das Internet auszutauschen, verhalfen der eXtensible Markup Language (XML) zum Durchbruch mit der daraus resultierenden Forderung nach und Entwicklung von nativen XML-Datenbanken. Behandelt wird, in wie weit an native XML-Datenbanken bereits ein Standard gelegt werden kann und für welche Einsatzgebiete sie geeignet sind. Dies geschieht über die Definition von Datenbanken und Anfragesprachen allgemein, unter der Betrachtung von XML-fähigen Datenbanken und mittels Vergleich von Xindice, eXist, Tamino und Natix als exemplarischen XML-Datenbanken in Konzept, verfügbaren Features und Handhabbarkeit.
    Footnote
    Diplomarbeit im Studiengang Bibliotheks- und Informationsmanagement
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  13. Bierbach, P.: Wissensrepräsentation - Gegenstände und Begriffe : Bedingungen des Antinomieproblems bei Frege und Chancen des Begriffssystems bei Lambert (2001) 0.03
    0.032922965 = product of:
      0.09876889 = sum of:
        0.07017093 = weight(_text_:sprachen in 4498) [ClassicSimilarity], result of:
          0.07017093 = score(doc=4498,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.26575315 = fieldWeight in 4498, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
        0.02859796 = weight(_text_:und in 4498) [ClassicSimilarity], result of:
          0.02859796 = score(doc=4498,freq=18.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.29385152 = fieldWeight in 4498, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
      0.33333334 = coord(2/6)
    
    Abstract
    Die auf Basis vernetzter Computer realisierbare Möglichkeit einer universalen Enzyklopädie führt aufgrund der dabei technisch notwendigen Reduktion auf nur eine Sorte Repräsentanten zu Systemen, bei denen entweder nur Gegenstände repräsentiert werden, die auch Begriffe vertreten, oder nur Begriffe, die auch Gegenstände vertreten. In der Dissertation werden als Beispiele solcher Repräsentationssysteme die logischen Systeme von Gottlob Frege und Johann Heinrich Lambert untersucht. Freges System, basierend auf der Annahme der Objektivität von Bedeutungen, war durch die Nachweisbarkeit einer Antinomie gescheitert, weshalb von Philosophen im 20. Jahrhundert die Existenz einer objektiven Bedeutung von Ausdrücken und die Übersetzbarkeit der Gedanken aus den natürlichen Sprachen in eine formale Sprache in Frage gestellt wurde. In der Dissertation wird nachgewiesen, daß diese Konsequenz voreilig war und daß die Antinomie auch bei Annahme der Objektivität von Wissen erst durch zwei Zusatzforderungen in Freges Logik ausgelöst wird: die eineindeutige Zuordnung eines Gegenstands zu jedem Begriff sowie die scharfen Begrenzung der Begriffe, die zur Abgeschlossenheit des Systems zwingt. Als Alternative wird das Begriffssystem Lamberts diskutiert, bei dem jeder Gegenstand durch einen Begriff und gleichwertig durch Gesamtheiten von Begriffen vertreten wird und Begriffe durch Gesamtheiten von Begriffen ersetzbar sind. Beide die Antinomie auslösenden Bedingungen sind hier nicht vorhanden, zugleich ist die fortschreitende Entwicklung von Wissen repräsentierbar. Durch die mengentheoretische Rekonstruktion des Begriffssystems Lamberts in der Dissertation wird dessen praktische Nutzbarkeit gezeigt. Resultat der Dissertation ist der Nachweis, daß es Repräsentationssysteme gibt, die nicht auf die für die Prüfung der Verbindlichkeit der Einträge in die Enzyklopädie notwendige Annahme der Verobjektivierbarkeit von Wissen verzichten müssen, weil ihnen nicht jene die Antinomie auslösenden Voraussetzungen zugrunde liegen.
    Imprint
    Halle-Wittenberg : Fachbereich Geschichte, Philosophie und Sozialwissenschaften, Fachbereich Geschichte, Philosophie und Sozialwissenschaften
  14. Stelzenmüller, C.: Mashups in Bibliotheken : Untersuchung der Verbreitung von Mashups auf Webseiten wissenschaftlicher Bibliotheken und Erstellung eines praktischen Beispiels (2008) 0.03
    0.030568775 = product of:
      0.09170632 = sum of:
        0.038130615 = weight(_text_:und in 3069) [ClassicSimilarity], result of:
          0.038130615 = score(doc=3069,freq=8.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.39180204 = fieldWeight in 3069, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3069)
        0.05357571 = product of:
          0.10715142 = sum of:
            0.10715142 = weight(_text_:allgemein in 3069) [ClassicSimilarity], result of:
              0.10715142 = score(doc=3069,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.46442303 = fieldWeight in 3069, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3069)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Mashups können durch die Kombination von Daten einen Mehrwert gegenüber den ursprünglichen Informationsquellen bieten. Diese Arbeit stellt Mashups vor und zeigt, wie Bibliotheken Mashups bislang für sich nutzen. Des weiteren wird untersucht, wie verbreitet sie auf ausgewählten Websites wissenschaftlicher Bibliotheken sind. Abschließend wird anhand eines einfachen, praktischen Beispiels erläutert, wie ein Mashup realisiert werden kann, und welche Schritte dafür notwendig sind.
    Footnote
    Bachelor-Arbeit im Studiengang Bibliotheks- und Informationsmanagement an der Hochschule der Medien Stuttgart.
    Theme
    Katalogfragen allgemein
  15. Brocke, J. vom: Referenzmodellierung : Gestaltung und Verteilung von Konstruktionsprozessen (2003) 0.03
    0.03019185 = product of:
      0.090575546 = sum of:
        0.06722541 = weight(_text_:einzelne in 3414) [ClassicSimilarity], result of:
          0.06722541 = score(doc=3414,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.26011568 = fieldWeight in 3414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=3414)
        0.023350136 = weight(_text_:und in 3414) [ClassicSimilarity], result of:
          0.023350136 = score(doc=3414,freq=12.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.23992877 = fieldWeight in 3414, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3414)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Motivation dieser Arbeit entspringt praktischen Problemstellungen. So sind zur Bewältigung betriebswirtschaftlicher Probleme in zunehmendem Ausmaß Informationssysteme zu entwickeln, die zur Förderung der Wirtschaftlichkeit anhand von Informationsmodellen beschrieben werden. Dabei fällt auf, dass - obwohl die jeweils behandelten betriebswirtschaftliche Problemstellungen durchaus thematisch verwandt sind -, einzelne Entwicklungsprojekte kaum voneinander profitieren. Bedauerlich ist hierbei nicht allein der wiederholt zu betreibende Konstruktionsaufwand, sondern auch die Inkompatibilität der inter- und intraorganisational vorliegenden Ergebnisse. In der Theorie sind für derartige Probleme Referenzmodelle einzusetzen, in denen repräsentative Konstruktionsergebnisse so beschrieben werden, dass sie in einzelnen Konstruktionsprozessen von Informationsmodellen wieder verwendet werden können. In der Praxis jedoch scheint das "passende" Referenzmodell meist nicht vorzuliegen. Dies ist umso beachtlicher, da mittlerweile sowohl eine Vielzahl an Informationsmodellen als Referenzmodelle vorgeschlagen werden als auch im jungen Forschungsgebiet der Referenzmodellierung bereits Gestaltungsempfehlungen für die Konstruktion von Referenzmodellen erarbeitet wurden. Warum werden vorgeschlagene Referenzmodelle kaum verwendet und wie können Konstruktionsprozesse gestaltet werden, damit die theoretisch gegebenen Potenziale von Referenzmodellen auch praktisch genutzt werden? Antworten auf diese erkenntnisleitenden Fragen zu finden, bildete die Motivation der vorliegenden Forschungsarbeit. Im Zuge der Untersuchungen sind einige grundsätzliche Erkenntnisansätze sowie Gestaltungsstrategien sichtbar geworden: Die geringe Akzeptanz der Referenzmodelle erklärt sich zu einem großen Teil dadurch, dass bislang eine zu enge Sicht auf die Gestaltung ihrer Konstruktionsprozesse eingenommen wird. Arbeiten beschränken sich auf Beiträge zu methodenbezogenen Aspekten, während die Verwendung der Modelle auf pragmatischer Ebene fehlschlägt. Durch die Ausweitung dieser Sicht, vor allem auf organisationsbezogene Aspekte, werden erhebliche Verbesserungspotenziale durch eine Verteilung der Konstruktionsprozesse aufgezeigt. Eine solche Gestaltung folgt der Vorstellung, relevante Interessengruppen von Referenzmodellen durch Austausch- und Diskursprozesse kontinuierlich in die Entwicklung einzubeziehen, sodass ein bewährter Bestand an Modellen erzeugt und evolutionär an neue Anforderungen angepasst werden kann. Innovative Ansätze des Open Source und Component Based Software Engineering belegen das Erfolgspotenzial derartiger Gestaltungen, zeigen jedoch zugleich kritische Anforderungen an die Prozessgestaltung auf. Zur Erschließung dieser Potenziale für die Referenzmodellierung wird hier das Konzept der verteilten Referenzmodellierung eingeführt.
  16. Schneider, A.: ¬Die Verzeichnung und sachliche Erschließung der Belletristik in Kaysers Bücherlexikon und im Schlagwortkatalog Georg/Ost (1980) 0.03
    0.029609606 = product of:
      0.08882882 = sum of:
        0.04718423 = weight(_text_:und in 5309) [ClassicSimilarity], result of:
          0.04718423 = score(doc=5309,freq=4.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.4848303 = fieldWeight in 5309, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5309)
        0.041644584 = product of:
          0.08328917 = sum of:
            0.08328917 = weight(_text_:22 in 5309) [ClassicSimilarity], result of:
              0.08328917 = score(doc=5309,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.5416616 = fieldWeight in 5309, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5309)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    5. 8.2006 13:07:22
  17. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.03
    0.029258786 = product of:
      0.087776355 = sum of:
        0.061399568 = weight(_text_:sprachen in 4495) [ClassicSimilarity], result of:
          0.061399568 = score(doc=4495,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.232534 = fieldWeight in 4495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.026376786 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.026376786 = score(doc=4495,freq=20.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
      0.33333334 = coord(2/6)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
    Content
    Magisterarbeit am Institut für Publizistik und Kommunikationswissenschaft, Arbeitsbereich Informationswissenschaft, Fachbereich Philosophie und Sozialwissenschaften, Freie Universität Berlin
    Imprint
    Berlin : Institut für Publizistik und Kommunikationswissenschaft
  18. Umlauf, K.: Einführung in die Regeln für den Schlagwortkatalog RSWK : Mit Übungen (1999) 0.03
    0.029247163 = product of:
      0.08774149 = sum of:
        0.04086274 = weight(_text_:und in 4050) [ClassicSimilarity], result of:
          0.04086274 = score(doc=4050,freq=12.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.41987535 = fieldWeight in 4050, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4050)
        0.046878748 = product of:
          0.093757495 = sum of:
            0.093757495 = weight(_text_:allgemein in 4050) [ClassicSimilarity], result of:
              0.093757495 = score(doc=4050,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.40637016 = fieldWeight in 4050, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4050)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Einführung macht mit den Regeln für den Schlagwortkatalog RSWK (nach der 3. Aufl. 1998) bekannt. Die Grundregeln und die wichtigsten Regeln für die einzelnen Schlagwortkategorien einschließlich Sonderregeln für Kunst- und Bauwerke, Werke der Literatur und Rechtsmaterien werden dargestellt. Die Probleme bei verbaler Sacherschließung allgemein werden behandelt und hieraus Anforderungen an Regelwerke und ihre Anwendung abgeleitet. Die Anwendung der RSWK einschließlich der Anwendung in Verbünden und der Benutzung der Schlagwortnormdatei SWD werden umrissen. Kommentierte Literaturhinweise. Es folgen Übungen zur Beschlagwortung mit Hinweisen, wie die erfolgte Beschlagwortung überprüft werden kann
  19. Umlauf, K.: Einführung in die bibliothekarische Klassifikationstheorie und -praxis : Mit Übungen (1999-) 0.03
    0.028466377 = product of:
      0.08539913 = sum of:
        0.045217346 = weight(_text_:und in 1710) [ClassicSimilarity], result of:
          0.045217346 = score(doc=1710,freq=20.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.46462005 = fieldWeight in 1710, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1710)
        0.040181782 = product of:
          0.080363564 = sum of:
            0.080363564 = weight(_text_:allgemein in 1710) [ClassicSimilarity], result of:
              0.080363564 = score(doc=1710,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.34831727 = fieldWeight in 1710, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1710)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Einführung macht mit den Grundbegriffen der bibliothekarischen Klassifikationstheorie und -praxis sowie ausgewählten Bibliotheksklassifikationen bekannt. Eingangs wird die Problemstellung, für die Klassifikationen eine Lösung bieten sollen, umrissen. Dann werden anhand von Fragen die Aspekte zur Entwicklung und Beurteilung von Klassifikationen allgemein und Aufstellungssystematiken im Besonderen umrissen (Sachgerechtheit und Zielgruppenentsprechung, Gliederung, Schlüsselung und Normung, Notation, Klassenbeschreibung und Terminologie, Umfang und Erweiterbarkeit, Anwendungsregeln, Register). Auch organisatorische Aspekte der Anwendung von Klassifikationen werden umrissen. Kurz beschrieben werden ausgewählte Klassifikationen: Die internationale Dezimalklassifikation DK und die DDC, die Regensburger Verbundklassifikation RVK, die Basisklassifikation, die SfB, die KAB, die ASB. Es folgen ausgewählte Literaturhinweise. Ferner werden Übungen zum Klassifizieren ausgewählter Titel mit Hinweisen auf Möglichkeiten zur Selbstüberprüfung und zur Notationsrevision gegeben
  20. Stock, W.G.: Wissenschaftliche Informationen - metawissenschaftlich betrachtet : eine Theorie der wissenschaftlichen Information (1980) 0.03
    0.028060388 = product of:
      0.08418116 = sum of:
        0.03730241 = weight(_text_:und in 182) [ClassicSimilarity], result of:
          0.03730241 = score(doc=182,freq=10.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.38329202 = fieldWeight in 182, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=182)
        0.046878748 = product of:
          0.093757495 = sum of:
            0.093757495 = weight(_text_:allgemein in 182) [ClassicSimilarity], result of:
              0.093757495 = score(doc=182,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.40637016 = fieldWeight in 182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=182)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Thema der Untersuchung ist die meta-wissenschaftliche Betrachtung von Informationen in den Wissenschaften. ... Der grundlegende Term "Information" wird so allgemein definiert, daß alle bis heute bekannten Definitionsvarianten (die oftmasl disziplinspezifisch ausgerichtet sind) aus diesem Term ableitbar sind. "Information" wird dabei als das Gesamt von "Signal" (materieller Aspekt) und "Informen" (ideeller Aspekt) betrachtet.
    RSWK
    Information und Dokumentation (GBV)
    Information und Dokumentation / Theorie (BVB)
    Subject
    Information und Dokumentation (GBV)
    Information und Dokumentation / Theorie (BVB)

Languages

  • d 575
  • e 18
  • a 1
  • f 1
  • hu 1
  • More… Less…

Types

Themes

Subjects

Classifications