Search (46 results, page 1 of 3)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.28
    0.27660388 = product of:
      0.55320776 = sum of:
        0.13830194 = product of:
          0.41490582 = sum of:
            0.41490582 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.41490582 = score(doc=973,freq=2.0), product of:
                0.36912143 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043538682 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.41490582 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.41490582 = score(doc=973,freq=2.0), product of:
            0.36912143 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043538682 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.12
    0.12084456 = product of:
      0.24168912 = sum of:
        0.046100646 = product of:
          0.13830194 = sum of:
            0.13830194 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.13830194 = score(doc=5820,freq=2.0), product of:
                0.36912143 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043538682 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.19558847 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.19558847 = score(doc=5820,freq=4.0), product of:
            0.36912143 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043538682 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.5 = coord(2/4)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  3. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.12
    0.11525162 = product of:
      0.23050325 = sum of:
        0.05762581 = product of:
          0.17287743 = sum of:
            0.17287743 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.17287743 = score(doc=4997,freq=2.0), product of:
                0.36912143 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043538682 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.17287743 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.17287743 = score(doc=4997,freq=2.0), product of:
            0.36912143 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043538682 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.5 = coord(2/4)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  4. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.12
    0.11525162 = product of:
      0.23050325 = sum of:
        0.05762581 = product of:
          0.17287743 = sum of:
            0.17287743 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.17287743 = score(doc=4388,freq=2.0), product of:
                0.36912143 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043538682 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.17287743 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.17287743 = score(doc=4388,freq=2.0), product of:
            0.36912143 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043538682 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(2/4)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  5. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.12
    0.11525162 = product of:
      0.23050325 = sum of:
        0.05762581 = product of:
          0.17287743 = sum of:
            0.17287743 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.17287743 = score(doc=855,freq=2.0), product of:
                0.36912143 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043538682 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.17287743 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.17287743 = score(doc=855,freq=2.0), product of:
            0.36912143 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043538682 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.5 = coord(2/4)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  6. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.12
    0.11525162 = product of:
      0.23050325 = sum of:
        0.05762581 = product of:
          0.17287743 = sum of:
            0.17287743 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.17287743 = score(doc=1000,freq=2.0), product of:
                0.36912143 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043538682 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.17287743 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.17287743 = score(doc=1000,freq=2.0), product of:
            0.36912143 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043538682 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(2/4)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  7. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.11
    0.112574786 = product of:
      0.22514957 = sum of:
        0.20745291 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.20745291 = score(doc=563,freq=2.0), product of:
            0.36912143 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043538682 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.017696671 = product of:
          0.035393342 = sum of:
            0.035393342 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.035393342 = score(doc=563,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.09
    0.09220129 = product of:
      0.18440259 = sum of:
        0.046100646 = product of:
          0.13830194 = sum of:
            0.13830194 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.13830194 = score(doc=701,freq=2.0), product of:
                0.36912143 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043538682 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.13830194 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.13830194 = score(doc=701,freq=2.0), product of:
            0.36912143 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043538682 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Mair, M.: Increasing the value of meta data by using associative semantic networks (2002) 0.05
    0.046866912 = product of:
      0.18746765 = sum of:
        0.18746765 = weight(_text_:maschinelles in 4972) [ClassicSimilarity], result of:
          0.18746765 = score(doc=4972,freq=2.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.5342612 = fieldWeight in 4972, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
      0.25 = coord(1/4)
    
    Abstract
    Momentan verbreitete Methoden zur Strukturierung von Information können ihre Aufgabe immer schlechter befriedigend erfüllen. Der Grund dafür ist das explosive Wachstum menschlichen Wissens. Diese Diplomarbeit schlägt als einen möglichen Ausweg die Verwendung assoziativer semantischer Netzwerke vor. Maschinelles Wissensmanagement kann wesentlich intuitiver und einfacher benutzbar werden, wenn man sich die Art und Weise zunutze macht, mit der das menschliche Gehirn Informationen verarbeitet (im Speziellen assoziative Verbindungen). Der theoretische Teil dieser Arbeit diskutiert verschiedene Aspekte eines möglichen Designs eines semantischen Netzwerks mit assoziativen Verbindungen. Außer den Grundelementen und Problemen der Visualisierung werden hauptsächlich Verbesserungen ausgearbeitet, welche ein leistungsstarkes Arbeiten mit einem solchen Netzwerk erlauben. Im praktischen Teil wird ein Netzwerk-Prototyp mit den wichtigsten herausgearbeiteten Merkmalen implementiert. Die Basis der Applikation bildet der Hyperwave Information Server. Dieser detailiiertere Design-Teil gewährt tieferen Einblick in Software Requirements, Use Cases und teilweise auch in Klassendetails. Am Ende wird eine kurze Einführung in die Benutzung des implementierten Prototypen gegeben.
  10. Schaffner, V.: FRBR in MAB2 und Primo - ein kafkaesker Prozess? : Möglichkeiten der FRBRisierung von MAB2-Datensätzen in Primo exemplarisch dargestellt an Datensätzen zu Franz Kafkas "Der Process" (2011) 0.04
    0.04418655 = product of:
      0.1767462 = sum of:
        0.1767462 = weight(_text_:maschinelles in 907) [ClassicSimilarity], result of:
          0.1767462 = score(doc=907,freq=4.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.50370634 = fieldWeight in 907, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.03125 = fieldNorm(doc=907)
      0.25 = coord(1/4)
    
    Abstract
    FRBR (Functional Requirements for Bibliographic Records) ist ein logisches Denkmodell für bibliographische Datensätze, welches zur benutzerfreundlicheren Gestaltung von Browsing in Online-Bibliothekskatalogen herangezogen werden kann. Im Österreichischen Bibliothekenverbund (OBV) werden bibliographische Datensätze nach den Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB) erstellt und liegen im Datenformat MAB2 (Maschinelles Austauschformat für Bibliotheken) vor. Mit der Software Primo von Ex Libris, die 2009 implementiert wurde, besteht die Möglichkeit bibliographische Datensätze für die Anzeige neu aufzubereiten. Wie ausgehend von MAB2-Daten eine möglichst FRBR-konforme Datenpräsentation in Primo geleistet werden kann und welche Probleme sich dabei ergeben, ist die zentrale Fragestellung dieser Master Thesis. Exemplarisch dargestellt wird dies anhand von Datensätzen des Österreichischen Bibliothekenverbundes zu Franz Kafkas "Der Process". Im Fokus stehen drei Aspekte, welche im Zusammenhang mit FRBR, MAB2 und Primo als besonders problematisch und diskussionswürdig erscheinen: das Konzept des "Werkes", Expressionen als praxistaugliche Entitäten und Aggregate bzw. mehrbändig begrenzte Werke. Nach einer Einführung in das FRBR-Modell wird versucht einen idealen FRBRBaum zu Kafkas "Der Process" in seinen unterschiedlichen Ausprägungen (Übersetzungen, Verfilmungen, Textvarianten, Aggregate etc.) darzustellen: Schon hier werden erste Grenzen des Modells sichtbar. Daran anschließend werden Datensätze des OBV einer Analyse unterzogen, um die FRBRTauglichkeit von MAB2 und die Möglichkeit der FRBR keys in Primo zu beleuchten. Folgende Einschränkungen wurden deutlich: Die derzeitige Herangehensweise und Praxis der Formalerschließung ist nicht auf FRBR vorbereitet. Die vorliegenden Metadaten sind zu inkonsistent, um ein maschinelles Extrahieren für eine FRBR-konforme Datenpräsentation zu ermöglichen. Die Möglichkeiten des Werkclusterings und der Facettierung in Primo bieten darüber hinaus zwar einen Mehrwert für das Browsing in Trefferlisten, jedoch nur bedingt im FRBR-Sinne.
  11. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.03
    0.032609224 = product of:
      0.1304369 = sum of:
        0.1304369 = sum of:
          0.095043555 = weight(_text_:sehen in 1746) [ClassicSimilarity], result of:
            0.095043555 = score(doc=1746,freq=2.0), product of:
              0.24984509 = queryWeight, product of:
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.043538682 = queryNorm
              0.38040993 = fieldWeight in 1746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
          0.035393342 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
            0.035393342 = score(doc=1746,freq=2.0), product of:
              0.15246505 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043538682 = queryNorm
              0.23214069 = fieldWeight in 1746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Date
    22. 3.2015 9:17:30
  12. Richter, S.: ¬Die formale Beschreibung von Dokumenten in Archiven und Bibliotheken : Perspektiven des Datenaustauschs (2004) 0.03
    0.03124461 = product of:
      0.12497844 = sum of:
        0.12497844 = weight(_text_:maschinelles in 4982) [ClassicSimilarity], result of:
          0.12497844 = score(doc=4982,freq=2.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.35617417 = fieldWeight in 4982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.03125 = fieldNorm(doc=4982)
      0.25 = coord(1/4)
    
    Abstract
    Die Datenrecherche und der Zugriff auf Informationen wurde in den letzten Jahren durch Angebote im Internet erleichtert. Während im Bibliothekswesen bereits seit Jahrzehnten Erfahrungen durch die Verbundkatalogisierung im Bereich des Datenaustauschs gesammelt wurden, wurde eine kooperative Datenhaltung zwischen Archiven erst in den letzten Jahren begonnen. In dieser Arbeit wird der Frage nachgegangen, inwieweit Daten aus Archiven und Bibliotheken in gemeinsamen Datenpools angeboten werden können: Sind die Inhalte der verschiedenen Datenkategorien ähnlich genug, um sie zusammenfassen zu können? Welche Standards liegen den Daten zugrunde? Um diese Fragen beantworten zu können, werden zunächst die verschiedenen Regelwerke des Archivs- und Bibliothekswesens zur archivischen Verzeichnung bzw. der bibliographischen Beschreibung untersucht und anschließend die darauf fußenden Austauschformate. Folgende (Regel-) Werke werden in die Analyse integiert: Papritz: Die archivische Titelaufnahme bei Sachakten, die Ordnungs- und Verzeichnungsgrundsätze für die staatlichen Archive der Deutschen Demokratischen Republik (OVG-DDR), Internationale Grundsätze für die archivische Verzeichnung (ISAD(G)), das Handbuch für Wirtschaftsarchive, Praktische Archivkunde, die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB), die Anglo-American Cataloguing Rules (AACR), General International Standard Bibliographic Description (ISBD(G)) und für den Bereich der Nachlasserschließung als Schnittstelle zwischen Archiven und Bibliotheken die Ordnungs- und Verzeichnungsgrundsätze [des Goethe- und Schiller-Archivs] (OVG-GSA), König: Verwaltung und wissenschaftliche Erschließung von Nachlässen in Literaturarchiven sowie die Regeln zur Erschließung von Nachlässen und Autographen (RNA). Von den Datenaustauschformaten werden Encoded Archival Description (EAD), Maschinelles Austauschformat für Bibliotheken (MAB) und Machine Readable Cataloguing (MARC) vorgestellt. Die Analyse zeigt, dass Daten aus Archiven und Bibliotheken in einer gemeinsamen Datenmenge zur Verfügung gestellt werden können, um sie für eine spartenübergreifende Recherche nutzbar zu machen. Es muss aber eingeräumt werden, dass im Austauschformat für ähnliche Beschreibungselemente nicht identische Kategorienummern verwendet werden können, da hierfür die Inhalte der Kategorien zu stark differieren. Aus diesem Grund kann das MAB-Format auch nicht ohne weiteres für archivische Elemente verwendet werden: Entweder müsste das bestehende MAB-Schema an die Belange des Archivwesens angepasst werden oder es müsste ein neues Austauschformat generiert werden, da auch das internationale EAD-Format nicht ohne Änderungen auf die deutsche Verzeichnungstradition abgebildet werden kann. Insbesondere wäre sowohl innerhalb der Sparten Archiv- und Bibliothekswesen als auch darüber hinaus eine tiefere Diskussion um verbindliche Regelwerke und Austauschformate zu empfehlen.
  13. Stünkel, M.: Neuere Methoden der inhaltlichen Erschließung schöner Literatur in öffentlichen Bibliotheken (1986) 0.01
    0.011797781 = product of:
      0.047191124 = sum of:
        0.047191124 = product of:
          0.09438225 = sum of:
            0.09438225 = weight(_text_:22 in 5815) [ClassicSimilarity], result of:
              0.09438225 = score(doc=5815,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.61904186 = fieldWeight in 5815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5815)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    4. 8.2006 21:35:22
  14. Menges, T.: Möglichkeiten und Grenzen der Übertragbarkeit eines Buches auf Hypertext am Beispiel einer französischen Grundgrammatik (Klein; Kleineidam) (1997) 0.01
    0.010323058 = product of:
      0.04129223 = sum of:
        0.04129223 = product of:
          0.08258446 = sum of:
            0.08258446 = weight(_text_:22 in 1496) [ClassicSimilarity], result of:
              0.08258446 = score(doc=1496,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.5416616 = fieldWeight in 1496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1496)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 7.1998 18:23:25
  15. Schneider, A.: ¬Die Verzeichnung und sachliche Erschließung der Belletristik in Kaysers Bücherlexikon und im Schlagwortkatalog Georg/Ost (1980) 0.01
    0.010323058 = product of:
      0.04129223 = sum of:
        0.04129223 = product of:
          0.08258446 = sum of:
            0.08258446 = weight(_text_:22 in 5309) [ClassicSimilarity], result of:
              0.08258446 = score(doc=5309,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.5416616 = fieldWeight in 5309, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5309)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    5. 8.2006 13:07:22
  16. Sperling, R.: Anlage von Literaturreferenzen für Onlineressourcen auf einer virtuellen Lernplattform (2004) 0.01
    0.010323058 = product of:
      0.04129223 = sum of:
        0.04129223 = product of:
          0.08258446 = sum of:
            0.08258446 = weight(_text_:22 in 4635) [ClassicSimilarity], result of:
              0.08258446 = score(doc=4635,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.5416616 = fieldWeight in 4635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4635)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    26.11.2005 18:39:22
  17. Lenes, V.: ¬Ein Vergleich feministischer Thesauri am Beispiel der thesaurA und des Feministischen Thesaurus des FrauenMediaTurm (2002) 0.01
    0.00990037 = product of:
      0.03960148 = sum of:
        0.03960148 = product of:
          0.07920296 = sum of:
            0.07920296 = weight(_text_:sehen in 3318) [ClassicSimilarity], result of:
              0.07920296 = score(doc=3318,freq=2.0), product of:
                0.24984509 = queryWeight, product of:
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.043538682 = queryNorm
                0.31700826 = fieldWeight in 3318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3318)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen der virtuellen Lehrveranstaltung "Frauen in Bibliotheken und Informationseinrichtungen" wollte ich mich zunächst mit der Dewey Decimal Classification und dem feministischen Projekt von Hope A. Olson, der femDDC beschäftigen. Die DDC erhebt den Anspruch einer Universalklassifikation und wird im Großteil der amerikanischen Bibliotheken eingesetzt. Hope Olson versuchte in ihrem Projekt, die DDC dahingehend zu ergänzen und zu verändern, dass die DDC nicht länger Frauen unf Frauenthemen diskriminiert. Leider stellte sich bei der persönlichen Kontaktaufnahme mit Hope A. Olson heraus, dass das Projekt bis auf weiteres nicht fortgeführt wird und auch die bisher erzielten Ergebnisse nicht einsehbar sind. Ansonsten droht eine Klage von OCLC, den Rechtinhabern der DDC, die ihr Urheberrecht verletzt sehen. So entschloss ich mich vergleichbaren österreichischen bzw. deutschsprachigen Projekten zuzuwenden. In Europa ist die DDC nicht so stark verbreitet wie in den USA, deswegen führte meine Recherche weg von Klassifikationen, hin zur inhaltlichen Erschließung mittels Thesauri, Schlagwortnormdateien, etc. Ähnlich wie in der Aufstellungssystematik birgt auch die inhaltliche Erschließung die Gefahr der bewussten oder unbewussten Diskriminierung durch die BibliothekarInnen. Durch die Erschließung wird Literatur wiederauffindbar gemacht und zugeordnet, oder aber es geschieht das Gegenteil: Die beschlagworteten Dokumente werden unsichtbar gemacht oder "ghettoisiert". Im folgenden möchte ich die beiden deutschsprachigen, feministischen Thesauri, die dem obengenannten Problem entgegewirken möchten, vorstellen und vergleichen: die thesaurA und den feministischen Thesaurus des FrauenMediaTurm.
  18. Fischer, M.: Sacherschliessung - quo vadis? : Die Neuausrichtung der Sacherschliessung im deutschsprachigen Raum (2015) 0.01
    0.00990037 = product of:
      0.03960148 = sum of:
        0.03960148 = product of:
          0.07920296 = sum of:
            0.07920296 = weight(_text_:sehen in 2029) [ClassicSimilarity], result of:
              0.07920296 = score(doc=2029,freq=2.0), product of:
                0.24984509 = queryWeight, product of:
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.043538682 = queryNorm
                0.31700826 = fieldWeight in 2029, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2029)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Informationen werden heute von den meisten Menschen vor allem im World Wide Web gesucht. Bibliothekskataloge und damit die in den wissenschaftlichen Bibliotheken gepflegte intellektuelle Sacherschliessung konkurrieren dabei mit einfach und intuitiv zu benutzenden Suchmaschinen. Die Anforderungen an die thematische Recherche hat sich in den letzten Jahren durch die rasante Entwicklung der Informationstechnologie grundlegend verändert. Darüber hinaus sehen sich die Bibliotheken heute mit dem Problem konfrontiert, dass die zunehmende Flut an elektronischen Publikationen bei gleichzeitig abnehmenden Ressourcen intellektuell nicht mehr bewältigt werden kann. Vor diesem Hintergrund hat die Expertengruppe Sacherschliessung - eine Arbeitsgruppe innerhalb der Arbeitsstelle für Standardisierung der Deutschen Nationalbibliothek (DNB), in welcher Vertreterinnen und Vertreter der deutschsprachigen Bibliotheksverbünde repräsentiert sind - 2013 damit begonnen, sich mit der Neuausrichtung der verbalen Sacherschliessung zu befassen. Bei der aktuellen Überarbeitung der Regeln für den Schlagwortkatalog (RSWK) sollen die verbale und klassifikatorische Sacherschliessung, ebenso wie die intellektuelle und automatische Indexierung in einem Zusammenhang betrachtet werden. Neben der neuen Suchmaschinentechnologie und den automatischen Indexierungsmethoden gewinnt dabei vor allem die Vernetzung der Bibliothekskataloge mit anderen Ressourcen im World Wide Web immer mehr an Bedeutung. Ausgehend von einer Analyse der grundlegenden Prinzipien der international verbreiteten Normen und Standards (FRBR, FRSAD und RDA) beschäftige ich mich in meiner Masterarbeit mit der in der Expertengruppe Sacherschliessung geführten Debatte über die aktuelle Überarbeitung der RSWK. Dabei stellt sich insbesondere die Frage, welche Auswirkungen die rasante Entwicklung der Informationstechnologie auf die zukünftige Neuausrichtung der intellektuellen Sacherschliessung haben wird? Welche Rolle spielen in Zukunft die Suchmaschinen und Discovery Systeme, die automatischen Indexierungsverfahren und das Semantic Web bzw. Linked Open Data bei der inhaltlichen Erschliessung von bibliografischen Ressourcen?
  19. Chen, X.: Indexing consistency between online catalogues (2008) 0.01
    0.00990037 = product of:
      0.03960148 = sum of:
        0.03960148 = product of:
          0.07920296 = sum of:
            0.07920296 = weight(_text_:sehen in 2209) [ClassicSimilarity], result of:
              0.07920296 = score(doc=2209,freq=2.0), product of:
                0.24984509 = queryWeight, product of:
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.043538682 = queryNorm
                0.31700826 = fieldWeight in 2209, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2209)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    In der globalen Online-Umgebung stellen viele bibliographische Dienstleistungen integrierten Zugang zu unterschiedlichen internetbasierten OPACs zur Verfügung. In solch einer Umgebung erwarten Benutzer mehr Übereinstimmungen innerhalb und zwischen den Systemen zu sehen. Zweck dieser Studie ist, die Indexierungskonsistenz zwischen Systemen zu untersuchen. Währenddessen werden einige Faktoren, die die Indexierungskonsistenz beeinflussen können, untersucht. Wichtigstes Ziel dieser Studie ist, die Gründe für die Inkonsistenzen herauszufinden, damit sinnvolle Vorschläge gemacht werden können, um die Indexierungskonsistenz zu verbessern. Eine Auswahl von 3307 Monographien wurde aus zwei chinesischen bibliographischen Katalogen gewählt. Nach Hooper's Formel war die durchschnittliche Indexierungskonsistenz für Indexterme 64,2% und für Klassennummern 61,6%. Nach Rolling's Formel war sie für Indexterme 70,7% und für Klassennummern 63,4%. Mehrere Faktoren, die die Indexierungskonsistenz beeinflussen, wurden untersucht: (1) Indexierungsbereite; (2) Indexierungsspezifizität; (3) Länge der Monographien; (4) Kategorie der Indexierungssprache; (5) Sachgebiet der Monographien; (6) Entwicklung von Disziplinen; (7) Struktur des Thesaurus oder der Klassifikation; (8) Erscheinungsjahr. Gründe für die Inkonsistenzen wurden ebenfalls analysiert. Die Analyse ergab: (1) den Indexieren mangelt es an Fachwissen, Vertrautheit mit den Indexierungssprachen und den Indexierungsregeln, so dass viele Inkonsistenzen verursacht wurden; (2) der Mangel an vereinheitlichten oder präzisen Regeln brachte ebenfalls Inkonsistenzen hervor; (3) verzögerte Überarbeitungen der Indexierungssprachen, Mangel an terminologischer Kontrolle, zu wenige Erläuterungen und "siehe auch" Referenzen, sowie die hohe semantische Freiheit bei der Auswahl von Deskriptoren oder Klassen, verursachten Inkonsistenzen.
  20. Schiele, L.: Wie entsteht eine soziale Wirklichkeit? : Einstieg in die Sozialontologie von John Searle (2011) 0.01
    0.00990037 = product of:
      0.03960148 = sum of:
        0.03960148 = product of:
          0.07920296 = sum of:
            0.07920296 = weight(_text_:sehen in 5889) [ClassicSimilarity], result of:
              0.07920296 = score(doc=5889,freq=2.0), product of:
                0.24984509 = queryWeight, product of:
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.043538682 = queryNorm
                0.31700826 = fieldWeight in 5889, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5889)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    In der folgenden Arbeit werde ich die Sozialontologie John Searles genauer betrachten. Das Ziel seiner Ausarbeitungen besteht darin, das Problem der Sozialontologie zu klären, das heißt herauszufinden, wie Menschen "eine 'soziale' Wirklichkeit kreieren" (Searle 2009, S. 505). Unser Hauptaugenmerk wird hierbei auf den Gegenstand der Sozialontologie, also auf soziale Prozesse und Tatsachen, soziale Objekte und Ereignisse, gelenkt sein. Generell versucht Searle durch seine Ausführungen zu klären, inwiefern institutionelle soziale Phänomene "über die Sozialontologie hinausgehen, die bei sozialen Tieren vorliegt" (Searle 2009, S. 512). Seine Arbeit ist demnach ein Versuch zu erklären, durch welche Merkmale die menschliche Sozialontologie der tierischen überlegen ist. Searle nimmt die soziale Wirklichkeit als menschliches Konstrukt an, die nur dadurch existiert, weil wir glauben und akzeptieren, dass sie existiert. Was macht etwa ein bedrucktes Stück Papier zu einem Geldschein mit einem bestimmten Wert? Wieso kann ein Tier dieselbe physische Beschaffenheit eines Geldscheins betrachten wie ein Mensch, aber doch nicht den Geldschein, sondern nur das bedruckte Papier sehen? In diesem Zusammenhang werden wir auf die drei Grundformeln Searles zur Beschreibung der Grundstruktur der sozial-institutionellen Wirklichkeit stoßen, und hierzu die kollektive Intentionalität, Statuszuschreibung und konstitutive Regeln und Prozeduren näher betrachten. Es soll beschrieben werden, wie zum Beispiel ein bedrucktes Stück Papier durch Statuszuweisung eine gewisse Macht erzeugt.

Languages

  • d 35
  • e 10
  • hu 1
  • More… Less…

Types