Search (68 results, page 1 of 4)

  • × type_ss:"x"
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.15
    0.15065345 = sum of:
      0.06608406 = product of:
        0.19825216 = sum of:
          0.19825216 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
            0.19825216 = score(doc=1000,freq=2.0), product of:
              0.4233006 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.04992923 = queryNorm
              0.46834838 = fieldWeight in 1000, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1000)
        0.33333334 = coord(1/3)
      0.08456939 = product of:
        0.16913877 = sum of:
          0.16913877 = weight(_text_:master in 1000) [ClassicSimilarity], result of:
            0.16913877 = score(doc=1000,freq=4.0), product of:
              0.32877895 = queryWeight, product of:
                6.5848994 = idf(docFreq=165, maxDocs=44218)
                0.04992923 = queryNorm
              0.51444525 = fieldWeight in 1000, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                6.5848994 = idf(docFreq=165, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1000)
        0.5 = coord(1/2)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Geisriegler, E.: Enriching electronic texts with semantic metadata : a use case for the historical Newspaper Collection ANNO (Austrian Newspapers Online) of the Austrian National Libraryhek (2012) 0.10
    0.10148119 = product of:
      0.20296238 = sum of:
        0.20296238 = sum of:
          0.16913877 = weight(_text_:master in 595) [ClassicSimilarity], result of:
            0.16913877 = score(doc=595,freq=4.0), product of:
              0.32877895 = queryWeight, product of:
                6.5848994 = idf(docFreq=165, maxDocs=44218)
                0.04992923 = queryNorm
              0.51444525 = fieldWeight in 595, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                6.5848994 = idf(docFreq=165, maxDocs=44218)
                0.0390625 = fieldNorm(doc=595)
          0.03382361 = weight(_text_:22 in 595) [ClassicSimilarity], result of:
            0.03382361 = score(doc=595,freq=2.0), product of:
              0.17484367 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04992923 = queryNorm
              0.19345059 = fieldWeight in 595, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=595)
      0.5 = coord(1/2)
    
    Abstract
    Die vorliegende Master Thesis setzt sich mit der Frage nach Möglichkeiten der Anreicherung historischer Zeitungen mit semantischen Metadaten auseinander. Sie möchte außerdem analysieren, welcher Nutzen für vor allem geisteswissenschaftlich Forschende, durch die Anreicherung mit zusätzlichen Informationsquellen entsteht. Nach der Darstellung der Entwicklung der interdisziplinären 'Digital Humanities', wurde für die digitale Sammlung historischer Zeitungen (ANNO AustriaN Newspapers Online) der Österreichischen Nationalbibliothek ein Use Case entwickelt, bei dem 'Named Entities' (Personen, Orte, Organisationen und Daten) in ausgewählten Zeitungsausgaben manuell annotiert wurden. Methodisch wurde das Kodieren mit 'TEI', einem Dokumentenformat zur Kodierung und zum Austausch von Texten durchgeführt. Zusätzlich wurden zu allen annotierten 'Named Entities' Einträge in externen Datenbanken wie Wikipedia, Wikipedia Personensuche, der ehemaligen Personennamen- und Schlagwortnormdatei (jetzt Gemeinsame Normdatei GND), VIAF und dem Bildarchiv Austria gesucht und gegebenenfalls verlinkt. Eine Beschreibung der Ergebnisse des manuellen Annotierens der Zeitungsseiten schließt diesen Teil der Arbeit ab. In einem weiteren Abschnitt werden die Ergebnisse des manuellen Annotierens mit jenen Ergebnissen, die automatisch mit dem German NER (Named Entity Recognition) generiert wurden, verglichen und in ihrer Genauigkeit analysiert. Abschließend präsentiert die Arbeit einige Best Practice-Beispiele kodierter und angereicherter Zeitungsseiten, um den zusätzlichen Nutzen durch die Auszeichnung der 'Named Entities' und durch die Verlinkung mit externen Informationsquellen für die BenützerInnen darzustellen.
    Date
    3. 2.2013 18:00:22
    Footnote
    Wien, Univ., Lehrgang Library and Information Studies, Master-Thesis, 2012.
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.09
    0.092053674 = product of:
      0.18410735 = sum of:
        0.18410735 = sum of:
          0.14351901 = weight(_text_:master in 563) [ClassicSimilarity], result of:
            0.14351901 = score(doc=563,freq=2.0), product of:
              0.32877895 = queryWeight, product of:
                6.5848994 = idf(docFreq=165, maxDocs=44218)
                0.04992923 = queryNorm
              0.4365213 = fieldWeight in 563, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.5848994 = idf(docFreq=165, maxDocs=44218)
                0.046875 = fieldNorm(doc=563)
          0.04058833 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
            0.04058833 = score(doc=563,freq=2.0), product of:
              0.17484367 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04992923 = queryNorm
              0.23214069 = fieldWeight in 563, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=563)
      0.5 = coord(1/2)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.08
    0.07930086 = product of:
      0.15860172 = sum of:
        0.15860172 = product of:
          0.47580513 = sum of:
            0.47580513 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.47580513 = score(doc=973,freq=2.0), product of:
                0.4233006 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04992923 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  5. Brenner, S.: LibraryThing for Libraries in Deutschland : Community-generierte Anreicherung deutschsprachiger Bibliothekskatalog mit LibraryThing for Libraries (2011) 0.07
    0.07175951 = product of:
      0.14351901 = sum of:
        0.14351901 = product of:
          0.28703803 = sum of:
            0.28703803 = weight(_text_:master in 149) [ClassicSimilarity], result of:
              0.28703803 = score(doc=149,freq=2.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.8730426 = fieldWeight in 149, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.09375 = fieldNorm(doc=149)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Master-Thesis im Studiengang MALIS [nicht öffentlich].
  6. Borbach-Jaene, J.: ¬Ein Konzept für die Vermittlung von Informationskompetenz an der UB Marburg : Grundlagen und Umsetzung (2004) 0.07
    0.06765551 = product of:
      0.13531102 = sum of:
        0.13531102 = product of:
          0.27062204 = sum of:
            0.27062204 = weight(_text_:master in 1392) [ClassicSimilarity], result of:
              0.27062204 = score(doc=1392,freq=4.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.8231124 = fieldWeight in 1392, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1392)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der vorliegenden Arbeit wird ein für die Universitätsbibliothek Marburg entwickeltes Konzept zur Verbesserung der Vermittlung von Informationskompetenz vorgestellt. Dabei spielt die Integration von bibliotheksbezogenen Angeboten in Lehrveranstaltungen aber auch die Entwicklung eigenständiger Lehrveranstaltungen im Rahmen des ECTS-Systems eine wichtige Rolle. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h139/.
  7. Holzheid, G.: Dublin Core, SGML und die Zukunft der Erschließung am Beispiel einer Studie zur Optimierung des Dokumentenmanagements einer großen Nichtregierungsorganisation (2005) 0.06
    0.05919857 = product of:
      0.11839714 = sum of:
        0.11839714 = product of:
          0.23679428 = sum of:
            0.23679428 = weight(_text_:master in 2192) [ClassicSimilarity], result of:
              0.23679428 = score(doc=2192,freq=4.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.72022337 = fieldWeight in 2192, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2192)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Immer mehr Informationsobjekte werden in digitaler Form publiziert. In der vorliegenden Arbeit werden die Auswirkungen der Digitalisierung auf bibliothekarische Erschließungsmethoden dargestellt: einerseits die Funktion der Auszeichnungssprachen SGML, HTML und XML als Erschließungsinstrumente, andererseits der von bibliothekarischer Seite entwickelte Metadatenstandard Dublin Core. Am Praxisbeispiel "Dokumentenmanagement einer Nichtregierungsorganisation" wird untersucht, ob die Erschließung verbessert werden könnte durch z.B. Optimierung der Volltextindizierung, standardisierte Metadaten oder Integration von Metadaten und Suchmaschinentechnologie. Mithilfe einer Benutzerbefragung werden diese Ansätze an der Praxis gemessen und konkrete Empfehlungen entwickelt. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h136/.
  8. Christensen, A.: Virtuelle Auskunft mit Mehrwert : Chatbots in Bibliotheken (2008) 0.06
    0.05919857 = product of:
      0.11839714 = sum of:
        0.11839714 = product of:
          0.23679428 = sum of:
            0.23679428 = weight(_text_:master in 4030) [ClassicSimilarity], result of:
              0.23679428 = score(doc=4030,freq=4.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.72022337 = fieldWeight in 4030, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4030)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin im Sommersemester 2007. - Erhältlich unter: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h222/.
  9. May, M.: Fachspezifische Vermittlung von Informationskompetenz in der Universität : Umsetzung und Akzeptanz am Beispiel des Faches Biologie der TU Darmstadt (2008) 0.04
    0.042284694 = product of:
      0.08456939 = sum of:
        0.08456939 = product of:
          0.16913877 = sum of:
            0.16913877 = weight(_text_:master in 1405) [ClassicSimilarity], result of:
              0.16913877 = score(doc=1405,freq=4.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.51444525 = fieldWeight in 1405, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1405)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin im Sommersemester 2007. - Erhältlich unter: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h219/.
  10. Mittelbach, J.; Probst, M.: Möglichkeiten und Grenzen maschineller Indexierung in der Sacherschließung : Strategien für das Bibliothekssystem der Freien Universität Berlin (2006) 0.04
    0.042284694 = product of:
      0.08456939 = sum of:
        0.08456939 = product of:
          0.16913877 = sum of:
            0.16913877 = weight(_text_:master in 1411) [ClassicSimilarity], result of:
              0.16913877 = score(doc=1411,freq=4.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.51444525 = fieldWeight in 1411, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1411)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Automatische Indexierung wird zunehmend als sinnvolle Möglichkeit erkannt, Daten für Informationsretrievalsysteme zu erzeugen und somit die Auffindbarkeit von Do-kumenten zu erhöhen. Die dafür geeigneten Methoden sind seit geraumer Zeit bekannt und umfassen statistische bzw. computerlinguistische Sprachanalysetechniken, die im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vor-teile hinsichtlich des Retrievals bieten. So bilden erst die Wortformenreduzierung und die semantische Zerlegung sowie die Gewichtung der ermittelten Indexterme die Grundlagen für die gezielte sachliche Suche im Online-Katalog. Entsprechende Ver-fahren, die sich für Bibliotheken eignen, stehen seit Mitte der neunziger Jahre auch für den praktischen Einsatz bereit und werden - nicht zuletzt aufgrund steigender Akzeptanz - ständig weiterentwickelt. Dabei geht es nicht nur um die Steigerung der allgemeinen Leistungsfähigkeit von maschinellen Indexierungssystemen, sondern auch um ihre Fähigkeit, die im Bibliothekswesen verfügbare, sehr heterogene Daten-grundlage optimal zu nutzen. Wichtige Kriterien sind zudem eine vertretbare Fehler-quote, die Integrierbarkeit in die Geschäftsgänge und die Darstellbarkeit der anfal-lenden Datenmengen in entsprechenden Datenrepräsentationsmodellen. Im Fokus der Untersuchung stehen die allgemeine Betrachtung der Vor- und Nachteile der beiden gängigen Indexierungssysteme MILOS und intelligentCAPTURE sowie die Möglichkeiten und Grenzen ihres Einsatzes im Bibliothekssystem der Freien Universität Berlin. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h183/
  11. Maas, J.F.: SWD-Explorer : Design und Implementation eines Software-Tools zur erweiterten Suche und grafischen Navigation in der Schlagwortnormdatei (2010) 0.04
    0.042284694 = product of:
      0.08456939 = sum of:
        0.08456939 = product of:
          0.16913877 = sum of:
            0.16913877 = weight(_text_:master in 4035) [ClassicSimilarity], result of:
              0.16913877 = score(doc=4035,freq=4.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.51444525 = fieldWeight in 4035, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4035)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Schlagwortnormdatei (SWD) stellt als kooperativ erstelltes, kontrolliertes Vokabular ein aus dem deutschsprachigen Raum nicht mehr wegzudenkendes Mittel zur Verschlagwortung von Medien dar. Die SWD dient primär der Vereinheitlichung der Verschlagwortung. Darüber hinaus sind in der Struktur der SWD Relationen zwischen Schlagwörtern definiert, die eine gut vorbereitete Suche stark erleichtern können. Beispiel für solche Relationen sind die Unterbegriff-/Oberbegriffrelationen (Hyponym/Hyperonym) oder die Relation der Ähnlichkeit von Begriffen. Diese Arbeit unternimmt den Versuch, durch die Erstellung eines Such- und Visualisierungstools den Umgang mit der SWD zu erleichtern. Im Fokus der Arbeit steht dabei zum einen die Aufgabe des Fachreferenten, ein Medium geeignet zu verschlagworten. Diese Aufgabe soll durch die Optimierung der technischen Suchmöglichkeiten mit Hilfe von Schlagwörtern geschehen, z.B. durch die Suche mit Hilfe Regulärer Ausdrücke oder durch die Suche entlang der hierarchischen Relationen. Zum anderen sind die beschriebenen Relationen innerhalb der SWD oft unsauber spezifiziert, was ein negativer Seiteneffekt der interdisziplinären und kooperativen Erstellung der SWD ist. Es wird gezeigt, dass durch geeignete Visualisierung viele Fehler schnell auffindbar und korrigierbar sind, was die Aufgabe der Datenpflege um ein Vielfaches vereinfacht. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
  12. Kühle, G.: Lokale Kooperation öffentlicher Bibliotheken unterschiedlicher Träger in Bezug auf ein Konzept für einen gemeinsamen Online-Katalog am Beispiel der ÖBs in Willich (2009) 0.04
    0.041859712 = product of:
      0.083719425 = sum of:
        0.083719425 = product of:
          0.16743885 = sum of:
            0.16743885 = weight(_text_:master in 3202) [ClassicSimilarity], result of:
              0.16743885 = score(doc=3202,freq=2.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.50927484 = fieldWeight in 3202, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3202)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Master's Thesis im Master-Zusatzstudiengang Bibliotheks- und Informationswissenschaft, Fakultät für Informations- und Kommunikationswissenschaften, Fachhochschule Köln. - Vgl.: http://opus.bibl.fh-koeln.de/volltexte/2009/243/.
  13. Líska, M.: Evaluation of mathematics retrieval (2013) 0.04
    0.041859712 = product of:
      0.083719425 = sum of:
        0.083719425 = product of:
          0.16743885 = sum of:
            0.16743885 = weight(_text_:master in 1653) [ClassicSimilarity], result of:
              0.16743885 = score(doc=1653,freq=2.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.50927484 = fieldWeight in 1653, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1653)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Master Thesis, Masaryk University, Brno, Faculty of Informatics; Advisor: Petr Sojka.
  14. Lassak, L.: ¬Ein Versuch zur Repräsentation von Charakteren der Kinder- und Jugendbuchserie "Die drei ???" in einer Datenbank (2017) 0.04
    0.041859712 = product of:
      0.083719425 = sum of:
        0.083719425 = product of:
          0.16743885 = sum of:
            0.16743885 = weight(_text_:master in 1784) [ClassicSimilarity], result of:
              0.16743885 = score(doc=1784,freq=2.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.50927484 = fieldWeight in 1784, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1784)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Masterarbeit zur Erlangung des akademischen Grades Master of Arts (M. A.)
  15. Seidlmayer, E.: ¬An ontology of digital objects in philosophy : an approach for practical use in research (2018) 0.04
    0.041859712 = product of:
      0.083719425 = sum of:
        0.083719425 = product of:
          0.16743885 = sum of:
            0.16743885 = weight(_text_:master in 5496) [ClassicSimilarity], result of:
              0.16743885 = score(doc=5496,freq=2.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.50927484 = fieldWeight in 5496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5496)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Master thesis Library and Information Science, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln. Schön auch: Bei Google Scholar unter 'Eva, S.' nachgewiesen.
  16. Schaffner, V.: FRBR in MAB2 und Primo - ein kafkaesker Prozess? : Möglichkeiten der FRBRisierung von MAB2-Datensätzen in Primo exemplarisch dargestellt an Datensätzen zu Franz Kafkas "Der Process" (2011) 0.04
    0.041430373 = product of:
      0.082860745 = sum of:
        0.082860745 = product of:
          0.16572149 = sum of:
            0.16572149 = weight(_text_:master in 907) [ClassicSimilarity], result of:
              0.16572149 = score(doc=907,freq=6.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.5040514 = fieldWeight in 907, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.03125 = fieldNorm(doc=907)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    FRBR (Functional Requirements for Bibliographic Records) ist ein logisches Denkmodell für bibliographische Datensätze, welches zur benutzerfreundlicheren Gestaltung von Browsing in Online-Bibliothekskatalogen herangezogen werden kann. Im Österreichischen Bibliothekenverbund (OBV) werden bibliographische Datensätze nach den Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB) erstellt und liegen im Datenformat MAB2 (Maschinelles Austauschformat für Bibliotheken) vor. Mit der Software Primo von Ex Libris, die 2009 implementiert wurde, besteht die Möglichkeit bibliographische Datensätze für die Anzeige neu aufzubereiten. Wie ausgehend von MAB2-Daten eine möglichst FRBR-konforme Datenpräsentation in Primo geleistet werden kann und welche Probleme sich dabei ergeben, ist die zentrale Fragestellung dieser Master Thesis. Exemplarisch dargestellt wird dies anhand von Datensätzen des Österreichischen Bibliothekenverbundes zu Franz Kafkas "Der Process". Im Fokus stehen drei Aspekte, welche im Zusammenhang mit FRBR, MAB2 und Primo als besonders problematisch und diskussionswürdig erscheinen: das Konzept des "Werkes", Expressionen als praxistaugliche Entitäten und Aggregate bzw. mehrbändig begrenzte Werke. Nach einer Einführung in das FRBR-Modell wird versucht einen idealen FRBRBaum zu Kafkas "Der Process" in seinen unterschiedlichen Ausprägungen (Übersetzungen, Verfilmungen, Textvarianten, Aggregate etc.) darzustellen: Schon hier werden erste Grenzen des Modells sichtbar. Daran anschließend werden Datensätze des OBV einer Analyse unterzogen, um die FRBRTauglichkeit von MAB2 und die Möglichkeit der FRBR keys in Primo zu beleuchten. Folgende Einschränkungen wurden deutlich: Die derzeitige Herangehensweise und Praxis der Formalerschließung ist nicht auf FRBR vorbereitet. Die vorliegenden Metadaten sind zu inkonsistent, um ein maschinelles Extrahieren für eine FRBR-konforme Datenpräsentation zu ermöglichen. Die Möglichkeiten des Werkclusterings und der Facettierung in Primo bieten darüber hinaus zwar einen Mehrwert für das Browsing in Trefferlisten, jedoch nur bedingt im FRBR-Sinne.
    Content
    Master Thesis im Rahmen des Universitätslehrganges Library and Information Studies MSc an der Universität Wien in Kooperation mit der Österreichischen Nationalbibliothek. Vgl. auch: http://eprints.rclis.org/16193/1/Master%20Thesis_Schaffner%20Verena.pdf.
  17. Castellanos Ardila, J.P.: Investigation of an OSLC-domain targeting ISO 26262 : focus on the left side of the software V-model (2016) 0.04
    0.041430373 = product of:
      0.082860745 = sum of:
        0.082860745 = product of:
          0.16572149 = sum of:
            0.16572149 = weight(_text_:master in 5819) [ClassicSimilarity], result of:
              0.16572149 = score(doc=5819,freq=6.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.5040514 = fieldWeight in 5819, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5819)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Industries have adopted a standardized set of practices for developing their products. In the automotive domain, the provision of safety-compliant systems is guided by ISO 26262, a standard that specifies a set of requirements and recommendations for developing automotive safety-critical systems. For being in compliance with ISO 26262, the safety lifecycle proposed by the standard must be included in the development process of a vehicle. Besides, a safety case that shows that the system is acceptably safe has to be provided. The provision of a safety case implies the execution of a precise documentation process. This process makes sure that the work products are available and traceable. Further, the documentation management is defined in the standard as a mandatory activity and guidelines are proposed/imposed for its elaboration. It would be appropriate to point out that a well-documented safety lifecycle will provide the necessary inputs for the generation of an ISO 26262-compliant safety case. The OSLC (Open Services for Lifecycle Collaboration) standard and the maturing stack of semantic web technologies represent a promising integration platform for enabling semantic interoperability between the tools involved in the safety lifecycle. Tools for requirements, architecture, development management, among others, are expected to interact and shared data with the help of domains specifications created in OSLC. This thesis proposes the creation of an OSLC tool-chain infrastructure for sharing safety-related information, where fragments of safety information can be generated. The steps carried out during the elaboration of this master thesis consist in the identification, representation, and shaping of the RDF resources needed for the creation of a safety case. The focus of the thesis is limited to a tiny portion of the ISO 26262 left-hand side of the V-model, more exactly part 6 clause 8 of the standard: Software unit design and implementation. Regardless of the use of a restricted portion of the standard during the execution of this thesis, the findings can be extended to other parts, and the conclusions can be generalize. This master thesis is considered one of the first steps towards the provision of an OSLC-based and ISO 26262-compliant methodological approach for representing and shaping the work products resulting from the execution of the safety lifecycle, documentation required in the conformation of an ISO-compliant safety case.
    Footnote
    Thesis for: Master of Computer Science with Specialization in Software Engineering. Advisor: Barbara Gallina.
  18. Pfeffer, J.: Online-Tutorials an deutschen Universitäts- und Hochschulbibliotheken : Verbreitung, Typologie und Analyse am Beispiel von LOTSE, DISCUS und BibTutor (2005) 0.04
    0.035879754 = product of:
      0.07175951 = sum of:
        0.07175951 = product of:
          0.14351901 = sum of:
            0.14351901 = weight(_text_:master in 4837) [ClassicSimilarity], result of:
              0.14351901 = score(doc=4837,freq=2.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.4365213 = fieldWeight in 4837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4837)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Master's Thesis im Studiengang Master of Library and Information Science
  19. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.04
    0.035879754 = product of:
      0.07175951 = sum of:
        0.07175951 = product of:
          0.14351901 = sum of:
            0.14351901 = weight(_text_:master in 558) [ClassicSimilarity], result of:
              0.14351901 = score(doc=558,freq=2.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.4365213 = fieldWeight in 558, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.046875 = fieldNorm(doc=558)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Masterarbeit im Rahmen des postgradualen Fernstudiums Master of Arts (Library and Information Science)
  20. Scherer Auberson, K.: Counteracting concept drift in natural language classifiers : proposal for an automated method (2018) 0.04
    0.035879754 = product of:
      0.07175951 = sum of:
        0.07175951 = product of:
          0.14351901 = sum of:
            0.14351901 = weight(_text_:master in 2849) [ClassicSimilarity], result of:
              0.14351901 = score(doc=2849,freq=2.0), product of:
                0.32877895 = queryWeight, product of:
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.04992923 = queryNorm
                0.4365213 = fieldWeight in 2849, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.5848994 = idf(docFreq=165, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2849)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Diese Publikation entstand im Rahmen einer Thesis zum Master of Science FHO in Business Administration, Major Information and Data Management.

Languages

  • d 52
  • e 14
  • hu 1
  • More… Less…

Types