Search (78 results, page 1 of 4)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.08
    0.0814305 = product of:
      0.162861 = sum of:
        0.162861 = product of:
          0.488583 = sum of:
            0.488583 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.488583 = score(doc=973,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Geisriegler, E.: Enriching electronic texts with semantic metadata : a use case for the historical Newspaper Collection ANNO (Austrian Newspapers Online) of the Austrian National Libraryhek (2012) 0.05
    0.04944677 = product of:
      0.09889354 = sum of:
        0.09889354 = sum of:
          0.06416159 = weight(_text_:daten in 595) [ClassicSimilarity], result of:
            0.06416159 = score(doc=595,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26293173 = fieldWeight in 595, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=595)
          0.03473195 = weight(_text_:22 in 595) [ClassicSimilarity], result of:
            0.03473195 = score(doc=595,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 595, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=595)
      0.5 = coord(1/2)
    
    Abstract
    Die vorliegende Master Thesis setzt sich mit der Frage nach Möglichkeiten der Anreicherung historischer Zeitungen mit semantischen Metadaten auseinander. Sie möchte außerdem analysieren, welcher Nutzen für vor allem geisteswissenschaftlich Forschende, durch die Anreicherung mit zusätzlichen Informationsquellen entsteht. Nach der Darstellung der Entwicklung der interdisziplinären 'Digital Humanities', wurde für die digitale Sammlung historischer Zeitungen (ANNO AustriaN Newspapers Online) der Österreichischen Nationalbibliothek ein Use Case entwickelt, bei dem 'Named Entities' (Personen, Orte, Organisationen und Daten) in ausgewählten Zeitungsausgaben manuell annotiert wurden. Methodisch wurde das Kodieren mit 'TEI', einem Dokumentenformat zur Kodierung und zum Austausch von Texten durchgeführt. Zusätzlich wurden zu allen annotierten 'Named Entities' Einträge in externen Datenbanken wie Wikipedia, Wikipedia Personensuche, der ehemaligen Personennamen- und Schlagwortnormdatei (jetzt Gemeinsame Normdatei GND), VIAF und dem Bildarchiv Austria gesucht und gegebenenfalls verlinkt. Eine Beschreibung der Ergebnisse des manuellen Annotierens der Zeitungsseiten schließt diesen Teil der Arbeit ab. In einem weiteren Abschnitt werden die Ergebnisse des manuellen Annotierens mit jenen Ergebnissen, die automatisch mit dem German NER (Named Entity Recognition) generiert wurden, verglichen und in ihrer Genauigkeit analysiert. Abschließend präsentiert die Arbeit einige Best Practice-Beispiele kodierter und angereicherter Zeitungsseiten, um den zusätzlichen Nutzen durch die Auszeichnung der 'Named Entities' und durch die Verlinkung mit externen Informationsquellen für die BenützerInnen darzustellen.
    Date
    3. 2.2013 18:00:22
  3. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.04
    0.03586742 = product of:
      0.07173484 = sum of:
        0.07173484 = product of:
          0.14346968 = sum of:
            0.14346968 = weight(_text_:daten in 3742) [ClassicSimilarity], result of:
              0.14346968 = score(doc=3742,freq=10.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.58793324 = fieldWeight in 3742, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3742)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  4. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.03
    0.033929378 = product of:
      0.067858756 = sum of:
        0.067858756 = product of:
          0.20357625 = sum of:
            0.20357625 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.20357625 = score(doc=4997,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.03
    0.033929378 = product of:
      0.067858756 = sum of:
        0.067858756 = product of:
          0.20357625 = sum of:
            0.20357625 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.20357625 = score(doc=4388,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.03
    0.033929378 = product of:
      0.067858756 = sum of:
        0.067858756 = product of:
          0.20357625 = sum of:
            0.20357625 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.20357625 = score(doc=855,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  7. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.03
    0.033929378 = product of:
      0.067858756 = sum of:
        0.067858756 = product of:
          0.20357625 = sum of:
            0.20357625 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.20357625 = score(doc=1000,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  8. Müller, C.: Allegro im World Wide Web : Programierung eines Interfaces (1997) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 1486) [ClassicSimilarity], result of:
              0.12832318 = score(doc=1486,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 1486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1486)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bibliotheken stellen in globalen Computernetzwerken ihre Bibliothekskataloge zur Verfügung. Damit Kataloge online recherchierbar sind, müssen Schnittstellen für die Datenbanken erstellt werden. Die Entwicklung eines Gateways für eine allegro-Datenbank wird beschrieben, und es wird exemplarisch an den Daten des Hamburger Verbundkataloges gezeigt, wie die Planung und die Programmierung einer Schnittstelle aussehen kann
  9. Schöne, B.: Geographische Informationssysteme : Aufbau und Einsatzmöglichkeiten am Beispiel der Umweltbehörde Hamburg (1997) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 1493) [ClassicSimilarity], result of:
              0.12832318 = score(doc=1493,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 1493, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1493)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am Beispiel der Umweltbehörde Hamburg und ihrem Umweltinformationssystem HUIS wird ein Einblick in die Voraussetzungen, Ziele und Anwendungsmöglichkeiten raumbezogener Informationssysteme gegeben. Durch das dort eingesetzte geographische Informationssystem ArcInfo werden räumliche Daten mit Sachdaten verknüft und thematisch dargestellt
  10. Hoeffken, P.: Kollaborative Ansätze zur Vereinheitlichung von Namensformen in LibraryThing.com (2009) 0.03
    0.031758364 = product of:
      0.06351673 = sum of:
        0.06351673 = product of:
          0.12703346 = sum of:
            0.12703346 = weight(_text_:daten in 2221) [ClassicSimilarity], result of:
              0.12703346 = score(doc=2221,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52057827 = fieldWeight in 2221, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2221)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    LibraryThing.com ist eine Web 2.0 Anwendung, die sich der Community-Bildung verschrieben hat und dazu (Privat-)Bibliotheken ins Zentrum stellt. Die Nutzer erstellen dabei die Inhalte der Kataloge einerseits durch Import von Daten, andererseits durch eigenständige Eingabe. Dabei werden auch zu Autoren Seiten angelegt, die die Nutzer mit diversen Daten anreichern können. In dieser Arbeit werden diese Bestrebungen hinsichtlich der Autorenseiten dargestellt und mit der Personennamendatei der Deutschen Nationalbibliothek verglichen. Dabei wird aufgezeigt, welche Unterschiede und Gemeinsamkeiten bestehen. Schließlich wird untersucht in welcher Form in LibraryThing Inhalte generiert werden und ob sie fachlichen Ansprüchen an Bibliothekskataloge genügen können.
  11. Stünkel, M.: Neuere Methoden der inhaltlichen Erschließung schöner Literatur in öffentlichen Bibliotheken (1986) 0.03
    0.027785558 = product of:
      0.055571117 = sum of:
        0.055571117 = product of:
          0.11114223 = sum of:
            0.11114223 = weight(_text_:22 in 5815) [ClassicSimilarity], result of:
              0.11114223 = score(doc=5815,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.61904186 = fieldWeight in 5815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5815)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    4. 8.2006 21:35:22
  12. Lülsdorf, L.: FRBRisierung : Konzeption und Beispiel für eine Realisierung mit MAB2-Daten (2008) 0.03
    0.027782785 = product of:
      0.05556557 = sum of:
        0.05556557 = product of:
          0.11113114 = sum of:
            0.11113114 = weight(_text_:daten in 2613) [ClassicSimilarity], result of:
              0.11113114 = score(doc=2613,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.45541114 = fieldWeight in 2613, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2613)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der Diplomarbeit wird zu Anfang das FRBR-Modell vorgestellt und erläutert sowie dessen Rezeption in der internationalen sowie deutschen Fachwelt untersucht. Anschließend wird der Vorgang der FRBRisierung definiert und erklärt. Anhand von konkreten Beispielen aus der Praxis wird die Realisierbarkeit der FRBRisierung aufgezeigt und deren Vorteile illustriert. Abschließend wird ein mit MAB2-Daten durchgeführtes FRBRisierungsexperiment präsentiert, erörtert, analysiert und bewertet. Die vorliegende Arbeit gliedert sich auf in einen theoretischen Teil (Kapitel 2 und 3) und einen praktischen Teil (Kapitel 4). Der theoretische Teil soll in kompakter Form an das konzeptionelle Modell der FRBR heranführen und des Weiteren aufzeigen, dass es nicht "nur" ein theoretisches Modell darstellt, sondern die praktische Umsetzung und Implementierung durchaus möglich ist und großen Mehrwert, sowohl für Bibliotheken selbst, als auch deren Nutzer, besitzt. Der praktische Teil soll einen möglichen Ansatz der FRBRisierung von MAB2-Daten vorstellen. Das Experiment soll dabei kein für den praktischen Einsatz fertiges Endergebnis liefern. Es sollen die Entitäten Werk, Expression und Manifestation, die das zentrale Element des Modells darstellen, in MAB2-Datensätzen identifiziert und extrahiert werden. Die Ergebnisse des Experimentes können als Grundlage für ähnliche und fortführende FRBRisierungsexperimente dienen. Die entwickelten XSL-Stylesheets zur Generierung von Werke.xml-, Expressionen.xml- und Manifestationen.xml-Dateien sind der vorliegenden Arbeit im Anhang in gekürzter Fassung für eine Nachnutzung und Modifikation beigefügt.
  13. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 558) [ClassicSimilarity], result of:
              0.10888583 = score(doc=558,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 558, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=558)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
  14. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 2222) [ClassicSimilarity], result of:
              0.10888583 = score(doc=2222,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 2222, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2222)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
  15. Meyer, O.C.: Retrievalexperimente mit bibliothekarischen Daten : Historischer Überblick und aktueller Forschungsstand (2022) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 655) [ClassicSimilarity], result of:
              0.10888583 = score(doc=655,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 655, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=655)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Retrievalforschung in der Bibliothekswissenschaft hat in den letzten Jahrzehnten beachtliche Fortschritte gemacht. Automatische Indexierungsmethoden werden immer häufiger angewendet, obwohl dieses Thema in der Bibliothekswelt kontrovers diskutiert wird. Die Ergebnisse maschineller Erschließungsarbeit werden anhand von Retrievaltests festgehalten. Der Gegenstand dieser Arbeit ist die Darstellung von Retrievalexperimenten mit bibliothekarischen Daten. Zu Beginn werden die Grundlagen solcher Retrievaltests sowie das Cranfield-Paradigma erläutert. Es folgt eine Vorstellung verschiedener wissen schaftlicher Projekte aus diesem Forschungsfeld in chronologischer Reihenfolge. Wenn Verbindungen oder Einflussnahmen zwischen den einzelnen Projekten bestehen, werden diese herausgestellt. Im besonderen Umfang wird das Retrievalprojekt GELIC der TH Köln beschrieben, an dem der Autor dieser Arbeit beteiligt war. Obwohl es isolierte Retrievalprojekte gibt, lässt sich aus methodischer Sicht eine Verbindung von den frühesten Experimenten zu den heutigen Retrievalexperimenten herstellen. Diese Entwicklung ist noch nicht abgeschlossen.
  16. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.03
    0.0271435 = product of:
      0.054287 = sum of:
        0.054287 = product of:
          0.162861 = sum of:
            0.162861 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.162861 = score(doc=701,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  17. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.03
    0.0271435 = product of:
      0.054287 = sum of:
        0.054287 = product of:
          0.162861 = sum of:
            0.162861 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.162861 = score(doc=5820,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  18. Reinke, U.: ¬Der Austausch terminologischer Daten (1993) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 4608) [ClassicSimilarity], result of:
              0.10265854 = score(doc=4608,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 4608, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4608)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  19. Woldt, M.: Informationsmodellierung in XML : Entwicklung einer XML-Applikation für Fotodaten mit Vergleich und Übersicht bestehender Fotoapplikationen (2004) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 3707) [ClassicSimilarity], result of:
              0.10265854 = score(doc=3707,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 3707, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3707)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Ziel ist, ein bestmögliches Retrieval von Fotodaten zu ermöglichen. Dazu werden Funktionsweisen von XML und Tochtertechnologien DTD und XML Schemata erklärt. Vier Anwendungen und Konzepte werden vorgestellt, die bei der Fotoerfassung zum Einsatz kommen. Im praxisorientierten Teil wird ein entwickelter Prototyp einer XML Applikation zum Erfassen von Fotodaten vorgestellt. Um seine Einsatzmöglichkeit und Funktionalität zu verdeutlichen, werden mit der Applikation die Daten von 100 Fotos beispielhaft aufgenommen und in XML-Dokumenten abgelegt (beiliegende CD-ROM).
  20. Stelzenmüller, C.: Mashups in Bibliotheken : Untersuchung der Verbreitung von Mashups auf Webseiten wissenschaftlicher Bibliotheken und Erstellung eines praktischen Beispiels (2008) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 3069) [ClassicSimilarity], result of:
              0.10265854 = score(doc=3069,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 3069, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3069)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Mashups können durch die Kombination von Daten einen Mehrwert gegenüber den ursprünglichen Informationsquellen bieten. Diese Arbeit stellt Mashups vor und zeigt, wie Bibliotheken Mashups bislang für sich nutzen. Des weiteren wird untersucht, wie verbreitet sie auf ausgewählten Websites wissenschaftlicher Bibliotheken sind. Abschließend wird anhand eines einfachen, praktischen Beispiels erläutert, wie ein Mashup realisiert werden kann, und welche Schritte dafür notwendig sind.

Languages

  • d 66
  • e 10
  • a 1
  • hu 1
  • More… Less…

Types