Search (87 results, page 1 of 5)

  • × type_ss:"x"
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.05
    0.049036376 = product of:
      0.07355456 = sum of:
        0.037734017 = product of:
          0.15093607 = sum of:
            0.15093607 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.15093607 = score(doc=1000,freq=2.0), product of:
                0.32227305 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038012814 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.25 = coord(1/4)
        0.035820547 = product of:
          0.10746164 = sum of:
            0.10746164 = weight(_text_:ermittelt in 1000) [ClassicSimilarity], result of:
              0.10746164 = score(doc=1000,freq=2.0), product of:
                0.2719282 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.038012814 = queryNorm
                0.3951839 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.05
    0.047364518 = product of:
      0.14209355 = sum of:
        0.14209355 = product of:
          0.21314032 = sum of:
            0.17193863 = weight(_text_:ermittelt in 401) [ClassicSimilarity], result of:
              0.17193863 = score(doc=401,freq=2.0), product of:
                0.2719282 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.038012814 = queryNorm
                0.63229424 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
            0.041201692 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.041201692 = score(doc=401,freq=2.0), product of:
                0.1331144 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038012814 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Date
    11. 9.2012 19:43:22
  3. Semenova, E.: Erstellung einer Dokumentationssprache : Am Beispiel der Oberbegriffsdatei für die Sonderausstellungsdatenbank im Institut für Museumskunde, Berlin (2004) 0.04
    0.035416644 = product of:
      0.053124964 = sum of:
        0.032337118 = product of:
          0.064674236 = sum of:
            0.064674236 = weight(_text_:28 in 1734) [ClassicSimilarity], result of:
              0.064674236 = score(doc=1734,freq=2.0), product of:
                0.1361719 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.038012814 = queryNorm
                0.4749455 = fieldWeight in 1734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1734)
          0.5 = coord(1/2)
        0.020787846 = product of:
          0.06236354 = sum of:
            0.06236354 = weight(_text_:29 in 1734) [ClassicSimilarity], result of:
              0.06236354 = score(doc=1734,freq=2.0), product of:
                0.1337172 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038012814 = queryNorm
                0.46638384 = fieldWeight in 1734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1734)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    28.11.1999 13:32:29
    27. 9.2005 14:28:14
  4. Schobert, D.: ¬Die Bibliothek der Deutschen Geologische Gesellschaft unter dem besonderen Aspekt der Sacherschließung ihrer Kartensammlungen : Geschichte, Stand und Perspektiven (1993) 0.04
    0.035416644 = product of:
      0.053124964 = sum of:
        0.032337118 = product of:
          0.064674236 = sum of:
            0.064674236 = weight(_text_:28 in 3958) [ClassicSimilarity], result of:
              0.064674236 = score(doc=3958,freq=2.0), product of:
                0.1361719 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.038012814 = queryNorm
                0.4749455 = fieldWeight in 3958, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3958)
          0.5 = coord(1/2)
        0.020787846 = product of:
          0.06236354 = sum of:
            0.06236354 = weight(_text_:29 in 3958) [ClassicSimilarity], result of:
              0.06236354 = score(doc=3958,freq=2.0), product of:
                0.1337172 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038012814 = queryNorm
                0.46638384 = fieldWeight in 3958, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3958)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    6.12.1996 19:56:29
    5. 8.1999 15:54:28
  5. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.03
    0.030187212 = product of:
      0.090561636 = sum of:
        0.090561636 = product of:
          0.36224654 = sum of:
            0.36224654 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.36224654 = score(doc=973,freq=2.0), product of:
                0.32227305 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038012814 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.25 = coord(1/4)
      0.33333334 = coord(1/3)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  6. Waldhör, A.: Erstellung einer Konkordanz zwischen Basisklassifikation (BK) und Regensburger Verbundklassifikation (RVK) für den Fachbereich Recht (2012) 0.03
    0.02965477 = product of:
      0.088964306 = sum of:
        0.088964306 = product of:
          0.13344646 = sum of:
            0.10746164 = weight(_text_:ermittelt in 596) [ClassicSimilarity], result of:
              0.10746164 = score(doc=596,freq=2.0), product of:
                0.2719282 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.038012814 = queryNorm
                0.3951839 = fieldWeight in 596, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=596)
            0.025984809 = weight(_text_:29 in 596) [ClassicSimilarity], result of:
              0.025984809 = score(doc=596,freq=2.0), product of:
                0.1337172 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038012814 = queryNorm
                0.19432661 = fieldWeight in 596, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=596)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Ziel der vorliegenden Arbeit war die Erstellung einer Konkordanz zwischen der Regensburger Verbundklassifikation (RVK) und der Basisklassifikation (BK) für den Fachbereich Recht. Die Erstellung von Konkordanzen ist im bibliothekarischen Bereichmehrfach von Interesse, da einerseits Notationen verschiedener Klassifikationssysteme zusammengeführt werden und somit eine höhere Datendichte erreicht werden kann. Zum anderen können Konkordanzen in der Suchmaschinentechnologie Primo als "Werkzeug" bei der facettierten Suche eingesetzt werden. Die Arbeit gliedert sich in zwei Teile. Der erste (theoretische) Teil beschäftigt sich mit Klassifikationen als Hilfsmittel für die Freihandaufstellung und als Teil der klassifikatorischen Sacherschließung. Im Anschluss daran werden drei große Klassifikationssysteme, die im Rahmen der Sacherschließung in Österreich eine wesentliche Rolle spielen (Verbundklassifikationen des OBV), dargestellt. Die Basisklassifikation und die Regensburger Verbundklassifikation werden kurz beschrieben, es wird untersucht wie juristische Medien in diesen Klassifikationen abgebildet werden. In diesem Zusammenhang wird auch der aktuelle Stand der RVK Erweiterung betreffend österreichisches Recht erörtert. Die Dewey - Dezimal - Klassifikation (DDC) wird auf ihre generelle Eignung als Klassifikation für juristische Medien genauer, anhand mehrerer praktischer Beispiele, untersucht. Insbesondere wird die "Konkordanzfähigkeit" der DDC im Hinblick auf die beiden anderen Systeme betreffend den Fachbereich Recht ermittelt. Ein kurzer Ausblick auf Unterschiede zwischen der angloamerikanischen Rechtsordnung und dem europäischen Civil Law ergänzt die Ausführungen zur DDC. Der zweite (praktische) Teil beinhaltet die Konkordanztabelle in Form einer Microsoft Excel Tabelle mit einem ausführlichen Kommentar. Diese Tabelle liegt auch in einer verkürzten Form vor, die für die praktische Umsetzung in der Verbunddatenbank vorgesehen ist.
    Date
    3. 2.2013 17:25:29
  7. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.03
    0.027592462 = product of:
      0.08277738 = sum of:
        0.08277738 = product of:
          0.12416607 = sum of:
            0.06236354 = weight(_text_:29 in 9) [ClassicSimilarity], result of:
              0.06236354 = score(doc=9,freq=2.0), product of:
                0.1337172 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038012814 = queryNorm
                0.46638384 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
            0.061802536 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.061802536 = score(doc=9,freq=2.0), product of:
                0.1331144 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038012814 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Date
    22. 2.1997 19:50:29
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.03
    0.027310833 = product of:
      0.04096625 = sum of:
        0.030187212 = product of:
          0.12074885 = sum of:
            0.12074885 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.12074885 = score(doc=701,freq=2.0), product of:
                0.32227305 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038012814 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.25 = coord(1/4)
        0.010779039 = product of:
          0.021558078 = sum of:
            0.021558078 = weight(_text_:28 in 701) [ClassicSimilarity], result of:
              0.021558078 = score(doc=701,freq=2.0), product of:
                0.1361719 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.038012814 = queryNorm
                0.15831517 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Date
    31. 3.2013 15:20:28
  9. Thielemann, A.: Sacherschließung für die Kunstgeschichte : Möglichkeiten und Grenzen von DDC 700: The Arts (2007) 0.02
    0.018394975 = product of:
      0.055184923 = sum of:
        0.055184923 = product of:
          0.08277738 = sum of:
            0.041575693 = weight(_text_:29 in 1409) [ClassicSimilarity], result of:
              0.041575693 = score(doc=1409,freq=2.0), product of:
                0.1337172 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038012814 = queryNorm
                0.31092256 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
            0.041201692 = weight(_text_:22 in 1409) [ClassicSimilarity], result of:
              0.041201692 = score(doc=1409,freq=2.0), product of:
                0.1331144 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038012814 = queryNorm
                0.30952093 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Nach der Veröffentlichung einer deutschen Übersetzung der Dewey Decimal Classification 22 im Oktober 2005 und ihrer Nutzung zur Inhaltserschließung in der Deutschen Nationalbibliographie seit Januar 2006 stellt sich aus Sicht der deutschen kunsthistorischen Spezialbibliotheken die Frage nach einer möglichen Verwendung der DDC und ihrer generellen Eignung zur Inhalterschließung kunsthistorischer Publikationen. Diese Frage wird vor dem Hintergrund der bestehenden bibliothekarischen Strukturen für die Kunstgeschichte sowie mit Blick auf die inhaltlichen Besonderheiten, die Forschungsmethodik und die publizistischen Traditionen dieses Faches erörtert.
    Date
    14. 2.2008 19:56:29
  10. Sieber, W.: Visualisierung von Thesaurus-Strukturen unter besonderer Berücksichtigung eines Hyperbolic Tree Views (2004) 0.02
    0.016716257 = product of:
      0.050148766 = sum of:
        0.050148766 = product of:
          0.1504463 = sum of:
            0.1504463 = weight(_text_:ermittelt in 1456) [ClassicSimilarity], result of:
              0.1504463 = score(doc=1456,freq=2.0), product of:
                0.2719282 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.038012814 = queryNorm
                0.55325747 = fieldWeight in 1456, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1456)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Wenige Software-Werkzeuge zur Visualisierung von Thesaurus-Strukturen sind über das prototypische Stadium hinaus gelangt. Konkrete Implementationen entsprechender Anwendungen werden evaluiert. Aus den Gebieten Thesaurus-Entwicklung, Visualisierung, Interaktion, Informations- und Graphenvisualisierung werden Kriterien ermittelt, an denen die Implementierungen gemessen werden. Ein generisches Werkzeug zur Visualisierung dreidimensionaler hyperbolischer Bäume wird dazu verwendet, die Strukturen eines Thesaurus darzustellen. Dieses Werkzeug wird mit in die Evaluation einbezogen. Es hat sich gezeigt, dass die Visualisierung der Thesaurus-Strukturen auf Basis weniger unterschiedlicher Verfahren erfolgt. Der generische Visualisierer ist für Thesaurus-Strukturen prinzipiell geeignet, doch fehlen ihm spezifische Möglichkeiten der Domäne Thesaurus.
  11. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.02
    0.016666435 = product of:
      0.049999304 = sum of:
        0.049999304 = product of:
          0.07499895 = sum of:
            0.044097684 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.044097684 = score(doc=4408,freq=4.0), product of:
                0.1337172 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038012814 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
            0.030901268 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.030901268 = score(doc=4408,freq=2.0), product of:
                0.1331144 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038012814 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Pages
    22 S
  12. Schwarz, B.: Book House: ein OPAC für die Erschließung und Recherche Schöner Literatur (1991) 0.01
    0.014372053 = product of:
      0.043116156 = sum of:
        0.043116156 = product of:
          0.08623231 = sum of:
            0.08623231 = weight(_text_:28 in 1022) [ClassicSimilarity], result of:
              0.08623231 = score(doc=1022,freq=2.0), product of:
                0.1361719 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.038012814 = queryNorm
                0.63326067 = fieldWeight in 1022, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.125 = fieldNorm(doc=1022)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    4. 8.2006 21:42:28
  13. Rohner, M.: Betrachtung der Data Visualization Literacy in der angestrebten Schweizer Informationsgesellschaft (2018) 0.01
    0.014328221 = product of:
      0.04298466 = sum of:
        0.04298466 = product of:
          0.12895398 = sum of:
            0.12895398 = weight(_text_:ermittelt in 4585) [ClassicSimilarity], result of:
              0.12895398 = score(doc=4585,freq=2.0), product of:
                0.2719282 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.038012814 = queryNorm
                0.4742207 = fieldWeight in 4585, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4585)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Datenvisualisierungen sind ein wichtiges Werkzeug, um Inhalte und Muster in Datensätzen zu erkennen und ermöglichen so auch Laien den Zugang zu der Information, die in Datensätzen steckt. Data Visualization Literacy ist die Kompetenz, Datenvisualisierungen zu lesen, zu verstehen, zu hinterfragen und herzustellen. Data Visulaization Literacy ist daher eine wichtige Kompetenz der Informationsgesellschaft. Im Auftrag des Bundesrates hat das Bundesamt für Kommunikation BAKOM die Strategie "Digitale Schweiz" entwickelt. Die Strategie zeigt auf, wie die fortschreitende Digitalisierung genutzt und die Schweiz zu einer Informationsgesellschaft entwickelt werden soll. In der vorliegenden Arbeit wird untersucht, inwiefern die Strategie "Digitale Schweiz" die Förderung von Data Visualization Literacy in der Bevölkerung unterstützt. Dazu werden die Kompetenzen der Data Visualization Literacy ermittelt, Kompetenzstellen innerhalb des Bildungssystems benannt und die Massnahmen der Strategie in Bezug auf Data Visualization Literacy überprüft.
  14. Bertram, J.: Informationen verzweifelt gesucht : Enterprise Search in österreichischen Großunternehmen (2011) 0.01
    0.01386718 = product of:
      0.04160154 = sum of:
        0.04160154 = product of:
          0.062402304 = sum of:
            0.025984809 = weight(_text_:29 in 2657) [ClassicSimilarity], result of:
              0.025984809 = score(doc=2657,freq=2.0), product of:
                0.1337172 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038012814 = queryNorm
                0.19432661 = fieldWeight in 2657, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
            0.036417495 = weight(_text_:22 in 2657) [ClassicSimilarity], result of:
              0.036417495 = score(doc=2657,freq=4.0), product of:
                0.1331144 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038012814 = queryNorm
                0.27358043 = fieldWeight in 2657, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Arbeit geht dem Status quo der unternehmensweiten Suche in österreichischen Großunternehmen nach und beleuchtet Faktoren, die darauf Einfluss haben. Aus der Analyse des Ist-Zustands wird der Bedarf an Enterprise-Search-Software abgeleitet und es werden Rahmenbedingungen für deren erfolgreiche Einführung skizziert. Die Untersuchung stützt sich auf eine im Jahr 2009 durchgeführte Onlinebefragung von 469 österreichischen Großunternehmen (Rücklauf 22 %) und daran anschließende Leitfadeninterviews mit zwölf Teilnehmern der Onlinebefragung. Der theoretische Teil verortet die Arbeit im Kontext des Informations- und Wissensmanagements. Der Fokus liegt auf dem Ansatz der Enterprise Search, ihrer Abgrenzung gegenüber der Suche im Internet und ihrem Leistungsspektrum. Im empirischen Teil wird zunächst aufgezeigt, wie die Unternehmen ihre Informationen organisieren und welche Probleme dabei auftreten. Es folgt eine Analyse des Status quo der Informati-onssuche im Unternehmen. Abschließend werden Bekanntheit und Einsatz von Enterprise-Search-Software in der Zielgruppe untersucht sowie für die Einführung dieser Software nötige Rahmenbedingungen benannt. Defizite machen die Befragten insbesondere im Hinblick auf die übergreifende Suche im Unternehmen und die Suche nach Kompetenzträgern aus. Hier werden Lücken im Wissensmanagement offenbar. 29 % der Respondenten der Onlinebefragung geben zu-dem an, dass es in ihren Unternehmen gelegentlich bis häufig zu Fehlentscheidungen infolge defizitärer Informationslagen kommt. Enterprise-Search-Software kommt in 17 % der Unternehmen, die sich an der Onlinebefragung beteiligten, zum Einsatz. Die durch Enterprise-Search-Software bewirkten Veränderungen werden grundsätzlich posi-tiv beurteilt. Alles in allem zeigen die Ergebnisse, dass Enterprise-Search-Strategien nur Erfolg haben können, wenn man sie in umfassende Maßnahmen des Informations- und Wissensmanagements einbettet.
    Date
    22. 1.2016 20:40:31
  15. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.01
    0.013508774 = product of:
      0.040526323 = sum of:
        0.040526323 = product of:
          0.12157897 = sum of:
            0.12157897 = weight(_text_:ermittelt in 897) [ClassicSimilarity], result of:
              0.12157897 = score(doc=897,freq=4.0), product of:
                0.2719282 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.038012814 = queryNorm
                0.44709954 = fieldWeight in 897, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.03125 = fieldNorm(doc=897)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
  16. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.01
    0.012578006 = product of:
      0.037734017 = sum of:
        0.037734017 = product of:
          0.15093607 = sum of:
            0.15093607 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.15093607 = score(doc=4997,freq=2.0), product of:
                0.32227305 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038012814 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.25 = coord(1/4)
      0.33333334 = coord(1/3)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  17. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.01
    0.012578006 = product of:
      0.037734017 = sum of:
        0.037734017 = product of:
          0.15093607 = sum of:
            0.15093607 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.15093607 = score(doc=4388,freq=2.0), product of:
                0.32227305 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038012814 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.25 = coord(1/4)
      0.33333334 = coord(1/3)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  18. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.01
    0.012578006 = product of:
      0.037734017 = sum of:
        0.037734017 = product of:
          0.15093607 = sum of:
            0.15093607 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.15093607 = score(doc=855,freq=2.0), product of:
                0.32227305 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038012814 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.25 = coord(1/4)
      0.33333334 = coord(1/3)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  19. Bergau, S.: Verbale Indexierung im Bildarchiv der DIZ München GmbH : Dargestellt an ausgewählten Beispielen des Digitalisierungsprojekts "SV 50.000" (2002) 0.01
    0.012575546 = product of:
      0.037726637 = sum of:
        0.037726637 = product of:
          0.075453274 = sum of:
            0.075453274 = weight(_text_:28 in 2179) [ClassicSimilarity], result of:
              0.075453274 = score(doc=2179,freq=2.0), product of:
                0.1361719 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.038012814 = queryNorm
                0.5541031 = fieldWeight in 2179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2179)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Pages
    28 S
  20. Kaufmann, E.: ¬Das Indexieren von natürlichsprachlichen Dokumenten und die inverse Seitenhäufigkeit (2001) 0.01
    0.011940183 = product of:
      0.035820547 = sum of:
        0.035820547 = product of:
          0.10746164 = sum of:
            0.10746164 = weight(_text_:ermittelt in 318) [ClassicSimilarity], result of:
              0.10746164 = score(doc=318,freq=2.0), product of:
                0.2719282 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.038012814 = queryNorm
                0.3951839 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=318)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Lizentiatsarbeit gibt im ersten theoretischen Teil einen Überblick über das Indexieren von Dokumenten. Sie zeigt die verschiedenen Typen von Indexen sowie die wichtigsten Aspekte bezüglich einer Indexsprache auf. Diverse manuelle und automatische Indexierungsverfahren werden präsentiert. Spezielle Aufmerksamkeit innerhalb des ersten Teils gilt den Schlagwortregistern, deren charakteristische Merkmale und Eigenheiten erörtert werden. Zusätzlich werden die gängigen Kriterien zur Bewertung von Indexen sowie die Masse zur Evaluation von Indexierungsverfahren und Indexierungsergebnissen vorgestellt. Im zweiten Teil der Arbeit werden fünf reale Bücher einer statistischen Untersuchung unterzogen. Zum einen werden die lexikalischen und syntaktischen Bestandteile der fünf Buchregister ermittelt, um den Inhalt von Schlagwortregistern zu erschliessen. Andererseits werden aus den Textausschnitten der Bücher Indexterme maschinell extrahiert und mit den Schlagworteinträgen in den Buchregistern verglichen. Das Hauptziel der Untersuchungen besteht darin, eine Indexierungsmethode, die auf linguistikorientierter Extraktion der Indexterme und Termhäufigkeitsgewichtung basiert, im Hinblick auf ihren Gebrauchswert für eine automatische Indexierung zu testen. Die Gewichtungsmethode ist die inverse Seitenhäufigkeit, eine Methode, welche von der inversen Dokumentfrequenz abgeleitet wurde, zur automatischen Erstellung von Schlagwortregistern für deutschsprachige Texte. Die Prüfung der Methode im statistischen Teil führte nicht zu zufriedenstellenden Resultaten.

Languages

  • d 72
  • e 12
  • f 1
  • hu 1
  • More… Less…

Types