Search (132 results, page 1 of 7)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.22
    0.22128655 = product of:
      0.4425731 = sum of:
        0.105947316 = product of:
          0.31784195 = sum of:
            0.31784195 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.31784195 = score(doc=973,freq=2.0), product of:
                0.28276846 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03335316 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.31784195 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.31784195 = score(doc=973,freq=2.0), product of:
            0.28276846 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03335316 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.018783843 = product of:
          0.056351528 = sum of:
            0.056351528 = weight(_text_:k in 973) [ClassicSimilarity], result of:
              0.056351528 = score(doc=973,freq=2.0), product of:
                0.11906338 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.03335316 = queryNorm
                0.47329018 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.12
    0.11799362 = product of:
      0.23598725 = sum of:
        0.044144716 = product of:
          0.13243414 = sum of:
            0.13243414 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.13243414 = score(doc=4388,freq=2.0), product of:
                0.28276846 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03335316 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.13243414 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.13243414 = score(doc=4388,freq=2.0), product of:
            0.28276846 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03335316 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.05940839 = weight(_text_:intelligenz in 4388) [ClassicSimilarity], result of:
          0.05940839 = score(doc=4388,freq=2.0), product of:
            0.18938906 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03335316 = queryNorm
            0.31368437 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(3/6)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.06
    0.06171597 = product of:
      0.18514791 = sum of:
        0.035315774 = product of:
          0.105947316 = sum of:
            0.105947316 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.105947316 = score(doc=5820,freq=2.0), product of:
                0.28276846 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03335316 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.14983213 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.14983213 = score(doc=5820,freq=4.0), product of:
            0.28276846 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03335316 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.33333334 = coord(2/6)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  4. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.06
    0.058859624 = product of:
      0.17657886 = sum of:
        0.044144716 = product of:
          0.13243414 = sum of:
            0.13243414 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.13243414 = score(doc=4997,freq=2.0), product of:
                0.28276846 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03335316 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.13243414 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.13243414 = score(doc=4997,freq=2.0), product of:
            0.28276846 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03335316 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.33333334 = coord(2/6)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  5. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.06
    0.058859624 = product of:
      0.17657886 = sum of:
        0.044144716 = product of:
          0.13243414 = sum of:
            0.13243414 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.13243414 = score(doc=855,freq=2.0), product of:
                0.28276846 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03335316 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.13243414 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.13243414 = score(doc=855,freq=2.0), product of:
            0.28276846 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03335316 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.33333334 = coord(2/6)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  6. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.06
    0.058859624 = product of:
      0.17657886 = sum of:
        0.044144716 = product of:
          0.13243414 = sum of:
            0.13243414 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.13243414 = score(doc=1000,freq=2.0), product of:
                0.28276846 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03335316 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.13243414 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.13243414 = score(doc=1000,freq=2.0), product of:
            0.28276846 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03335316 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.33333334 = coord(2/6)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  7. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.06
    0.055986255 = product of:
      0.16795877 = sum of:
        0.15892097 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.15892097 = score(doc=563,freq=2.0), product of:
            0.28276846 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03335316 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.009037786 = product of:
          0.027113358 = sum of:
            0.027113358 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.027113358 = score(doc=563,freq=2.0), product of:
                0.11679709 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03335316 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.05
    0.0470877 = product of:
      0.1412631 = sum of:
        0.035315774 = product of:
          0.105947316 = sum of:
            0.105947316 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.105947316 = score(doc=701,freq=2.0), product of:
                0.28276846 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03335316 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.105947316 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.105947316 = score(doc=701,freq=2.0), product of:
            0.28276846 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03335316 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Sommer, M.: Automatische Generierung von DDC-Notationen für Hochschulveröffentlichungen (2012) 0.03
    0.034881122 = product of:
      0.10464336 = sum of:
        0.095523536 = weight(_text_:prozess in 587) [ClassicSimilarity], result of:
          0.095523536 = score(doc=587,freq=2.0), product of:
            0.21922776 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.03335316 = queryNorm
            0.43572736 = fieldWeight in 587, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.0091198245 = product of:
          0.027359473 = sum of:
            0.027359473 = weight(_text_:29 in 587) [ClassicSimilarity], result of:
              0.027359473 = score(doc=587,freq=2.0), product of:
                0.11732599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03335316 = queryNorm
                0.23319192 = fieldWeight in 587, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=587)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
    Date
    29. 1.2013 15:44:43
  10. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.02
    0.015842238 = product of:
      0.09505343 = sum of:
        0.09505343 = weight(_text_:intelligenz in 4499) [ClassicSimilarity], result of:
          0.09505343 = score(doc=4499,freq=2.0), product of:
            0.18938906 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03335316 = queryNorm
            0.501895 = fieldWeight in 4499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
      0.16666667 = coord(1/6)
    
  11. Sauer, C.S.: Analyse von Webcommunities und Extraktion von Wissen aus Communitydaten für Case-Based Reasoning Systeme (2010) 0.01
    0.013267158 = product of:
      0.07960294 = sum of:
        0.07960294 = weight(_text_:prozess in 2231) [ClassicSimilarity], result of:
          0.07960294 = score(doc=2231,freq=2.0), product of:
            0.21922776 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.03335316 = queryNorm
            0.36310613 = fieldWeight in 2231, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
      0.16666667 = coord(1/6)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit den Möglichkeiten der Informationsextraktion aus den Daten von Webcommunities und der Verwendung der extrahierten Informationen in Case-Based Reasoning- (CBR) Systemen. Im Rahmen der Arbeit wird auf die Entwicklung der Webcommunities im Zeitraum der letzten 30 Jahre eingegangen. Es wird eine Klassifikation der derzeitig anzutreffenden Webcommunities in verschiedene Kategorien von Webcommunities vorgenommen. Diese Klassifikation erfolgt hinsichtlich der Struktur, der technischen Mittel sowie der Interessen der Nutzer dieser Webcommunities. Aufbauend auf die vorgenommene Klassifikation von Webcommunities erfolgt eine Untersuchung der Eignung dieser Kategorien von Webcommunities zur Informationsextraktion im Kontext der Verwendung der extrahierten Informationen in CBR-Systemen. Im selben Kontext werden verschiedene Ansätze und Techniken der Informationsextraktion auf ihre Eignung zur Extraktion von Wissen speziell für die Wissenscontainer von CBR -Systeme geprüft. Aufbauend auf den dadurch gewonnenen Erkenntnissen wird, angelehnt an den Prozess der Knowledge Discovery in Databases, ein eigenes Prozessmodell der Wissensextraktion aus Webcommunities für CBR-Systeme entworfen. Im Zuge der näheren Betrachtung dieses Prozessmodells wird auf verschiedene, durch die beabsichtigte Verwendung der extrahierten Informationen in den vier Wissenscontainern des CBR bedingte, Anforderungen an NLP- sowie IE-Techniken, die zur Extraktion dieser Daten verwendet werden, eingegangen. Die in den theoretischen Betrachtungen erlangten Erkenntnisse werden dann dazu eingesetzt, eine Anwendung zur Informationsextraktion aus einer Webcommunity für ein CBR-System, in Form der Knowledge Extraction Workbench zu implementieren. Diese IEAnwendung arbeitet im Kontext des auf der SEASALT-Architektur aufbauenden Projektes docQuery. Die Realisierung dieser IE-Anwendung wird dokumentiert sowie die Extraktionsergebnisse der Anwendung hinsichtlich ihres Umfanges und ihrer Qualität evaluiert.
  12. Schulz, T.: Konzeption und prototypische Entwicklung eines Thesaurus für IT-Konzepte an Hochschulen (2021) 0.01
    0.013267158 = product of:
      0.07960294 = sum of:
        0.07960294 = weight(_text_:prozess in 429) [ClassicSimilarity], result of:
          0.07960294 = score(doc=429,freq=2.0), product of:
            0.21922776 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.03335316 = queryNorm
            0.36310613 = fieldWeight in 429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
      0.16666667 = coord(1/6)
    
    Abstract
    In Hochschulen besteht derzeit ein großes Anliegen, die Digitalisierung effektiv und effizient für Prozesse in Steuerungsbereichen zu nutzen. Dabei steht die IT-Governance im Mittelpunkt der hochschulpolitischen Überlegungen und beinhaltet "die interne Steuerung und Koordination von Entscheidungsprozessen in Bezug auf IT-Steuerung beziehungsweise Digitalisierungsmaßnahmen."(Christmann-Budian et al. 2018) Strategisch kann die Bündelung von Kompetenzen in der deutschen Hochschullandschaft dabei helfen, die steigenden Anforderungen an die IT-Governance zu erfüllen. Passend zu diesem Ansatz realisieren aktuell im ZDT zusammengeschlossene Hochschulen das Projekt "IT-Konzepte - Portfolio gemeinsamer Vorlagen und Muster". Das Projekt schließt an die Problemstellung an, indem Kompetenzen gebündelt und alle Hochschulen befähigt werden, IT-Konzepte erarbeiten und verabschieden zu können. Dazu wird ein Portfolio an Muster und Vorlagen als Ressourcenpool zusammengetragen und referenziert, um eine Nachvollziehbarkeit der Vielfalt an Herausgebern gewährleisten zu können (Meister 2020). Um den Ressourcenpool, welcher einen Body of Knowledge (BoK) darstellt, effizient durchsuchen zu können, ist eine sinnvolle Struktur unabdinglich. Daher setzt sich das Ziel der Bachelorarbeit aus der Analyse von hochschulinternen Dokumenten mithilfe von Natural Language Processing (NLP) und die daraus resultierende Entwicklung eines Thesaurus-Prototyps für IT-Konzepte zusammen. Dieser soll im Anschluss serialisiert und automatisiert werden, um diesen fortlaufend auf einem aktuellen Stand zu halten. Es wird sich mit der Frage beschäftigt, wie ein Thesaurus nachhaltig technologisch, systematisch und konsistent erstellt werden kann, um diesen Prozess im späteren Verlauf als Grundlage für weitere Themenbereiche einzuführen.
  13. Rötzer, A.: ¬Die Einteilung der Wissenschaften : Analyse und Typologisierung von Wissenschaftsklassifikationen (2003) 0.01
    0.013133816 = product of:
      0.0788029 = sum of:
        0.0788029 = weight(_text_:prozess in 684) [ClassicSimilarity], result of:
          0.0788029 = score(doc=684,freq=4.0), product of:
            0.21922776 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.03335316 = queryNorm
            0.35945675 = fieldWeight in 684, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
      0.16666667 = coord(1/6)
    
    Abstract
    Mit Hilfe mehrdimensionaler In-Bezug-Setzungen könnte auch einem wechselseitigen Prozess entgegnet werden, der sich seit gut einem Jahrhundert mehr und mehr dynamisierte: Gleichzeitig mit dem Differenzierungsprozess der Wissenschaften, der besonders in den letzten Jahrzehnten immer rascher fortschreitet und hybride Wissenschaftsbezeichnungen wie 'Physikochemie', 'Biophysik' oder 'Soziobiologie' entstehen ließ, geht ein Integrationsprozess einher, der diese Wissenschaften sich wieder annähern lässt. Diese Gleichzeitigkeit der entgegengesetzten Prozesse von Differenzierung und Integration könnte eine neue Form der Einheit der Wissenschaften schaffen, die eine Entwicklung der Wissenschaften zu einem einheitlichen Ganzes in Gang setzt. Damit könnten die großen Potentiale, die in diesem dialektischen Prozess von Differenzierung und Integration hinsichtlich neuer Forschungsergebnisse verwirklicht werden.
  14. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.01
    0.012105074 = product of:
      0.07263044 = sum of:
        0.07263044 = product of:
          0.10894566 = sum of:
            0.054718945 = weight(_text_:29 in 9) [ClassicSimilarity], result of:
              0.054718945 = score(doc=9,freq=2.0), product of:
                0.11732599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03335316 = queryNorm
                0.46638384 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
            0.054226715 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.054226715 = score(doc=9,freq=2.0), product of:
                0.11679709 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03335316 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 2.1997 19:50:29
  15. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.01
    0.011881679 = product of:
      0.071290076 = sum of:
        0.071290076 = weight(_text_:intelligenz in 558) [ClassicSimilarity], result of:
          0.071290076 = score(doc=558,freq=2.0), product of:
            0.18938906 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03335316 = queryNorm
            0.37642127 = fieldWeight in 558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.046875 = fieldNorm(doc=558)
      0.16666667 = coord(1/6)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
  16. Boltzendahl, S.: Ontologien in digitalen Bibliotheken unter dem Schwerpunkt Inhaltserschliessung und Recherche (2004) 0.01
    0.011202155 = product of:
      0.067212924 = sum of:
        0.067212924 = weight(_text_:intelligenz in 1414) [ClassicSimilarity], result of:
          0.067212924 = score(doc=1414,freq=4.0), product of:
            0.18938906 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03335316 = queryNorm
            0.3548934 = fieldWeight in 1414, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03125 = fieldNorm(doc=1414)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Thema dieser Arbeit sind formale Ontologien in digltalen Bibliotheken. DIese Entwicklung der Künstlichen Intelligenz repräsentiert die Begrifflichkeit eInes Fachgebietes oder thematischen Bereiches sowohl auf konzeptueller wie auf terminologischer Ebene, die durch vielfältige Beziehungen zwischen den Termen und integrierten Schlussregeln "intelligentes" Suchen in Textdokumenten ermöglichen sollen. Ein Einsatz in digitalen Bibliotheken zur Bewältigung von Anforderungen des Information Retrieval und der Interoperabilität ist daher nahe liegend. Die vorliegende Arbeit betrachtet die Nutzung von Ontologien für Recherche und Inhaltserschließung in digitalen Bibliotheken und setzt sie in Beziehung zu den herkömmlichen dokumentarischen Hilfsmitteln Klassifikation und Thesaurus. Es zeigt sich, dass die Zielsetzungen bei der Entwicklung von formalen Ontologien nicht weit von den Anforderungen an moderne elektronische Thesauri entfernt sind.
    Die vorliegende Arbeit befasst sich mit Anwendungsmöglichkeiten von "formalen Ontologien" in digitalen Bibliotheken. Der Schwerpunkt liegt dabei auf der Inhaltserschließung und der Recherche, also dem Information Retrieval. Ontologien sind neuere Entwicklungen der künstlichen Intelligenz, die es sich zur Aufgabe gemacht haben, die Semantik elektronisch gespeicherter Daten zu beschreiben. Sie versprechen, damit angesichts einer steigenden Informationsflut" weltweiter Vemetzung und einem auch wirtschaftlich immer wichtiger werdenden Zugang zu und Austausch von Information und Wissen intelligente Lösungen zu liefern. Durch die Darstellung von gegenstandsbezogenem Wissen sollen mit Hilfe von Ontologien semantische Heterogenität behandelt und Integriert, intelligente Recherchemöglichkeiten auch für große Datenmengen eröffnet und damit Lösungen v.a. für das Wissensmanagement geboten werden. In dieser Arbeit soll der Frage nachgegangen werden, was unter Ontologien in diesem Sinne zu verstehen ist, wie sie in digitalen BIbliotheken als neuen Informationssystemen eingesetzt werden können und was sie im Verhältnis zu herkömmlichen Hilfsmitteln im Information Retrieval leisten. Dafür soll zunächst erläutert werden, was formale Ontologien sind und wo und zu welchen Zwecken sie eingesetzt werden können (Kapitel 2). Im darauf folgenden Kapitel sollen zunächst Anforderungen an das Information Retrieval in digitalen Bibliotheken skizziert werden und mögliche Einsatzbereiche von Ontologien aufgezeigt werden (Kapitel 3). Dieses Kapitel wird durch Beispiele von konkreten Projekten, die Ontologien in digitalen Bibliotheken einsetzen, ergänzt. Schließlich sollen in Kapitel 4 Ontologien in Beziehung gesetzt werden zu herkömmlichen dokumentarischen Hilfsmitteln der Inhaltserschließung und Recherche, v.a. dem Thesaurus. Bei dieser Darstellung kann es sich nur um einen allgemeinen Überblick über den Themenbereich handeln, eine genauere Darstellung würde den Rahmen dieser Arbeit sprengen. Auf einige Probleme und mögliche Untersuchungsbereiche" die sich für den Einsatz von Ontologien in digitalen Bibliotheken stellen, soll jedoch noch am Schluss dieser Arbeit (Kapitel 5) hingewiesen werden. Auf besondere Ansätze z.B. in der Thesaurusforschung (wie z.B. einem "semiotischen Thesaurus" (vgl. Schwarz/Umstätter) kann in diesem Rahmen nicht eingegangen werden.
  17. Schönauer, S.: Wissensmanagement im Fokus kommunikativer Prozesse (2003) 0.01
    0.010613726 = product of:
      0.063682355 = sum of:
        0.063682355 = weight(_text_:prozess in 3407) [ClassicSimilarity], result of:
          0.063682355 = score(doc=3407,freq=2.0), product of:
            0.21922776 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.03335316 = queryNorm
            0.2904849 = fieldWeight in 3407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.03125 = fieldNorm(doc=3407)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Untersuchungsgegenstand dieser Arbeit umfasst sowohl die theoretischen Konzepte zum Management von Wissen, als auch die Möglichkeit der Integration neuer Informations- und Kommunikationstechnologien in den Prozess des Wissensmanagements. Da eine kritische Betrachtung von Wissensmanagementkonzepten ohne der grundsätzlichen Darstellung des ökonomischen Umfeldes, sowie der Klärung der Frage, welche Faktoren die Entstehung von Wissen beeinflussen nicht möglich ist, werden im Rahmen dieser Arbeit auch diese Aspekte betrachtet. In Bezug auf die Integration neuer Informations- und Kommunikationstechnologien müssen neben den grundsätzlichen Charakteristika dieser Technologien auch die Bedeutung von Kommunikation und Information im Kontext des ökonomischen Systems, als auch im Kontext von Wissen untersucht werden. Aus der grundsätzlichen Darstellung der Zusammenhänge von Kommunikation und Wissen und der Bedeutung von Wissen für die Wirtschaft lassen sich einige grundlegende Anforderungen an das Management von Wissen stellen, anhand derer das Wissensmanagement untersucht wird. Eine Analyse der Charakteristika neuer Informations- und Kommunikationstechnologien und der Bedeutung von Kommunikation für die Wissensgenerierung können Hinweise darauf geben, welche Wissensmanagementkonzepte dem Untersuchungsgegenstand Wissen gerecht werden und welche Relevanz neue Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement haben.
  18. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.01
    0.010613726 = product of:
      0.063682355 = sum of:
        0.063682355 = weight(_text_:prozess in 897) [ClassicSimilarity], result of:
          0.063682355 = score(doc=897,freq=2.0), product of:
            0.21922776 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.03335316 = queryNorm
            0.2904849 = fieldWeight in 897, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
      0.16666667 = coord(1/6)
    
    Abstract
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
  19. Schaffner, V.: FRBR in MAB2 und Primo - ein kafkaesker Prozess? : Möglichkeiten der FRBRisierung von MAB2-Datensätzen in Primo exemplarisch dargestellt an Datensätzen zu Franz Kafkas "Der Process" (2011) 0.01
    0.010613726 = product of:
      0.063682355 = sum of:
        0.063682355 = weight(_text_:prozess in 907) [ClassicSimilarity], result of:
          0.063682355 = score(doc=907,freq=2.0), product of:
            0.21922776 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.03335316 = queryNorm
            0.2904849 = fieldWeight in 907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.03125 = fieldNorm(doc=907)
      0.16666667 = coord(1/6)
    
  20. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.01
    0.009901399 = product of:
      0.05940839 = sum of:
        0.05940839 = weight(_text_:intelligenz in 4283) [ClassicSimilarity], result of:
          0.05940839 = score(doc=4283,freq=2.0), product of:
            0.18938906 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03335316 = queryNorm
            0.31368437 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
      0.16666667 = coord(1/6)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.

Languages

  • d 118
  • e 12
  • f 1
  • hu 1
  • More… Less…

Types