Search (54 results, page 1 of 3)

  • × language_ss:"d"
  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.08
    0.08186771 = product of:
      0.16373542 = sum of:
        0.16373542 = product of:
          0.49120626 = sum of:
            0.49120626 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.49120626 = score(doc=973,freq=2.0), product of:
                0.4370022 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05154537 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Holze, J.: Digitales Wissen : bildungsrelevante Relationen zwischen Strukturen digitaler Medien und Konzepten von Wissen (2017) 0.05
    0.047374867 = product of:
      0.094749734 = sum of:
        0.094749734 = product of:
          0.18949947 = sum of:
            0.18949947 = weight(_text_:wissen in 3984) [ClassicSimilarity], result of:
              0.18949947 = score(doc=3984,freq=10.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.85241127 = fieldWeight in 3984, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3984)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wie verändern sich Begriffe von Wissen und Wissensgenerierung im Zeitalter digitaler Medien? Welche Implikationen können daraus für den Begriff der (Strukturalen Medien-)Bildung innerhalb einer Disziplin der Medienpädagogik abgeleitet werden? Inwieweit findet eine Transformation hin zu einem qualitativ anderen Wissen, gar einem digitalen Wissen statt?
  3. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.04
    0.04394257 = product of:
      0.08788514 = sum of:
        0.08788514 = sum of:
          0.052966706 = weight(_text_:wissen in 1670) [ClassicSimilarity], result of:
            0.052966706 = score(doc=1670,freq=2.0), product of:
              0.2223099 = queryWeight, product of:
                4.3128977 = idf(docFreq=1609, maxDocs=44218)
                0.05154537 = queryNorm
              0.23825617 = fieldWeight in 1670, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.3128977 = idf(docFreq=1609, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1670)
          0.03491843 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
            0.03491843 = score(doc=1670,freq=2.0), product of:
              0.1805031 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05154537 = queryNorm
              0.19345059 = fieldWeight in 1670, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1670)
      0.5 = coord(1/2)
    
    Abstract
    Das Ziel der vorliegenden Arbeit ist es, ein Modell für ein Informationssystems zu erstellen und die Voraussetzungen und Aspekte zu betrachten, die notwendig sind, um Einsichten in die begrifflichen Zusammenhänge des Gegenstandsbereiches Luftfahrt zu erlangen. Der Ansatz, der hier erläutert wird, plädiert für die Konstruktion einer begrifflichen Wissensstruktur in Form eines semantischen Netzes. Ausgangspunkt dieser Überlegungen ist die Auffassung, daß zwar das kontrollierte Vokabular eines Thesaurus mit seiner Verweisstruktur vielfältiges Wissen enthält, das aber aufgrund der drei klassischen Standardrelationen nur unzureichend repräsentiert und damit auch nur beschränkt zugänglich ist. Es wird erläutert, welche Vorteile eine Erweiterung der drei Thesaurusrelationen erbringen kann und in welcher Funktion die Relationen bei der Formulierung der Suchanfrage unterstützend sein können. Gezeigt wird, wie die Begriffstrukturen eines semantischen Netzes deutlicher hervortreten, wenn bei der Erstellung einer Wissensstruktur eines Gegenstandsbereiches Kategorien zugrunde gelegt werden und welche Gestaltungsprinzipien den Suchprozeß unterstützen können. Dazu werden die Voraussetzungen erörtert, die garantieren, daß komplexe Suchanfragen (erfolgreich) geleistet werden können und zu präzisen Treffermengen führen.
    Date
    26. 9.2006 21:00:22
  4. Steierwald, U.: Wissen und System : zu Gottfried Wilhelm Leibniz' Theorie einer Universalbibliothek (1994) 0.04
    0.042373367 = product of:
      0.08474673 = sum of:
        0.08474673 = product of:
          0.16949347 = sum of:
            0.16949347 = weight(_text_:wissen in 8794) [ClassicSimilarity], result of:
              0.16949347 = score(doc=8794,freq=2.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.76241976 = fieldWeight in 8794, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.125 = fieldNorm(doc=8794)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  5. Schönauer, S.: Wissensmanagement im Fokus kommunikativer Prozesse (2003) 0.04
    0.039636657 = product of:
      0.07927331 = sum of:
        0.07927331 = product of:
          0.15854663 = sum of:
            0.15854663 = weight(_text_:wissen in 3407) [ClassicSimilarity], result of:
              0.15854663 = score(doc=3407,freq=28.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.7131784 = fieldWeight in 3407, product of:
                  5.2915025 = tf(freq=28.0), with freq of:
                    28.0 = termFreq=28.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3407)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Untersuchungsgegenstand dieser Arbeit umfasst sowohl die theoretischen Konzepte zum Management von Wissen, als auch die Möglichkeit der Integration neuer Informations- und Kommunikationstechnologien in den Prozess des Wissensmanagements. Da eine kritische Betrachtung von Wissensmanagementkonzepten ohne der grundsätzlichen Darstellung des ökonomischen Umfeldes, sowie der Klärung der Frage, welche Faktoren die Entstehung von Wissen beeinflussen nicht möglich ist, werden im Rahmen dieser Arbeit auch diese Aspekte betrachtet. In Bezug auf die Integration neuer Informations- und Kommunikationstechnologien müssen neben den grundsätzlichen Charakteristika dieser Technologien auch die Bedeutung von Kommunikation und Information im Kontext des ökonomischen Systems, als auch im Kontext von Wissen untersucht werden. Aus der grundsätzlichen Darstellung der Zusammenhänge von Kommunikation und Wissen und der Bedeutung von Wissen für die Wirtschaft lassen sich einige grundlegende Anforderungen an das Management von Wissen stellen, anhand derer das Wissensmanagement untersucht wird. Eine Analyse der Charakteristika neuer Informations- und Kommunikationstechnologien und der Bedeutung von Kommunikation für die Wissensgenerierung können Hinweise darauf geben, welche Wissensmanagementkonzepte dem Untersuchungsgegenstand Wissen gerecht werden und welche Relevanz neue Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement haben.
    Fragestellung: "Kann man Wissen wie eine Ressource behandeln und managen?" Diese Frage stellt bzw. sollte den Ausgangspunkt jedes Wissensmanagementkonzeptes darstellen und steht aus diesem Grund im Mittelpunkt dieser Arbeit. Anders formuliert könnte man sagen: "Ist der Begriff Wissensmanagement kontradiktorisch?" Stellen Wissensmanagementkonzepte nur einen neuen Managementtrend dar, der alte, wenig erfolgreiche Konzepte (Business Process Reengeneering, TQM, Lean Management, Kaizen) mit neuen Begriffen auffüllt? Was ist Wissen und welche Faktoren begünstigen die Entstehung und den Austausch von Wissen? Welche Bedeutung hat Kommunikation für die Entstehung von Wissen? Wenn Kommunikation einen entscheidenden Faktor für die Entstehung und den Austausch von Wissen hat, inwiefern können Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement genutzt werden? Das sind die zentralen Fragen, die ich mir am Anfang und im Verlauf dieser Arbeit gestellt habe. Die Fragestellungen basieren auf sozialwissenschaftlichen Überlegungen, anhand derer das ökonomische Konzept Wissensmanagement untersucht wird. Nachdem Wissen ein soziales Konstrukt ist und die Transformation der knowledge-based economy vor allem von den neuen Informations- und Kommunikationstechnologien vorangetrieben und verstärkt wurde, erschien mir die Betrachtung des Managements von Wissen anhand dieser Fragestellungen für zielführend und an der Zeit.
  6. Braatz, B.: Individuelles Wissensmanagement : Eine kritische Analyse der Subjektgebundenheit von Wissen und eine empirische Fallstudie über die Entstehung und Vermittlung von Wissen in Schulen (2004) 0.04
    0.03669641 = product of:
      0.07339282 = sum of:
        0.07339282 = product of:
          0.14678565 = sum of:
            0.14678565 = weight(_text_:wissen in 3709) [ClassicSimilarity], result of:
              0.14678565 = score(doc=3709,freq=6.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.6602749 = fieldWeight in 3709, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3709)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Befragung unter Hamburger Oberstufenschülern untersucht, wie Schüler ihr Wissen organisieren, wie es in Schulen entsteht und vermittelt wird. Die Ergebnisse sind Grundlage für Empfehlungen in einer neu zu konzipierenden Unterrichtseinheit.
  7. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.03
    0.03411155 = product of:
      0.0682231 = sum of:
        0.0682231 = product of:
          0.20466928 = sum of:
            0.20466928 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.20466928 = score(doc=4388,freq=2.0), product of:
                0.4370022 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05154537 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  8. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.03
    0.03411155 = product of:
      0.0682231 = sum of:
        0.0682231 = product of:
          0.20466928 = sum of:
            0.20466928 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.20466928 = score(doc=1000,freq=2.0), product of:
                0.4370022 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05154537 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  9. Aprin, L.: Entwicklung eines semantisch operierenden Risikomanagement-Informationssystems am Beispiel der Europäischen Organisation für Kernforschung (CERN) (2012) 0.03
    0.02802735 = product of:
      0.0560547 = sum of:
        0.0560547 = product of:
          0.1121094 = sum of:
            0.1121094 = weight(_text_:wissen in 2286) [ClassicSimilarity], result of:
              0.1121094 = score(doc=2286,freq=14.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.5042933 = fieldWeight in 2286, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2286)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Unter dem Begriff der Risikoanalyse wird das systematische Bestreben zusammengefasst, die mit Projekten und Handlungen assoziierten Gefahren innerhalb einer Organisation zu erfassen, zu evaluieren und einer Risikoregulierung zugänglich zu machen. Risikoanalysen sind ein integraler Bestandteil des Risikomanagements und damit wesentlich für die Konsolidierung von Sicherheit. Die Adäquatheit und Zuverlässigkeit der risikoanalytisch beförderten Einsichten hängen dabei unmittelbar von der Verfügbarkeit und der Qualität der organisational angebotenen Wissensbestände ab. Der Zugang zu entscheidungsrelevantem Wissen wird in der arbeitsweltlichen Realität allerdings durch das Wirken unterschiedlicher Informationsbarrieren erschwert. Wissen, das dem Verstehen und Vermeiden von Risiken dienlich ist, lagert häufig in sehr spezialisierten Datenbanksystemen, deren individuelle syntaktische und semantische Strukturen eine Verwendung des Wissens in anderen als den ursprünglich mit den Datenbanken verknüpften Anwendungskontexten zu einem sehr zeit- und arbeitsintensiven Unterfangen machen. Auch erschwert ein mit der Semistrukturiertheit vieler Dokumentations- und Berichtssysteme einhergehender Ambiguitätsgrad eine effiziente automatisierte Wissensverarbeitung bspw. im Zusammenhang mit Suchmaschinen.
    Mit dieser Dissertation wird ein Beitrag zur Überwindung der bestehenden Wissensbarrieren im Risikomanagement vorgelegt. Methodisch wird hierzu die Anwendung semantischer Verfahren zur Repräsentation von Wissen auf die Domäne der Risikoanalyse vorgeschlagen. Im Mittelpunkt steht das sogenannte Semantic Web, das als Weiterentwicklung des World Wide Webs die Bedeutung von Wissenszusammenhängen explizit zu erfassen und abzubilden erlaubt. Zeichnet sich das gegenwärtige Risikomanagement durch eine dokumentengebundene Organisation und Distribution von Wissen aus, werden mit dem Semantic Web Verfahren und Werkzeuge vorgelegt, die eine Operationalisierung des Wissens direkt auf der Datensatzebene ermöglichen. Darauf aufbauend wird das Konzept eines semantisch operierenden Risikomanagement-Informationssystems entworfen. Den Kern dieses Entwurfs bildet die Idee, risikoanalytisch relevantes Wissen nicht nach traditionellem Verständnis als textuelle Berichte oder relationale Datenbankeinträge zu speichern, sondern in Form einer stetig wachsenden Ontologie zu dokumentieren. Zur Gewährleistung eines bedarfsgerechten Zugriffs auf das ontologisch archivierte Wissen wurde das Konzept einer Suchmaschine entwickelt, mit der sich für anstehende Arbeitsvorgänge prüfen lässt, ob zu diesen historisch identische oder ähnliche Arbeitsvorgänge dokumentiert sind, die sich zu kritischen Zwischenfällen entfalteten. Den Risikomanagern wird ein Werkzeug bereitgestellt, das entscheidungsrelevantes Wissen sehr präzise und zeitnah abzufragen erlaubt und damit zu einer verbesserten Adäquatheit der risikoanalytischen Einsichten beiträgt.
  10. Stünkel, M.: Neuere Methoden der inhaltlichen Erschließung schöner Literatur in öffentlichen Bibliotheken (1986) 0.03
    0.027934743 = product of:
      0.055869486 = sum of:
        0.055869486 = product of:
          0.11173897 = sum of:
            0.11173897 = weight(_text_:22 in 5815) [ClassicSimilarity], result of:
              0.11173897 = score(doc=5815,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.61904186 = fieldWeight in 5815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5815)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    4. 8.2006 21:35:22
  11. Menges, T.: Möglichkeiten und Grenzen der Übertragbarkeit eines Buches auf Hypertext am Beispiel einer französischen Grundgrammatik (Klein; Kleineidam) (1997) 0.02
    0.0244429 = product of:
      0.0488858 = sum of:
        0.0488858 = product of:
          0.0977716 = sum of:
            0.0977716 = weight(_text_:22 in 1496) [ClassicSimilarity], result of:
              0.0977716 = score(doc=1496,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.5416616 = fieldWeight in 1496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1496)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 7.1998 18:23:25
  12. Schneider, A.: ¬Die Verzeichnung und sachliche Erschließung der Belletristik in Kaysers Bücherlexikon und im Schlagwortkatalog Georg/Ost (1980) 0.02
    0.0244429 = product of:
      0.0488858 = sum of:
        0.0488858 = product of:
          0.0977716 = sum of:
            0.0977716 = weight(_text_:22 in 5309) [ClassicSimilarity], result of:
              0.0977716 = score(doc=5309,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.5416616 = fieldWeight in 5309, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5309)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    5. 8.2006 13:07:22
  13. Sperling, R.: Anlage von Literaturreferenzen für Onlineressourcen auf einer virtuellen Lernplattform (2004) 0.02
    0.0244429 = product of:
      0.0488858 = sum of:
        0.0488858 = product of:
          0.0977716 = sum of:
            0.0977716 = weight(_text_:22 in 4635) [ClassicSimilarity], result of:
              0.0977716 = score(doc=4635,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.5416616 = fieldWeight in 4635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4635)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    26.11.2005 18:39:22
  14. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.02
    0.022704747 = product of:
      0.045409493 = sum of:
        0.045409493 = product of:
          0.09081899 = sum of:
            0.09081899 = weight(_text_:wissen in 4658) [ClassicSimilarity], result of:
              0.09081899 = score(doc=4658,freq=12.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.40852425 = fieldWeight in 4658, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4658)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der heutigen Zeit sind Informationen jeglicher Art über das World Wide Web (WWW) für eine breite Bevölkerungsschicht zugänglich. Dabei ist es jedoch schwierig die existierenden Dokumente auch so aufzubereiten, dass die Inhalte für Maschinen inhaltlich interpretierbar sind. Das Semantic Web, eine Weiterentwicklung des WWWs, möchte dies ändern, indem es Webinhalte in maschinenverständlichen Formaten anbietet. Dadurch können Automatisierungsprozesse für die Suchanfragenoptimierung und für die Wissensbasenvernetzung eingesetzt werden. Die Web Ontology Language (OWL) ist eine mögliche Sprache, in der Wissen beschrieben und gespeichert werden kann (siehe Kapitel 4 OWL). Das Softwareprodukt Protégé unterstützt den Standard OWL, weshalb ein Großteil der Modellierungsarbeiten in Protégé durchgeführt wurde. Momentan erhält der Nutzer in den meisten Fällen bei der Informationsfindung im Internet lediglich Unterstützung durch eine von Suchmaschinenbetreibern vorgenommene Verschlagwortung des Dokumentinhaltes, d.h. Dokumente können nur nach einem bestimmten Wort oder einer bestimmten Wortgruppe durchsucht werden. Die Ausgabeliste der Suchergebnisse muss dann durch den Nutzer selbst gesichtet und nach Relevanz geordnet werden. Das kann ein sehr zeit- und arbeitsintensiver Prozess sein. Genau hier kann das Semantic Web einen erheblichen Beitrag in der Informationsaufbereitung für den Nutzer leisten, da die Ausgabe der Suchergebnisse bereits einer semantischen Überprüfung und Verknüpfung unterliegt. Deshalb fallen hier nicht relevante Informationsquellen von vornherein bei der Ausgabe heraus, was das Finden von gesuchten Dokumenten und Informationen in einem bestimmten Wissensbereich beschleunigt.
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
  15. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.02
    0.020951057 = product of:
      0.041902114 = sum of:
        0.041902114 = product of:
          0.08380423 = sum of:
            0.08380423 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.08380423 = score(doc=9,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.1997 19:50:29
  16. Hartwieg, U.: ¬Die nationalbibliographische Situation im 18. Jahrhundert : Vorüberlegungen zur Verzeichnung der deutschen Drucke in einem VD18 (1999) 0.02
    0.020951057 = product of:
      0.041902114 = sum of:
        0.041902114 = product of:
          0.08380423 = sum of:
            0.08380423 = weight(_text_:22 in 3813) [ClassicSimilarity], result of:
              0.08380423 = score(doc=3813,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.46428138 = fieldWeight in 3813, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3813)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    18. 6.1999 9:22:36
  17. Milanesi, C.: Möglichkeiten der Kooperation im Rahmen von Subject Gateways : das Euler-Projekt im Vergleich mit weiteren europäischen Projekten (2001) 0.02
    0.020951057 = product of:
      0.041902114 = sum of:
        0.041902114 = product of:
          0.08380423 = sum of:
            0.08380423 = weight(_text_:22 in 4865) [ClassicSimilarity], result of:
              0.08380423 = score(doc=4865,freq=2.0), product of:
                0.1805031 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05154537 = queryNorm
                0.46428138 = fieldWeight in 4865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4865)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2002 19:41:59
  18. Sauer, C.S.: Analyse von Webcommunities und Extraktion von Wissen aus Communitydaten für Case-Based Reasoning Systeme (2010) 0.02
    0.01872656 = product of:
      0.03745312 = sum of:
        0.03745312 = product of:
          0.07490624 = sum of:
            0.07490624 = weight(_text_:wissen in 2231) [ClassicSimilarity], result of:
              0.07490624 = score(doc=2231,freq=4.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.33694512 = fieldWeight in 2231, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2231)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit den Möglichkeiten der Informationsextraktion aus den Daten von Webcommunities und der Verwendung der extrahierten Informationen in Case-Based Reasoning- (CBR) Systemen. Im Rahmen der Arbeit wird auf die Entwicklung der Webcommunities im Zeitraum der letzten 30 Jahre eingegangen. Es wird eine Klassifikation der derzeitig anzutreffenden Webcommunities in verschiedene Kategorien von Webcommunities vorgenommen. Diese Klassifikation erfolgt hinsichtlich der Struktur, der technischen Mittel sowie der Interessen der Nutzer dieser Webcommunities. Aufbauend auf die vorgenommene Klassifikation von Webcommunities erfolgt eine Untersuchung der Eignung dieser Kategorien von Webcommunities zur Informationsextraktion im Kontext der Verwendung der extrahierten Informationen in CBR-Systemen. Im selben Kontext werden verschiedene Ansätze und Techniken der Informationsextraktion auf ihre Eignung zur Extraktion von Wissen speziell für die Wissenscontainer von CBR -Systeme geprüft. Aufbauend auf den dadurch gewonnenen Erkenntnissen wird, angelehnt an den Prozess der Knowledge Discovery in Databases, ein eigenes Prozessmodell der Wissensextraktion aus Webcommunities für CBR-Systeme entworfen. Im Zuge der näheren Betrachtung dieses Prozessmodells wird auf verschiedene, durch die beabsichtigte Verwendung der extrahierten Informationen in den vier Wissenscontainern des CBR bedingte, Anforderungen an NLP- sowie IE-Techniken, die zur Extraktion dieser Daten verwendet werden, eingegangen. Die in den theoretischen Betrachtungen erlangten Erkenntnisse werden dann dazu eingesetzt, eine Anwendung zur Informationsextraktion aus einer Webcommunity für ein CBR-System, in Form der Knowledge Extraction Workbench zu implementieren. Diese IEAnwendung arbeitet im Kontext des auf der SEASALT-Architektur aufbauenden Projektes docQuery. Die Realisierung dieser IE-Anwendung wird dokumentiert sowie die Extraktionsergebnisse der Anwendung hinsichtlich ihres Umfanges und ihrer Qualität evaluiert.
  19. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.02
    0.018348206 = product of:
      0.03669641 = sum of:
        0.03669641 = product of:
          0.07339282 = sum of:
            0.07339282 = weight(_text_:wissen in 861) [ClassicSimilarity], result of:
              0.07339282 = score(doc=861,freq=6.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.33013746 = fieldWeight in 861, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.03125 = fieldNorm(doc=861)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.
  20. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.02
    0.018348206 = product of:
      0.03669641 = sum of:
        0.03669641 = product of:
          0.07339282 = sum of:
            0.07339282 = weight(_text_:wissen in 3359) [ClassicSimilarity], result of:
              0.07339282 = score(doc=3359,freq=6.0), product of:
                0.2223099 = queryWeight, product of:
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.05154537 = queryNorm
                0.33013746 = fieldWeight in 3359, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.3128977 = idf(docFreq=1609, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3359)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.

Years

Types