Search (660 results, page 1 of 33)

  • × type_ss:"x"
  1. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.14
    0.14250153 = product of:
      0.22800246 = sum of:
        0.02898287 = product of:
          0.05796574 = sum of:
            0.05796574 = weight(_text_:methoden in 4333) [ClassicSimilarity], result of:
              0.05796574 = score(doc=4333,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.2862774 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
        0.14112374 = weight(_text_:techniken in 4333) [ClassicSimilarity], result of:
          0.14112374 = score(doc=4333,freq=6.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.5878706 = fieldWeight in 4333, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.010603046 = weight(_text_:und in 4333) [ClassicSimilarity], result of:
          0.010603046 = score(doc=4333,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.12243814 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.0340583 = weight(_text_:der in 4333) [ClassicSimilarity], result of:
          0.0340583 = score(doc=4333,freq=20.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.390223 = fieldWeight in 4333, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.013234494 = product of:
          0.026468989 = sum of:
            0.026468989 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.026468989 = score(doc=4333,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Die Suche nach Informationen im Internet führt den Nutzer meistens direkt zu einer Suchmaschine. Teile der gelieferten Ergebnisse enthalten aber manchmal nicht das, was der Nutzer gesucht hat. Hier setzen sog. adaptive Agenten an, welche die Gewohnheiten ihres Nutzers zu erlernen versuchen, um später auf Basis dessen selbstständig Entscheidungen zu treffen, ohne dass der Nutzer dazu befragt werden muss. Zunächst werden im Grundlagenteil adaptive Techniken zur Informationsgewinnung sowie die grundlegenden Eigenschaften von Webcrawlern besprochen. Im Hauptteil wird daraufhin der Webcrawler InfoSpiders erläutert. Dieses Programm arbeitet mit mehreren adaptiven Agenten, die parallel basierend auf einem Satz von Startlinks das Internet nach Informationen durchsuchen. Dabei bedienen sich die Agenten verschiedenster Techniken. Darunter fallen beispielsweise statistische Methoden, die den Inhalt von Webseiten untersuchen sowie neuronale Netze, mit denen der Inhalt bewertet wird. Eine andere Technik implementiert der genetische Algorithmus mit Hilfe dessen die Agenten Nachkommen mit neuen Mutationen erzeugen können. Danach wird eine konkrete Implementierung des InfoSpiders-Algorithmus' anhand von MySpiders verdeutlicht. Im Anschluss daran wird der InfoSpiders-Algorithmus sowie MySpiders einer Evaluation bezüglich des zusätzlichen Nutzens gegenüber herkömmlichen Suchmaschinen unterzogen. Eine Zusammenfassung mit Ausblick zu weiteren Entwicklungen in dem Bereich adaptiver Agenten zur Suche im Internet wird das Thema abschließen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/DenisWestermeyer.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
    Pages
    22 S
  2. Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003) 0.14
    0.13768555 = product of:
      0.22029689 = sum of:
        0.04098797 = product of:
          0.08197594 = sum of:
            0.08197594 = weight(_text_:methoden in 2508) [ClassicSimilarity], result of:
              0.08197594 = score(doc=2508,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.4048574 = fieldWeight in 2508, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2508)
          0.5 = coord(1/2)
        0.081477836 = weight(_text_:techniken in 2508) [ClassicSimilarity], result of:
          0.081477836 = score(doc=2508,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.33940727 = fieldWeight in 2508, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
        0.038229827 = weight(_text_:und in 2508) [ClassicSimilarity], result of:
          0.038229827 = score(doc=2508,freq=26.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.441457 = fieldWeight in 2508, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
        0.0340583 = weight(_text_:der in 2508) [ClassicSimilarity], result of:
          0.0340583 = score(doc=2508,freq=20.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.390223 = fieldWeight in 2508, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
        0.025542954 = product of:
          0.051085908 = sum of:
            0.051085908 = weight(_text_:forschung in 2508) [ClassicSimilarity], result of:
              0.051085908 = score(doc=2508,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.26875216 = fieldWeight in 2508, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2508)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Footnote
    Diplomarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
  3. Lebrecht, H.: Methoden und Probleme der Bilderschließung (2003) 0.14
    0.1365932 = product of:
      0.21854912 = sum of:
        0.04098797 = product of:
          0.08197594 = sum of:
            0.08197594 = weight(_text_:methoden in 2871) [ClassicSimilarity], result of:
              0.08197594 = score(doc=2871,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.4048574 = fieldWeight in 2871, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2871)
          0.5 = coord(1/2)
        0.081477836 = weight(_text_:techniken in 2871) [ClassicSimilarity], result of:
          0.081477836 = score(doc=2871,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.33940727 = fieldWeight in 2871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
        0.038229827 = weight(_text_:und in 2871) [ClassicSimilarity], result of:
          0.038229827 = score(doc=2871,freq=26.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.441457 = fieldWeight in 2871, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
        0.032310538 = weight(_text_:der in 2871) [ClassicSimilarity], result of:
          0.032310538 = score(doc=2871,freq=18.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.37019804 = fieldWeight in 2871, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
        0.025542954 = product of:
          0.051085908 = sum of:
            0.051085908 = weight(_text_:forschung in 2871) [ClassicSimilarity], result of:
              0.051085908 = score(doc=2871,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.26875216 = fieldWeight in 2871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2871)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.42
  4. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.13
    0.1327648 = product of:
      0.2655296 = sum of:
        0.06558075 = product of:
          0.1311615 = sum of:
            0.1311615 = weight(_text_:methoden in 4499) [ClassicSimilarity], result of:
              0.1311615 = score(doc=4499,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.64777184 = fieldWeight in 4499, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4499)
          0.5 = coord(1/2)
        0.13036454 = weight(_text_:techniken in 4499) [ClassicSimilarity], result of:
          0.13036454 = score(doc=4499,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.5430516 = fieldWeight in 4499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.023991954 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.023991954 = score(doc=4499,freq=4.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.04559235 = weight(_text_:der in 4499) [ClassicSimilarity], result of:
          0.04559235 = score(doc=4499,freq=14.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.5223744 = fieldWeight in 4499, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
      0.5 = coord(4/8)
    
    Abstract
    Mit dieser Diplomarbeit soll vor allem ein Überblick über den derzeitigen Stand der Technik der Methoden der Semantischen Netze, der Fuzzy-Logik sowie der regelbasierten Wissensrepräsentation und -verarbeitung gegeben werden. Anhand praktischer Anwendungen wird dargestellt, in welchen Bereichen diese Techniken eingesetzt werden und welcher Nutzen sich hieraus ergibt.
    Content
    Diplomarbeit zur Erlangung des Grades eines Diplom-Wirtschaftsinformatikers (FH) der Hochschule Wismar. Vgl.: http://www.wi.hs-wismar.de/~cleve/vorl/projects/da/DA-FS-Haas.pdf.
  5. Jäger-Dengler-Harles, I.: Informationsvisualisierung und Retrieval im Fokus der Infromationspraxis (2013) 0.13
    0.1320365 = product of:
      0.21125841 = sum of:
        0.034779444 = product of:
          0.06955889 = sum of:
            0.06955889 = weight(_text_:methoden in 1709) [ClassicSimilarity], result of:
              0.06955889 = score(doc=1709,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.3435329 = fieldWeight in 1709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1709)
          0.5 = coord(1/2)
        0.097773395 = weight(_text_:techniken in 1709) [ClassicSimilarity], result of:
          0.097773395 = score(doc=1709,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.4072887 = fieldWeight in 1709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.031166462 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.031166462 = score(doc=1709,freq=12.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.35989314 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.031657733 = weight(_text_:der in 1709) [ClassicSimilarity], result of:
          0.031657733 = score(doc=1709,freq=12.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.36271852 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.015881391 = product of:
          0.031762782 = sum of:
            0.031762782 = weight(_text_:22 in 1709) [ClassicSimilarity], result of:
              0.031762782 = score(doc=1709,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.23214069 = fieldWeight in 1709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1709)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Methoden und Techniken der Informationsvisualisierung werden seit ungefähr zwanzig Jahren im Bereich der Informationssuche eingesetzt. In dieser Literaturstudie werden ausgewählte Visualisierungsanwendungen der letzten Jahre vorgestellt. Sie betreffen zum einen den Retrievalprozess, das Boolesche Retrieval, die facettierte Suche, Dokumentbeziehungen, die Zufallssuche und Ergebnisanzeige, zum anderen spezielle Anwendungen wie die kartenbasierte und adaptive Visualisierung, Zitationsnetzwerke und Wissensordnungen. Die Einsatzszenarien für Applikationen der Informationsvisualisierung sind vielfältig. Sie reichen von mobilen kleinformatigen Anwendungen bis zu großformatigen Darstellungen auf hochauflösenden Bildschirmen, von integrativen Arbeitsplätzen für den einzelnen Nutzer bis zur Nutzung interaktiver Oberflächen für das kollaborative Retrieval. Das Konzept der Blended Library wird vorgestellt. Die Übertragbarkeit von Visualisierungsanwendungen auf Bibliothekskataloge wird im Hinblick auf die Nutzung des Kataloginputs und des Angebots an Sucheinstiegen geprüft. Perspektivische Überlegungen zu zukünftigen Entwicklungsschritten von Bibliothekskatalogen sowie zum Einfluss von Visualisierungsanwendungen auf die Informationspraxis werden angestellt.
    Date
    4. 2.2015 9:22:39
  6. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.12
    0.115871586 = product of:
      0.23174317 = sum of:
        0.04057602 = product of:
          0.08115204 = sum of:
            0.08115204 = weight(_text_:methoden in 782) [ClassicSimilarity], result of:
              0.08115204 = score(doc=782,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.40078837 = fieldWeight in 782, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=782)
          0.5 = coord(1/2)
        0.11406896 = weight(_text_:techniken in 782) [ClassicSimilarity], result of:
          0.11406896 = score(doc=782,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.47517014 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.046941683 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.046941683 = score(doc=782,freq=20.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.030156504 = weight(_text_:der in 782) [ClassicSimilarity], result of:
          0.030156504 = score(doc=782,freq=8.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.34551817 = fieldWeight in 782, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.5 = coord(4/8)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  7. Steiner, E.S.: OPAC 2.0 : Mit Web 2.0-Technologie zum Bibliothekskatalog der Zukunft? (2007) 0.11
    0.11152212 = product of:
      0.29739234 = sum of:
        0.225798 = weight(_text_:techniken in 678) [ClassicSimilarity], result of:
          0.225798 = score(doc=678,freq=6.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.940593 = fieldWeight in 678, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
        0.029384023 = weight(_text_:und in 678) [ClassicSimilarity], result of:
          0.029384023 = score(doc=678,freq=6.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.33931053 = fieldWeight in 678, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
        0.04221031 = weight(_text_:der in 678) [ClassicSimilarity], result of:
          0.04221031 = score(doc=678,freq=12.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4836247 = fieldWeight in 678, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
      0.375 = coord(3/8)
    
    Abstract
    Diese Arbeit besteht im Wesentlichen aus zwei Teilen: Der erste Teil beinhaltet eine Einführung in den Begriff Web 2.0 und in die allgemeinen Rahmenbedingungen der zugehörigen technischen Entwicklungen. Des Weiteren werden exemplarische Techniken vorgestellt, die Web 2.0 zugeschrieben werden können sowie einige beispielhafte Anwendungen. Im zweiten Teil wird die Diskussion um Bibliothek 2.0 aufgegriffen, um anschließend näher auf Web 2.0 Techniken in Bibliothekskatalogen bzw. den OPAC 2.0 einzugehen. Verschiedene Techniken, die im OPAC 2.0 Anwendung finden können, werden diskutiert und zuletzt werden einige beispielhafte OPACs vorgestellt.
    Content
    Bachelorarbeit im Studiengang Bibliotheks- und Informationsmanagementan der Hochschule der Medien
    Imprint
    Stuttgart : Hochschule der Medien
  8. Jackenkroll, M.: Nutzen von XML für die Herstellung verschiedener medialer Varianten von Informationsmitteln : dargestellt am Beispiel eines geografischen Lexikonartikels (2002) 0.10
    0.10143596 = product of:
      0.16229753 = sum of:
        0.017389722 = product of:
          0.034779444 = sum of:
            0.034779444 = weight(_text_:methoden in 4804) [ClassicSimilarity], result of:
              0.034779444 = score(doc=4804,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.17176645 = fieldWeight in 4804, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4804)
          0.5 = coord(1/2)
        0.048886698 = weight(_text_:techniken in 4804) [ClassicSimilarity], result of:
          0.048886698 = score(doc=4804,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.20364435 = fieldWeight in 4804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4804)
        0.031166462 = weight(_text_:und in 4804) [ClassicSimilarity], result of:
          0.031166462 = score(doc=4804,freq=48.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.35989314 = fieldWeight in 4804, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4804)
        0.033863463 = weight(_text_:organisation in 4804) [ClassicSimilarity], result of:
          0.033863463 = score(doc=4804,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.16948946 = fieldWeight in 4804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4804)
        0.030991182 = weight(_text_:der in 4804) [ClassicSimilarity], result of:
          0.030991182 = score(doc=4804,freq=46.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3550815 = fieldWeight in 4804, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4804)
      0.625 = coord(5/8)
    
    Content
    "Die Extensible Markup Language (XML) ist eine Metaauszeichnungssprache, die 1998 vom World Wide Web Consortium (W3C), einer Organisation, die sich mit der Erstellung von Web Standards und neuen Technologien für das Internet beschäftigt, als neue Empfehlung für Web-Anwendungen festgesetzt wurde. Seitdem ist viel über XML und die sich durch diese Sprache ergebenden neuen Möglichkeiten des Datenaustausches über das Internet publiziert worden. In XML-Dokumenten werden die hierarchische Struktur und der Inhalt der Dokumente festgelegt, aber keinerlei Angaben zum Layout gemacht. Dieses wird in so genannten Stylesheets definiert. Mit Hilfe mehrerer Stylesheets, die sich alle auf ein XML-Dokument beziehen, ist es möglich, aus einem Datenbestand verschiedene Ausgabeprodukte, z.B. eine Online-Version und eine druckbare Ausgabe eines Dokuments, zu erzeugen. Diese Möglichkeit der Herstellung verschiedener medialer Varianten eines Produkts ist auch für die Herstellung von Informationsmitteln interessant. Im Bereich der Produktion von Informationsmitteln, vor allem von Lexika und Enzyklopädien, ist in den letzten Jahren zu beobachten gewesen, dass neben der traditionellen, gedruckten Ausgabe des Nachschlagewerks zunehmend auch elektronische Varianten, die durch multimediale Elemente angereichert sind, angeboten werden. Diese elektronischen Nachschlagewerke werden sowohl offline, d.h. auf CD-ROM bzw. DVD, als auch online im Internet veröffentlicht. Im Gegensatz zu den gedruckten Versionen werden die neuen Produkte fast jährlich aktualisiert. Diese neue Situation erforderte Veränderungen im Herstellungsprozess. Ein Verfahren, das die Erzeugung verschiedener medialer Varianten eines Produkts möglichst einfach und problemlos ermöglicht, wurde benötigt. XML und ihr Vorgänger, die Standard Generalized Markup Language (SGML), schienen die perfekte Lösung für dieses Problem zu sein. Die Erwartungen an den Nutzen, den SGML und XML bringen könnten, waren hoch: "Allein dieses Spitzklammerformat, eingespeist in einen Datenpool, soll auf Knopfdruck die Generierung der verschiedensten Medienprodukte ermöglichen". Ziel dieser Arbeit ist es, darzustellen, wie der neue Standard XML bei der Publikation von Informationsmitteln eingesetzt werden kann, um aus einem einmal erfassten Datenbestand mit möglichst geringem Aufwand mehrere Ausgabeprodukte zu generieren. Es wird darauf eingegangen, welche Ausgabeformen sich in diesem Bereich für XML-Dokumente anbieten und mit welchen Verfahren und Hilfsmitteln die jeweiligen Ausgabeformate erstellt werden können. In diesem Zusammenhang sollen auch die Aspekte behandelt werden, die sich bei der Umwandlung von XML-Dokumenten in andere For mate unter Umständen als problematisch erweisen könnten.
    Ausgehend von dieser Sachlage ergibt sich die Struktur der vorliegenden Arbeit: Einleitend werden die Metaauszeichnungssprache XML sowie einige ausgewählte Spezifikationen, die im Zusammenhang mit XML entwickelt wurden und eine sinnvolle Anwendung dieser Sprache erst ermöglichen, vorgestellt (Kapitel 2). Dieses Kapitel soll einen knappen, theoretischen Überblick darüber geben, was XML und zugehörige Ergänzungen leisten können, welche Ziele sie jeweils verfolgen und mit welchen Methoden sie versuchen, diese Ziele zu erreichen. Damit soll dieser erste Teil dazu beitragen, das Vorgehen bei der Entwicklung der späteren Beispiel-DTD und den zugehörigen Stylesheets nachvollziehbar zu machen. Daher wird hier nur auf solche Spezifikationen eingegangen, die im Zusammenhang mit der Produktion von Informationsmitteln auf XML-Basis unbedingt benötigt werden bzw. in diesem Bereich von Nutzen sind. Neben der sogenannten Dokumenttypdefinition (DTD), die die Struktur der XML-Dokumente bestimmt, sollen daher die Spezifikationen zu den Themen Linking, Transformation und Formatierung behandelt werden. Sicherlich spielen auch Techniken zur Gestaltung des Retrieval bei elektronischen Ausgaben von Informationsmitteln eine Rolle. Dieser Bereich soll hier jedoch ausgeklammert werden, um den Rahmen dieser Arbeit nicht zu sprengen. Der Schwerpunkt liegt vielmehr auf den Bereichen der Transformation und Formatierung, da diese zur Erstellung von Stylesheets und damit zur Generierung der späteren Ausgabeprodukte von zentraler Bedeutung sind.
    Das folgende Kapitel (Kapitel 3) der Arbeit beschäftigt sich mit dem Themenkomplex der Informationsmittel. Hier soll herausgearbeitet werden, welche Typen von Informationsmitteln es gibt und inwieweit sich elektronische und gedruckte Informationsmittel unterscheiden. Schwerpunktmäßig soll in diesem Teil aber dargestellt werden, wie XML und die ihr verwandte, aber komplexere Metaauszeichnungssprache SGML in Verlagen zur Publikation von Informationsmitteln eingesetzt werden, welche Vorteile eine derartige Auszeichnung der Daten mit sich bringt und an welchen Stellen Probleme auftauchen. Nach dem theoretischen Teil soll im weiteren Verlauf der Arbeit (Kapitel 4) die zuvor erläuterte Vorgehensweise an einem Beispiel demonstriert und in die Praxis umgesetzt werden. Anhand eines geografischen Lexikonartikels soll gezeigt werden, wie sich eine DTD entwickeln lässt, welche die Charakteristika dieses Dokumenttyps widerspiegelt und wie verschiedene Stylesheets eingesetzt werden können, um aus dem einmal erfassten Inhalt verschiedene Ausgabeprodukte zu erzeugen. Das entworfene XML-Dokument soll in diesem Fall als HTML-Dokument, als PDF-Dokument und als leicht verändertes XML-Dokument ausgegeben werden."
  9. Enz, H.: Informationsdienst in Mittelstadtbibliotheken : Vergleichende Untersuchung von Konzeption, Organisation und Bestand der Stadtbibliotheken Düren, Moers und Siegburg (1991) 0.10
    0.098645106 = product of:
      0.26305363 = sum of:
        0.047983907 = weight(_text_:und in 6854) [ClassicSimilarity], result of:
          0.047983907 = score(doc=6854,freq=4.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.55409175 = fieldWeight in 6854, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=6854)
        0.18060514 = weight(_text_:organisation in 6854) [ClassicSimilarity], result of:
          0.18060514 = score(doc=6854,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.9039438 = fieldWeight in 6854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.125 = fieldNorm(doc=6854)
        0.034464575 = weight(_text_:der in 6854) [ClassicSimilarity], result of:
          0.034464575 = score(doc=6854,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3948779 = fieldWeight in 6854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.125 = fieldNorm(doc=6854)
      0.375 = coord(3/8)
    
  10. Bunzel, A.: Organisation des Informationsdienstes : Darstellung der Hauptprobleme anhand in- und ausländischer Fachbeiträge sowie vergleichende Untersuchung in drei Öffentlichen Bibliotheken (1977) 0.09
    0.0933748 = product of:
      0.24899948 = sum of:
        0.033929747 = weight(_text_:und in 6831) [ClassicSimilarity], result of:
          0.033929747 = score(doc=6831,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.39180204 = fieldWeight in 6831, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=6831)
        0.18060514 = weight(_text_:organisation in 6831) [ClassicSimilarity], result of:
          0.18060514 = score(doc=6831,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.9039438 = fieldWeight in 6831, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.125 = fieldNorm(doc=6831)
        0.034464575 = weight(_text_:der in 6831) [ClassicSimilarity], result of:
          0.034464575 = score(doc=6831,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3948779 = fieldWeight in 6831, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.125 = fieldNorm(doc=6831)
      0.375 = coord(3/8)
    
  11. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.09
    0.09144801 = product of:
      0.18289602 = sum of:
        0.11522706 = weight(_text_:techniken in 867) [ClassicSimilarity], result of:
          0.11522706 = score(doc=867,freq=4.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.47999436 = fieldWeight in 867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.028053021 = weight(_text_:und in 867) [ClassicSimilarity], result of:
          0.028053021 = score(doc=867,freq=14.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.32394084 = fieldWeight in 867, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.026381444 = weight(_text_:der in 867) [ClassicSimilarity], result of:
          0.026381444 = score(doc=867,freq=12.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.30226544 = fieldWeight in 867, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.013234494 = product of:
          0.026468989 = sum of:
            0.026468989 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.026468989 = score(doc=867,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/ChristophLehrke.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
    Pages
    22 S
  12. Walther, R.: Möglichkeiten und Grenzen automatischer Klassifikationen von Web-Dokumenten (2001) 0.08
    0.084675774 = product of:
      0.16935155 = sum of:
        0.057383157 = product of:
          0.114766315 = sum of:
            0.114766315 = weight(_text_:methoden in 1562) [ClassicSimilarity], result of:
              0.114766315 = score(doc=1562,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.56680036 = fieldWeight in 1562, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1562)
          0.5 = coord(1/2)
        0.03927423 = weight(_text_:und in 1562) [ClassicSimilarity], result of:
          0.03927423 = score(doc=1562,freq=14.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4535172 = fieldWeight in 1562, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.03693402 = weight(_text_:der in 1562) [ClassicSimilarity], result of:
          0.03693402 = score(doc=1562,freq=12.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4231716 = fieldWeight in 1562, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.035760134 = product of:
          0.07152027 = sum of:
            0.07152027 = weight(_text_:forschung in 1562) [ClassicSimilarity], result of:
              0.07152027 = score(doc=1562,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.376253 = fieldWeight in 1562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1562)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Automatische Klassifikationen von Web- und andern Textdokumenten ermöglichen es, betriebsinterne und externe Informationen geordnet zugänglich zu machen. Die Forschung zur automatischen Klassifikation hat sich in den letzten Jahren intensiviert. Das Resultat sind verschiedenen Methoden, die heute in der Praxis einzeln oder kombiniert für die Klassifikation im Einsatz sind. In der vorliegenden Lizenziatsarbeit werden neben allgemeinen Grundsätzen einige Methoden zur automatischen Klassifikation genauer betrachtet und ihre Möglichkeiten und Grenzen erörtert. Daneben erfolgt die Präsentation der Resultate aus einer Umfrage bei Anbieterrfirmen von Softwarelösungen zur automatische Klassifikation von Text-Dokumenten. Die Ausführungen dienen der myax internet AG als Basis, ein eigenes Klassifikations-Produkt zu entwickeln
    Footnote
    Lizenziatsarbeit an der Rechts- und Wirtschaftswissenschaftlichen Fakultät der Universität Bern, Institut für Wirtschaftsinformatik (Prof. G. Knolmayer)
    Imprint
    Bern : Rechts- und Wirtschaftswissenschaftlichen Fakultät
  13. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.07
    0.07287502 = product of:
      0.1943334 = sum of:
        0.12411528 = product of:
          0.37234583 = sum of:
            0.37234583 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.37234583 = score(doc=973,freq=2.0), product of:
                0.3312579 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.039072596 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.025447309 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.025447309 = score(doc=973,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.0447708 = weight(_text_:der in 973) [ClassicSimilarity], result of:
          0.0447708 = score(doc=973,freq=6.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.5129615 = fieldWeight in 973, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.375 = coord(3/8)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
    Footnote
    Inauguraldissertation zur Erlangung der Doktorwürde Vorgelegt der Philosophischen Fakultät I der Humboldt-Universität zu Berlin.
  14. Grün, S.: Mehrwortbegriffe und Latent Semantic Analysis : Bewertung automatisch extrahierter Mehrwortgruppen mit LSA (2017) 0.07
    0.07156609 = product of:
      0.1908429 = sum of:
        0.025972052 = weight(_text_:und in 3954) [ClassicSimilarity], result of:
          0.025972052 = score(doc=3954,freq=12.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.29991096 = fieldWeight in 3954, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3954)
        0.0340583 = weight(_text_:der in 3954) [ClassicSimilarity], result of:
          0.0340583 = score(doc=3954,freq=20.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.390223 = fieldWeight in 3954, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3954)
        0.13081254 = weight(_text_:sozialwissenschaftlichen in 3954) [ClassicSimilarity], result of:
          0.13081254 = score(doc=3954,freq=2.0), product of:
            0.30417487 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.039072596 = queryNorm
            0.43005705 = fieldWeight in 3954, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3954)
      0.375 = coord(3/8)
    
    Abstract
    Die vorliegende Studie untersucht das Potenzial von Mehrwortbegriffen für das Information Retrieval. Zielsetzung der Arbeit ist es, intellektuell positiv bewertete Kandidaten mithilfe des Latent Semantic Analysis (LSA) Verfahren höher zu gewichten, als negativ bewertete Kandidaten. Die positiven Kandidaten sollen demnach bei einem Ranking im Information Retrieval bevorzugt werden. Als Kollektion wurde eine Version der sozialwissenschaftlichen GIRT-Datenbank (German Indexing and Retrieval Testdatabase) eingesetzt. Um Kandidaten für Mehrwortbegriffe zu identifizieren wurde die automatische Indexierung Lingo verwendet. Die notwendigen Kernfunktionalitäten waren Lemmatisierung, Identifizierung von Komposita, algorithmische Mehrworterkennung sowie Gewichtung von Indextermen durch das LSA-Modell. Die durch Lingo erkannten und LSAgewichteten Mehrwortkandidaten wurden evaluiert. Zuerst wurde dazu eine intellektuelle Auswahl von positiven und negativen Mehrwortkandidaten vorgenommen. Im zweiten Schritt der Evaluierung erfolgte die Berechnung der Ausbeute, um den Anteil der positiven Mehrwortkandidaten zu erhalten. Im letzten Schritt der Evaluierung wurde auf der Basis der R-Precision berechnet, wie viele positiv bewerteten Mehrwortkandidaten es an der Stelle k des Rankings geschafft haben. Die Ausbeute der positiven Mehrwortkandidaten lag bei durchschnittlich ca. 39%, während die R-Precision einen Durchschnittswert von 54% erzielte. Das LSA-Modell erzielt ein ambivalentes Ergebnis mit positiver Tendenz.
    Footnote
    Masterarbeit, Studiengang Informationswissenschaft und Sprachtechnologie, Institut für Sprache und Information, Philosophische Fakultät, Heinrich-Heine-Universität Düsseldorf
    Imprint
    Düsseldorf : Heinrich-Heine-Universität / Philosophische Fakultät / Institut für Sprache und Information
  15. Sauer, C.S.: Analyse von Webcommunities und Extraktion von Wissen aus Communitydaten für Case-Based Reasoning Systeme (2010) 0.07
    0.07010616 = product of:
      0.18694977 = sum of:
        0.11522706 = weight(_text_:techniken in 2231) [ClassicSimilarity], result of:
          0.11522706 = score(doc=2231,freq=4.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.47999436 = fieldWeight in 2231, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
        0.021206092 = weight(_text_:und in 2231) [ClassicSimilarity], result of:
          0.021206092 = score(doc=2231,freq=8.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.24487628 = fieldWeight in 2231, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
        0.05051662 = weight(_text_:der in 2231) [ClassicSimilarity], result of:
          0.05051662 = score(doc=2231,freq=44.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.57879424 = fieldWeight in 2231, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
      0.375 = coord(3/8)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit den Möglichkeiten der Informationsextraktion aus den Daten von Webcommunities und der Verwendung der extrahierten Informationen in Case-Based Reasoning- (CBR) Systemen. Im Rahmen der Arbeit wird auf die Entwicklung der Webcommunities im Zeitraum der letzten 30 Jahre eingegangen. Es wird eine Klassifikation der derzeitig anzutreffenden Webcommunities in verschiedene Kategorien von Webcommunities vorgenommen. Diese Klassifikation erfolgt hinsichtlich der Struktur, der technischen Mittel sowie der Interessen der Nutzer dieser Webcommunities. Aufbauend auf die vorgenommene Klassifikation von Webcommunities erfolgt eine Untersuchung der Eignung dieser Kategorien von Webcommunities zur Informationsextraktion im Kontext der Verwendung der extrahierten Informationen in CBR-Systemen. Im selben Kontext werden verschiedene Ansätze und Techniken der Informationsextraktion auf ihre Eignung zur Extraktion von Wissen speziell für die Wissenscontainer von CBR -Systeme geprüft. Aufbauend auf den dadurch gewonnenen Erkenntnissen wird, angelehnt an den Prozess der Knowledge Discovery in Databases, ein eigenes Prozessmodell der Wissensextraktion aus Webcommunities für CBR-Systeme entworfen. Im Zuge der näheren Betrachtung dieses Prozessmodells wird auf verschiedene, durch die beabsichtigte Verwendung der extrahierten Informationen in den vier Wissenscontainern des CBR bedingte, Anforderungen an NLP- sowie IE-Techniken, die zur Extraktion dieser Daten verwendet werden, eingegangen. Die in den theoretischen Betrachtungen erlangten Erkenntnisse werden dann dazu eingesetzt, eine Anwendung zur Informationsextraktion aus einer Webcommunity für ein CBR-System, in Form der Knowledge Extraction Workbench zu implementieren. Diese IEAnwendung arbeitet im Kontext des auf der SEASALT-Architektur aufbauenden Projektes docQuery. Die Realisierung dieser IE-Anwendung wird dokumentiert sowie die Extraktionsergebnisse der Anwendung hinsichtlich ihres Umfanges und ihrer Qualität evaluiert.
  16. Nagelschmidt, M.: Verfahren zur Anfragemodifikation im Information Retrieval (2008) 0.07
    0.06707966 = product of:
      0.1788791 = sum of:
        0.097773395 = weight(_text_:techniken in 2774) [ClassicSimilarity], result of:
          0.097773395 = score(doc=2774,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.4072887 = fieldWeight in 2774, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.040235728 = weight(_text_:und in 2774) [ClassicSimilarity], result of:
          0.040235728 = score(doc=2774,freq=20.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.46462005 = fieldWeight in 2774, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.040869962 = weight(_text_:der in 2774) [ClassicSimilarity], result of:
          0.040869962 = score(doc=2774,freq=20.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.46826762 = fieldWeight in 2774, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
      0.375 = coord(3/8)
    
    Abstract
    Für das Modifizieren von Suchanfragen kennt das Information Retrieval vielfältige Möglichkeiten. Nach einer einleitenden Darstellung der Wechselwirkung zwischen Informationsbedarf und Suchanfrage wird eine konzeptuelle und typologische Annäherung an Verfahren zur Anfragemodifikation gegeben. Im Anschluss an eine kurze Charakterisierung des Fakten- und des Information Retrieval, sowie des Vektorraum- und des probabilistischen Modells, werden intellektuelle, automatische und interaktive Modifikationsverfahren vorgestellt. Neben klassischen intellektuellen Verfahren, wie der Blockstrategie und der "Citation Pearl Growing"-Strategie, umfasst die Darstellung der automatischen und interaktiven Verfahren Modifikationsmöglichkeiten auf den Ebenen der Morphologie, der Syntax und der Semantik von Suchtermen. Darüber hinaus werden das Relevance Feedback, der Nutzen informetrischer Analysen und die Idee eines assoziativen Retrievals auf der Basis von Clustering- und terminologischen Techniken, sowie zitationsanalytischen Verfahren verfolgt. Ein Eindruck für die praktischen Gestaltungsmöglichkeiten der behandelten Verfahren soll abschließend durch fünf Anwendungsbeispiele vermittelt werden.
  17. Külper, U.; Will, G.: ¬Das Projekt Bücherschatz : interdisziplinäre und partizipative Entwicklung eines kindgerechten Bibliotheks-Online-Kataloges (1996) 0.07
    0.06682089 = product of:
      0.17818904 = sum of:
        0.046941683 = weight(_text_:und in 4725) [ClassicSimilarity], result of:
          0.046941683 = score(doc=4725,freq=20.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.54205674 = fieldWeight in 4725, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4725)
        0.07901475 = weight(_text_:organisation in 4725) [ClassicSimilarity], result of:
          0.07901475 = score(doc=4725,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.3954754 = fieldWeight in 4725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4725)
        0.0522326 = weight(_text_:der in 4725) [ClassicSimilarity], result of:
          0.0522326 = score(doc=4725,freq=24.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.5984551 = fieldWeight in 4725, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4725)
      0.375 = coord(3/8)
    
    Abstract
    Im Jahr 1995 entstand in interdisziplinärer Zusammenarbeit der Prototyp Bücherschatz, ein Bibliotheks-Online_katalog für Kinder. Beteiligt waren Studierende und eine Professorin der FH Hamburg, Fb Bibliothek und Information, ein Designer und 2 Informatikerinnen der Universität Hamburg. In diesem Bericht werden sowohl das Produkt Bücherschatz als auch der Prozeß seiner Entwicklung beschrieben. Ein Schwerpunkt liegt in der Auseinandersetzung mit theoretischen Modellen der Softwaretechnik - hier STEPS und Prototyping - und ihrer Anpassung an konkrete Projekterfordernisse. Weiterhin werden Fragen nach der Gestaltung kindgerechter Software, der Organisation eines großen Projektteams und nach der Art der Partizipation der Benutzer thematisiert. Das Gesamtprojekt wird in einen wissenschaftlichen Kontext der Informatik eingeordnet, und zentrale Erfahrungen und Erkenntnisse hinsichtlich interdisziplinärer und partizipativer Softwareentwicklung werden zusammengefaßt
  18. Schönauer, S.: Wissensmanagement im Fokus kommunikativer Prozesse (2003) 0.07
    0.06674476 = product of:
      0.17798603 = sum of:
        0.038871408 = weight(_text_:und in 3407) [ClassicSimilarity], result of:
          0.038871408 = score(doc=3407,freq=42.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.44886562 = fieldWeight in 3407, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3407)
        0.034464575 = weight(_text_:der in 3407) [ClassicSimilarity], result of:
          0.034464575 = score(doc=3407,freq=32.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3948779 = fieldWeight in 3407, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3407)
        0.104650036 = weight(_text_:sozialwissenschaftlichen in 3407) [ClassicSimilarity], result of:
          0.104650036 = score(doc=3407,freq=2.0), product of:
            0.30417487 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.039072596 = queryNorm
            0.34404564 = fieldWeight in 3407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.03125 = fieldNorm(doc=3407)
      0.375 = coord(3/8)
    
    Abstract
    Der Untersuchungsgegenstand dieser Arbeit umfasst sowohl die theoretischen Konzepte zum Management von Wissen, als auch die Möglichkeit der Integration neuer Informations- und Kommunikationstechnologien in den Prozess des Wissensmanagements. Da eine kritische Betrachtung von Wissensmanagementkonzepten ohne der grundsätzlichen Darstellung des ökonomischen Umfeldes, sowie der Klärung der Frage, welche Faktoren die Entstehung von Wissen beeinflussen nicht möglich ist, werden im Rahmen dieser Arbeit auch diese Aspekte betrachtet. In Bezug auf die Integration neuer Informations- und Kommunikationstechnologien müssen neben den grundsätzlichen Charakteristika dieser Technologien auch die Bedeutung von Kommunikation und Information im Kontext des ökonomischen Systems, als auch im Kontext von Wissen untersucht werden. Aus der grundsätzlichen Darstellung der Zusammenhänge von Kommunikation und Wissen und der Bedeutung von Wissen für die Wirtschaft lassen sich einige grundlegende Anforderungen an das Management von Wissen stellen, anhand derer das Wissensmanagement untersucht wird. Eine Analyse der Charakteristika neuer Informations- und Kommunikationstechnologien und der Bedeutung von Kommunikation für die Wissensgenerierung können Hinweise darauf geben, welche Wissensmanagementkonzepte dem Untersuchungsgegenstand Wissen gerecht werden und welche Relevanz neue Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement haben.
    Fragestellung: "Kann man Wissen wie eine Ressource behandeln und managen?" Diese Frage stellt bzw. sollte den Ausgangspunkt jedes Wissensmanagementkonzeptes darstellen und steht aus diesem Grund im Mittelpunkt dieser Arbeit. Anders formuliert könnte man sagen: "Ist der Begriff Wissensmanagement kontradiktorisch?" Stellen Wissensmanagementkonzepte nur einen neuen Managementtrend dar, der alte, wenig erfolgreiche Konzepte (Business Process Reengeneering, TQM, Lean Management, Kaizen) mit neuen Begriffen auffüllt? Was ist Wissen und welche Faktoren begünstigen die Entstehung und den Austausch von Wissen? Welche Bedeutung hat Kommunikation für die Entstehung von Wissen? Wenn Kommunikation einen entscheidenden Faktor für die Entstehung und den Austausch von Wissen hat, inwiefern können Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement genutzt werden? Das sind die zentralen Fragen, die ich mir am Anfang und im Verlauf dieser Arbeit gestellt habe. Die Fragestellungen basieren auf sozialwissenschaftlichen Überlegungen, anhand derer das ökonomische Konzept Wissensmanagement untersucht wird. Nachdem Wissen ein soziales Konstrukt ist und die Transformation der knowledge-based economy vor allem von den neuen Informations- und Kommunikationstechnologien vorangetrieben und verstärkt wurde, erschien mir die Betrachtung des Managements von Wissen anhand dieser Fragestellungen für zielführend und an der Zeit.
    Content
    Diplomarbeit zur Erlangung des Magistergrades an der Geisteswissenschaftlichen Fakultät der Universität Salzburg; vgl.: http://sun.subnet.at:8060/netzkultur/artikel/Wissensmanagement.pdf.
    Source
    eine kritische Analyse im Kontext neuer Informations- und Kommunikationstechnologien
  19. Stünkel, M.: Neuere Methoden der inhaltlichen Erschließung schöner Literatur in öffentlichen Bibliotheken (1986) 0.06
    0.06358505 = product of:
      0.16956013 = sum of:
        0.092745185 = product of:
          0.18549037 = sum of:
            0.18549037 = weight(_text_:methoden in 5815) [ClassicSimilarity], result of:
              0.18549037 = score(doc=5815,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.9160877 = fieldWeight in 5815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.125 = fieldNorm(doc=5815)
          0.5 = coord(1/2)
        0.034464575 = weight(_text_:der in 5815) [ClassicSimilarity], result of:
          0.034464575 = score(doc=5815,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3948779 = fieldWeight in 5815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.125 = fieldNorm(doc=5815)
        0.042350378 = product of:
          0.084700756 = sum of:
            0.084700756 = weight(_text_:22 in 5815) [ClassicSimilarity], result of:
              0.084700756 = score(doc=5815,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.61904186 = fieldWeight in 5815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5815)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Date
    4. 8.2006 21:35:22
  20. Wei, W.: SOAP als Basis für verteilte, heterogene virtuelle OPACs (2002) 0.06
    0.0624153 = product of:
      0.1248306 = sum of:
        0.048886698 = weight(_text_:techniken in 4097) [ClassicSimilarity], result of:
          0.048886698 = score(doc=4097,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.20364435 = fieldWeight in 4097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.022937896 = weight(_text_:und in 4097) [ClassicSimilarity], result of:
          0.022937896 = score(doc=4097,freq=26.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.2648742 = fieldWeight in 4097, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.03768024 = weight(_text_:der in 4097) [ClassicSimilarity], result of:
          0.03768024 = score(doc=4097,freq=68.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4317214 = fieldWeight in 4097, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.015325773 = product of:
          0.030651545 = sum of:
            0.030651545 = weight(_text_:forschung in 4097) [ClassicSimilarity], result of:
              0.030651545 = score(doc=4097,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.16125129 = fieldWeight in 4097, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4097)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Eine wichtige Aufgabe der Informationsverarbeitung als fachbezogene Informatik besteht darin, die neue Entwicklung der Informationstechnologie zu verfolgen, sich damit auseinanderzusetzen, inwieweit diese Entwicklung die Forschung sowie die Anwendung in der Geisteswissenschaft unterstützen kann, und die daraus entstandenen Konzepte zu realisieren. Das im Jahre 1999 veröffentlichte Nachrichtenaustauschprotokoll SOAP (Abkürzung für Simple Object Access Protocol) entstand vor dem Hintergrund der schnellen Entwicklung der Vernetzung besonders des Internets. In den letzten Jahren hat SOAP große Aufmerksamkeit auf sich gezogen, weil man mit SOAP einige Beschränkungen der vorhandenen Techniken überwinden kann und damit die Leistungsfähigkeit der Software sowie Anwendung wesentlich verbessern kann. Ziel der Magisterarbeit liegt darin, einerseits theoretisch über die Möglichkeit des Einsetzens von SOAP in der Bibliotheksanwendung zu untersuchen, andererseits das Ergebnis der theoretischen Untersuchung in die Praxis umzusetzen, d.h. das Konzept eines Bibliotheksanwendungssystems mit dem Einsatz von SOAP zusammenzustellen und es zu realisieren. SOAP ist ein Nachrichtenprotokoll, das die Kommunikationen zwischen entfernten Systemen unterstützt. In der Arbeit wird durch eine theoretische Untersuchung gezeigt, dass SOAP sich besonders gut für die in der stark heterogenen Umgebung wie Internet verteilte Anwendung eignet. Eine der häufig von dem Bibliotheksystem über das Internet angebotenen verteilten Anwendungen ist der verteilte OPAC. Ein verteilter OPAC bietet eine verteilte Suche in mehreren Bibliothekssystemen an. Die meisten bisherigen Bibliothekssysteme realisieren die verteilte Suche vorwiegend mit der Unterstützung des Protokolls Z39.50. Durch die theoretische Untersuchung ist es zu sehen, dass mit dem Einsatz von SOAP einerseits der Arbeitsaufwand in der Realisierung bzw. die Verwaltung des Systems verglichen mit dem Z39.50 reduziert, andererseits die Funktionalität des Systems stark erweitert wird, dass eine Zusammenarbeit des Bibliothekssystems mit den Systemen anderer Bereiche leicht realisiert werden kann. Als praktisches Projekt der Magisterarbeit wird ein System der verteilten OPACs mit SOAP als Nachrichtenaustauschprotokoll entwickelt.
    Content
    Überblick über die Kapitel In Kapitel l. Simple Object Acces Protocol (SOAP) wird zuerst der Hintergrund der Entwicklung von SOAP untersucht. Mit einer kurzen Vorstellung der Entwicklung von verteilter Anwendung bis Web Service wird die Situation dargestellt, dass die vorhandenen Standards wie CORBA, DCOM sowie RMI die Ansprüche der stark heterogenen Umgebung wie Internet nicht erfüllen können. Um diesen Mangel der vorhandenen Lösungen zu überwinden, wurde SOAP mit dem Ziel der Unterstützung des plattformenunabhängigen Nachrichtenaustausches entwickelt. Anschließend wird der Begriff Web Service eingeführt, mit dem SOAP stark verbunden ist. Dabei wird über die Möglichkeit des Einsatzes von SOAP in den Bibliothekssystemen diskutiert. Schließlich wird SOAP durch unterschiedliche Aspekte wie SOAP und XML, SOAP Nachricht, Fehler Behandlung usw. untersucht. In Kapitel 3. Die durch Internet erweiterte Bibliothek wird die Beziehung zwischen dem Internet und der Bibliothek aus zwei Sichten, die verteilte Suche und Metadaten, beschrieben. In dem Teil über die verteilte Suche wird vorwiegend das Protokoll Z39.50, womit die bisherigen verteilten Bibliothekssysteme realisiert werden, dargestellt. In dem Teil der Metadaten wird sich zuerst mit der Bedeutung der Metadaten für die Bibliothek sowie für das Internet auseinandergesetzt. Anschließend wird über die existierenden Probleme der Metadaten und die Lösungsmöglichkeiten diskutiert. Schließlich wird eine Untersuchung einiger Metadatenstandards mit Dublin Core als Schwerpunkt durchgeführt, weil Dublin Core zur Zeit der Standard für das Internet und aus diesem Grund auch fir die Internet bezogene Bibliotheksanwendung wichtig ist. In Kapitel 4. Die Entwicklung eines verteilten Bibliothekssystems mit dem SOAP-Einsatz wird die Entwicklung des praktischen Projektes beschrieben. Zuerst wird das Ziel und die Funktionalität des Projektes festgelegt, dass ein verteiltes Bibliothekssystem mit dem Einsatz von SOAP entwickelt wird und das System eine verteilte Suche auf mehreren entfernten Bibliotheksdatenbanken ermöglichen soll. Anschließend wird beschrieben, in welchen Schritten das System entworfen und implementiert wird. Mit dem ersten System kann man nur in einer Datenbank suchen, während man mit dem zweiten System parallel in zwei Datenbanken suchen kann. Dublin Core wird als der Metadatenstandard im gesamten System eingesetzt. Die im System verwendeten Softwarepakete und die Softwarestandardtechnologien werden vorgestellt. Es wird untersucht, wie einzelne technische Komponenten zusammenarbeiten. Schließlich wird die Entwicklung der einzelnen Programmmodule und die Kommunikation zwischen ihnen beschrieben.

Years

Languages

  • d 635
  • e 19
  • a 1
  • f 1
  • hu 1
  • More… Less…

Types

Themes

Subjects

Classifications