Search (10306 results, page 1 of 516)

  • × year_i:[2000 TO 2010}
  1. Früh, W.: Inhaltsanalyse (2001) 0.32
    0.31957012 = product of:
      0.44739816 = sum of:
        0.1993786 = weight(_text_:methoden in 1751) [ClassicSimilarity], result of:
          0.1993786 = score(doc=1751,freq=12.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.8414803 = fieldWeight in 1751, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=1751)
        0.0557091 = weight(_text_:und in 1751) [ClassicSimilarity], result of:
          0.0557091 = score(doc=1751,freq=28.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.54974586 = fieldWeight in 1751, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1751)
        0.16180277 = weight(_text_:techniken in 1751) [ClassicSimilarity], result of:
          0.16180277 = score(doc=1751,freq=4.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.5759932 = fieldWeight in 1751, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=1751)
        0.0056081433 = weight(_text_:in in 1751) [ClassicSimilarity], result of:
          0.0056081433 = score(doc=1751,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.09017298 = fieldWeight in 1751, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1751)
        0.024899531 = weight(_text_:den in 1751) [ClassicSimilarity], result of:
          0.024899531 = score(doc=1751,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 1751, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=1751)
      0.71428573 = coord(5/7)
    
    Abstract
    Der Autor bietet eine theoretisch fundierte Anleitung zur praktischen Durchführung von Inhaltsanalysen. diskutiert u.a.: die Themen-Frequenzanalyse, die semantische Struktur- und Inhaltsanalyse und die computergestützte Inhaltsanalyse. Zahlreiche Beispiele erleichtern den Einstieg in diese Methode der empirischen Kommunikationsforschung
    BK
    70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
    Classification
    MR 2600 Soziologie / Sozialwissenschaftliche Theorien und Methoden / Methoden der Sozialforschung / Inhaltsanalyse, Aktenanalyse
    AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
    AP 13500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Allgemeines
    70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
    RVK
    MR 2600 Soziologie / Sozialwissenschaftliche Theorien und Methoden / Methoden der Sozialforschung / Inhaltsanalyse, Aktenanalyse
    AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
    AP 13500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Allgemeines
  2. Granitzer, M.: Statistische Verfahren der Textanalyse (2006) 0.31
    0.3054297 = product of:
      0.42760155 = sum of:
        0.094961956 = weight(_text_:methoden in 5809) [ClassicSimilarity], result of:
          0.094961956 = score(doc=5809,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.40078837 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.030086353 = weight(_text_:und in 5809) [ClassicSimilarity], result of:
          0.030086353 = score(doc=5809,freq=6.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.2968967 = fieldWeight in 5809, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.26696095 = weight(_text_:techniken in 5809) [ClassicSimilarity], result of:
          0.26696095 = score(doc=5809,freq=8.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.9503403 = fieldWeight in 5809, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.0065428335 = weight(_text_:in in 5809) [ClassicSimilarity], result of:
          0.0065428335 = score(doc=5809,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10520181 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
        0.029049452 = weight(_text_:den in 5809) [ClassicSimilarity], result of:
          0.029049452 = score(doc=5809,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 5809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5809)
      0.71428573 = coord(5/7)
    
    Abstract
    Der vorliegende Artikel bietet einen Überblick über statistische Verfahren der Textanalyse im Kontext des Semantic Webs. Als Einleitung erfolgt die Diskussion von Methoden und gängigen Techniken zur Vorverarbeitung von Texten wie z. B. Stemming oder Part-of-Speech Tagging. Die so eingeführten Repräsentationsformen dienen als Basis für statistische Merkmalsanalysen sowie für weiterführende Techniken wie Information Extraction und maschinelle Lernverfahren. Die Darstellung dieser speziellen Techniken erfolgt im Überblick, wobei auf die wichtigsten Aspekte in Bezug auf das Semantic Web detailliert eingegangen wird. Die Anwendung der vorgestellten Techniken zur Erstellung und Wartung von Ontologien sowie der Verweis auf weiterführende Literatur bilden den Abschluss dieses Artikels.
  3. Edler, J.; Döhrn, R.; Rothgang, M.; Schmoch, U. (Mitarb.); Rangnow, R. (Mitarb.); Radmacher-Nottelmann, N. (Mitarb.): Internationalisierung industrieller Forschung und grenzüberschreitendes Wissensmanagement : Eine empirische Analyse aus der Perspektive des Standortes Deutschland (2003) 0.27
    0.27263412 = product of:
      0.31807312 = sum of:
        0.09592607 = weight(_text_:methoden in 1360) [ClassicSimilarity], result of:
          0.09592607 = score(doc=1360,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.4048574 = fieldWeight in 1360, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1360)
        0.042980507 = weight(_text_:und in 1360) [ClassicSimilarity], result of:
          0.042980507 = score(doc=1360,freq=24.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.42413816 = fieldWeight in 1360, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1360)
        0.13483565 = weight(_text_:techniken in 1360) [ClassicSimilarity], result of:
          0.13483565 = score(doc=1360,freq=4.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.47999436 = fieldWeight in 1360, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1360)
        0.008094659 = weight(_text_:in in 1360) [ClassicSimilarity], result of:
          0.008094659 = score(doc=1360,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1301535 = fieldWeight in 1360, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1360)
        0.020749612 = weight(_text_:den in 1360) [ClassicSimilarity], result of:
          0.020749612 = score(doc=1360,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.15833658 = fieldWeight in 1360, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1360)
        0.015486653 = product of:
          0.030973306 = sum of:
            0.030973306 = weight(_text_:22 in 1360) [ClassicSimilarity], result of:
              0.030973306 = score(doc=1360,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.19345059 = fieldWeight in 1360, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1360)
          0.5 = coord(1/2)
      0.85714287 = coord(6/7)
    
    Abstract
    Große Unternehmen sind in Zeiten der Globalisierung immer stärker darauf angewiesen, ihre Forschung und Entwicklung den internationalen Anforderungen anzupassen und globale Standortvorteile zu nutzen. Diese Untersuchung analysiert am Beispiel des Standortes Deutschland, wie Multinationale Konzerne aus vier Industriesektoren (Chemie, E-Technik, Maschinenbau, Fahrzeugbau) ihre Forschung und Entwicklung international aufstellen. Untersucht werden 88 Unternehmen mit Hauptsitz in Deutschland und 47 ausländische Unternehmen mit Forschungsaktivitäten in Deutschland. Die Studie verbindet indikatorbasierte Analysen zur Darstellung von Patent- und Publikationsprofilen mit einer schriftlichen Befragung sowie Analysen von Geschäftsberichten. Mit diesem breiten methodischen Instrumentarium können das Ausmaß, die inhaltlichen Schwerpunkte, die Triebkräfte und das Management internationaler Forschungsaktivitäten abgebildet werden. Damit trägt die Untersuchung zu einem differenzierteren Verständnis der Forschungsaktivitäten Multinationaler Konzerne bei und leistet gleichzeitig einen Beitrag zur aktuellen Einordnung der Stärken und Schwächen des Forschungsstandortes Deutschlands.
    BK
    83.03 Methoden und Techniken der Volkswirtschaft
    Classification
    83.03 Methoden und Techniken der Volkswirtschaft
    Date
    22. 3.2008 17:43:36
    Series
    Technik, Wirtschaft und Politik; 54
  4. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.27
    0.26991412 = product of:
      0.37787977 = sum of:
        0.1534817 = weight(_text_:methoden in 4499) [ClassicSimilarity], result of:
          0.1534817 = score(doc=4499,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.64777184 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.028074749 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.028074749 = score(doc=4499,freq=4.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.15254912 = weight(_text_:techniken in 4499) [ClassicSimilarity], result of:
          0.15254912 = score(doc=4499,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.5430516 = fieldWeight in 4499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.010574817 = weight(_text_:in in 4499) [ClassicSimilarity], result of:
          0.010574817 = score(doc=4499,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.17003182 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.033199377 = weight(_text_:den in 4499) [ClassicSimilarity], result of:
          0.033199377 = score(doc=4499,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 4499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
      0.71428573 = coord(5/7)
    
    Abstract
    Mit dieser Diplomarbeit soll vor allem ein Überblick über den derzeitigen Stand der Technik der Methoden der Semantischen Netze, der Fuzzy-Logik sowie der regelbasierten Wissensrepräsentation und -verarbeitung gegeben werden. Anhand praktischer Anwendungen wird dargestellt, in welchen Bereichen diese Techniken eingesetzt werden und welcher Nutzen sich hieraus ergibt.
  5. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.25
    0.2544145 = product of:
      0.29681692 = sum of:
        0.067829974 = weight(_text_:methoden in 4333) [ClassicSimilarity], result of:
          0.067829974 = score(doc=4333,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.2862774 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.012407403 = weight(_text_:und in 4333) [ClassicSimilarity], result of:
          0.012407403 = score(doc=4333,freq=2.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.12243814 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.16513926 = weight(_text_:techniken in 4333) [ClassicSimilarity], result of:
          0.16513926 = score(doc=4333,freq=6.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.5878706 = fieldWeight in 4333, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.0066092606 = weight(_text_:in in 4333) [ClassicSimilarity], result of:
          0.0066092606 = score(doc=4333,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10626988 = fieldWeight in 4333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.029344378 = weight(_text_:den in 4333) [ClassicSimilarity], result of:
          0.029344378 = score(doc=4333,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.22392172 = fieldWeight in 4333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.015486653 = product of:
          0.030973306 = sum of:
            0.030973306 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.030973306 = score(doc=4333,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
      0.85714287 = coord(6/7)
    
    Abstract
    Die Suche nach Informationen im Internet führt den Nutzer meistens direkt zu einer Suchmaschine. Teile der gelieferten Ergebnisse enthalten aber manchmal nicht das, was der Nutzer gesucht hat. Hier setzen sog. adaptive Agenten an, welche die Gewohnheiten ihres Nutzers zu erlernen versuchen, um später auf Basis dessen selbstständig Entscheidungen zu treffen, ohne dass der Nutzer dazu befragt werden muss. Zunächst werden im Grundlagenteil adaptive Techniken zur Informationsgewinnung sowie die grundlegenden Eigenschaften von Webcrawlern besprochen. Im Hauptteil wird daraufhin der Webcrawler InfoSpiders erläutert. Dieses Programm arbeitet mit mehreren adaptiven Agenten, die parallel basierend auf einem Satz von Startlinks das Internet nach Informationen durchsuchen. Dabei bedienen sich die Agenten verschiedenster Techniken. Darunter fallen beispielsweise statistische Methoden, die den Inhalt von Webseiten untersuchen sowie neuronale Netze, mit denen der Inhalt bewertet wird. Eine andere Technik implementiert der genetische Algorithmus mit Hilfe dessen die Agenten Nachkommen mit neuen Mutationen erzeugen können. Danach wird eine konkrete Implementierung des InfoSpiders-Algorithmus' anhand von MySpiders verdeutlicht. Im Anschluss daran wird der InfoSpiders-Algorithmus sowie MySpiders einer Evaluation bezüglich des zusätzlichen Nutzens gegenüber herkömmlichen Suchmaschinen unterzogen. Eine Zusammenfassung mit Ausblick zu weiteren Entwicklungen in dem Bereich adaptiver Agenten zur Suche im Internet wird das Thema abschließen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/DenisWestermeyer.pdf
    Pages
    22 S
  6. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.25
    0.24724352 = product of:
      0.28845078 = sum of:
        0.040697984 = weight(_text_:methoden in 729) [ClassicSimilarity], result of:
          0.040697984 = score(doc=729,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.17176645 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.037959356 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.037959356 = score(doc=729,freq=52.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.37458867 = fieldWeight in 729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.16180277 = weight(_text_:techniken in 729) [ClassicSimilarity], result of:
          0.16180277 = score(doc=729,freq=16.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.5759932 = fieldWeight in 729, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.010860125 = weight(_text_:in in 729) [ClassicSimilarity], result of:
          0.010860125 = score(doc=729,freq=30.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.17461926 = fieldWeight in 729, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.027838523 = weight(_text_:den in 729) [ClassicSimilarity], result of:
          0.027838523 = score(doc=729,freq=10.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2124308 = fieldWeight in 729, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.009291992 = product of:
          0.018583983 = sum of:
            0.018583983 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
              0.018583983 = score(doc=729,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.116070345 = fieldWeight in 729, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=729)
          0.5 = coord(1/2)
      0.85714287 = coord(6/7)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
    Date
    22. 6.2005 15:12:11
  7. Reif, G.: Semantische Annotation (2006) 0.24
    0.24175338 = product of:
      0.33845472 = sum of:
        0.10852795 = weight(_text_:methoden in 5807) [ClassicSimilarity], result of:
          0.10852795 = score(doc=5807,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.45804384 = fieldWeight in 5807, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=5807)
        0.019851845 = weight(_text_:und in 5807) [ClassicSimilarity], result of:
          0.019851845 = score(doc=5807,freq=2.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.19590102 = fieldWeight in 5807, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5807)
        0.15254912 = weight(_text_:techniken in 5807) [ClassicSimilarity], result of:
          0.15254912 = score(doc=5807,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.5430516 = fieldWeight in 5807, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=5807)
        0.010574817 = weight(_text_:in in 5807) [ClassicSimilarity], result of:
          0.010574817 = score(doc=5807,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.17003182 = fieldWeight in 5807, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=5807)
        0.046951007 = weight(_text_:den in 5807) [ClassicSimilarity], result of:
          0.046951007 = score(doc=5807,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.35827476 = fieldWeight in 5807, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=5807)
      0.71428573 = coord(5/7)
    
    Abstract
    In diesem Kapitel wird zuerst der Begriff Semantische Annotation eingeführt und es werden Techniken besprochen um die Annotationen mit dem ursprünglichen Dokument zu verknüpfen. Weiters wird auf Probleme eingegangen, die sich beim Erstellen der Annotationen ergeben. Im Anschluss daran werden Software Tools vorgestellt, die einen Benutzer beim Annotierungsprozess unterstützen. Zum Abschluss werden Methoden diskutiert, die den Annotierungsvorgang in den Entwicklungsprozess einer Web Applikation integrieren.
  8. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.23
    0.22783189 = product of:
      0.31896463 = sum of:
        0.094961956 = weight(_text_:methoden in 782) [ClassicSimilarity], result of:
          0.094961956 = score(doc=782,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.40078837 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.054929916 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.054929916 = score(doc=782,freq=20.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.13348047 = weight(_text_:techniken in 782) [ClassicSimilarity], result of:
          0.13348047 = score(doc=782,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.47517014 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.0065428335 = weight(_text_:in in 782) [ClassicSimilarity], result of:
          0.0065428335 = score(doc=782,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10520181 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.029049452 = weight(_text_:den in 782) [ClassicSimilarity], result of:
          0.029049452 = score(doc=782,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.71428573 = coord(5/7)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  9. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.22
    0.2225925 = product of:
      0.3116295 = sum of:
        0.11511128 = weight(_text_:methoden in 4322) [ClassicSimilarity], result of:
          0.11511128 = score(doc=4322,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.48582888 = fieldWeight in 4322, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.04466665 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.04466665 = score(doc=4322,freq=18.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.11441184 = weight(_text_:techniken in 4322) [ClassicSimilarity], result of:
          0.11441184 = score(doc=4322,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.4072887 = fieldWeight in 4322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.012540191 = weight(_text_:in in 4322) [ClassicSimilarity], result of:
          0.012540191 = score(doc=4322,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.20163295 = fieldWeight in 4322, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.024899531 = weight(_text_:den in 4322) [ClassicSimilarity], result of:
          0.024899531 = score(doc=4322,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 4322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.71428573 = coord(5/7)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  10. Begriffliche Wissensverarbeitung : Methoden und Anwendungen. Mit Beiträgen zahlreicher Fachwissenschaftler (2000) 0.22
    0.21668087 = product of:
      0.30335322 = sum of:
        0.13565995 = weight(_text_:methoden in 4193) [ClassicSimilarity], result of:
          0.13565995 = score(doc=4193,freq=8.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.5725548 = fieldWeight in 4193, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4193)
        0.039235655 = weight(_text_:und in 4193) [ClassicSimilarity], result of:
          0.039235655 = score(doc=4193,freq=20.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3871834 = fieldWeight in 4193, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4193)
        0.0953432 = weight(_text_:techniken in 4193) [ClassicSimilarity], result of:
          0.0953432 = score(doc=4193,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.33940727 = fieldWeight in 4193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4193)
        0.012364795 = weight(_text_:in in 4193) [ClassicSimilarity], result of:
          0.012364795 = score(doc=4193,freq=14.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.19881277 = fieldWeight in 4193, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4193)
        0.020749612 = weight(_text_:den in 4193) [ClassicSimilarity], result of:
          0.020749612 = score(doc=4193,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.15833658 = fieldWeight in 4193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4193)
      0.71428573 = coord(5/7)
    
    Abstract
    Dieses Buch stellt Methoden der Begrifflichen Wissensverarbeitung vor und präsentiert Anwendungen aus unterschiedlichen Praxisfeldern. Im Methodenteil wird in moderne Techniken der Begrifflichen Datenanalyse und Wissensverarbeitung eingeführt. Der zweite Teil richtet sich verstärkt an potentielle Anwender. An ausgewählten Anwendungen wird die Vorgehensweise bei der Datenanalyse und dem Information Retrieval mit den Methoden der Begrifflichen Wissensverarbeitung vorgestellt und ihr Potential aufgezeigt
    Content
    Enthält die Beiträge: GANTER, B.: Begriffe und Implikationen; BURMEISTER, P.: ConImp: Ein Programm zur Fromalen Begriffsanalyse; Lengnink, K.: Ähnlichkeit als Distanz in Begriffsverbänden; POLLANDT, S.: Datenanalyse mit Fuzzy-Begriffen; PREDIGER, S.: Terminologische Merkmalslogik in der Formalen Begriffsanalyse; WILLE, R. u. M. ZICKWOLFF: Grundlagen einer Triadischen Begriffsanalyse; LINDIG, C. u. G. SNELTING: Formale Begriffsanalyse im Software Engineering; STRACK, H. u. M. SKORSKY: Zugriffskontrolle bei Programmsystemen und im Datenschutz mittels Formaler Begriffsanalyse; ANDELFINGER, U.: Inhaltliche Erschließung des Bereichs 'Sozialorientierte Gestaltung von Informationstechnik': Ein begriffsanalytischer Ansatz; GÖDERT, W.: Wissensdarstellung in Informationssystemen, Fragetypen und Anforderungen an Retrievalkomponenten; ROCK, T. u. R. WILLE: Ein TOSCANA-Erkundungssystem zur Literatursuche; ESCHENFELDER, D. u.a.: Ein Erkundungssystem zum Baurecht: Methoden der Entwicklung eines TOSCANA-Systems; GROßKOPF, A. u. G. HARRAS: Begriffliche Erkundung semantischer Strukturen von Sprechaktverben; ZELGER, J.: Grundwerte, Ziele und Maßnahmen in einem regionalen Krankenhaus: Eine Anwendung des Verfahrens GABEK; KOHLER-KOCH, B. u. F. VOGT: Normen- und regelgeleitete internationale Kooperationen: Formale Begriffsanalyse in der Politikwissenschaft; HENNING, H.J. u. W. KEMMNITZ: Entwicklung eines kontextuellen Methodenkonzeptes mit Hilfer der Formalen Begriffsanalyse an Beispielen zum Risikoverständnis; BARTEL, H.-G.: Über Möglichkeiten der Formalen Begriffsanalyse in der Mathematischen Archäochemie
  11. Steiner, E.S.: OPAC 2.0 : Mit Web 2.0-Technologie zum Bibliothekskatalog der Zukunft? (2007) 0.20
    0.20486268 = product of:
      0.3585097 = sum of:
        0.034384403 = weight(_text_:und in 678) [ClassicSimilarity], result of:
          0.034384403 = score(doc=678,freq=6.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.33931053 = fieldWeight in 678, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
        0.26422283 = weight(_text_:techniken in 678) [ClassicSimilarity], result of:
          0.26422283 = score(doc=678,freq=6.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.940593 = fieldWeight in 678, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
        0.012951453 = weight(_text_:in in 678) [ClassicSimilarity], result of:
          0.012951453 = score(doc=678,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.2082456 = fieldWeight in 678, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
        0.046951007 = weight(_text_:den in 678) [ClassicSimilarity], result of:
          0.046951007 = score(doc=678,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.35827476 = fieldWeight in 678, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
      0.5714286 = coord(4/7)
    
    Abstract
    Diese Arbeit besteht im Wesentlichen aus zwei Teilen: Der erste Teil beinhaltet eine Einführung in den Begriff Web 2.0 und in die allgemeinen Rahmenbedingungen der zugehörigen technischen Entwicklungen. Des Weiteren werden exemplarische Techniken vorgestellt, die Web 2.0 zugeschrieben werden können sowie einige beispielhafte Anwendungen. Im zweiten Teil wird die Diskussion um Bibliothek 2.0 aufgegriffen, um anschließend näher auf Web 2.0 Techniken in Bibliothekskatalogen bzw. den OPAC 2.0 einzugehen. Verschiedene Techniken, die im OPAC 2.0 Anwendung finden können, werden diskutiert und zuletzt werden einige beispielhafte OPACs vorgestellt.
    Content
    Bachelorarbeit im Studiengang Bibliotheks- und Informationsmanagementan der Hochschule der Medien
  12. Park, R.L.: Fauler Zauber : Betrug und Irrtum in den Wissenschaften ; wie wir reingelegt werden und uns schützen können (2002) 0.20
    0.19629167 = product of:
      0.34351042 = sum of:
        0.035093434 = weight(_text_:und in 5640) [ClassicSimilarity], result of:
          0.035093434 = score(doc=5640,freq=4.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.34630734 = fieldWeight in 5640, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5640)
        0.013218521 = weight(_text_:in in 5640) [ClassicSimilarity], result of:
          0.013218521 = score(doc=5640,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.21253976 = fieldWeight in 5640, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=5640)
        0.041499224 = weight(_text_:den in 5640) [ClassicSimilarity], result of:
          0.041499224 = score(doc=5640,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31667316 = fieldWeight in 5640, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.078125 = fieldNorm(doc=5640)
        0.25369924 = product of:
          0.5073985 = sum of:
            0.5073985 = weight(_text_:naturwissenschaften in 5640) [ClassicSimilarity], result of:
              0.5073985 = score(doc=5640,freq=12.0), product of:
                0.29278275 = queryWeight, product of:
                  6.4035826 = idf(docFreq=198, maxDocs=44218)
                  0.045721713 = queryNorm
                1.7330204 = fieldWeight in 5640, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  6.4035826 = idf(docFreq=198, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5640)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Footnote
    Dt. Übersetzung von: Voodoo science: the road from foolishness to fraud. Vgl. die Besprechung dazu in: Spektrum der Wissenschaft 2001, H.3, S.109-110 (H. Genz)
    RSWK
    Naturwissenschaften / Irrtum
    Naturwissenschaften / Manipulation
    Naturwissenschaften / Betrug
    Subject
    Naturwissenschaften / Irrtum
    Naturwissenschaften / Manipulation
    Naturwissenschaften / Betrug
  13. Goodman, J.; Heckerman, D.; Rounthwaite, R.: Schutzwälle gegen Spam (2005) 0.20
    0.19520657 = product of:
      0.22774099 = sum of:
        0.054263975 = weight(_text_:methoden in 3696) [ClassicSimilarity], result of:
          0.054263975 = score(doc=3696,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.22902192 = fieldWeight in 3696, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=3696)
        0.019851845 = weight(_text_:und in 3696) [ClassicSimilarity], result of:
          0.019851845 = score(doc=3696,freq=8.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.19590102 = fieldWeight in 3696, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3696)
        0.107868515 = weight(_text_:techniken in 3696) [ClassicSimilarity], result of:
          0.107868515 = score(doc=3696,freq=4.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.38399547 = fieldWeight in 3696, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.03125 = fieldNorm(doc=3696)
        0.009891836 = weight(_text_:in in 3696) [ClassicSimilarity], result of:
          0.009891836 = score(doc=3696,freq=14.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15905021 = fieldWeight in 3696, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3696)
        0.023475504 = weight(_text_:den in 3696) [ClassicSimilarity], result of:
          0.023475504 = score(doc=3696,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.17913738 = fieldWeight in 3696, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=3696)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 3696) [ClassicSimilarity], result of:
              0.024778644 = score(doc=3696,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 3696, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3696)
          0.5 = coord(1/2)
      0.85714287 = coord(6/7)
    
    Abstract
    Die erste Spam wurde 1978 an 400 Empfänger im Arpanet geschickt. Absender war ein Mitarbeiter der PR-Abtei lung von Digital Equipment Corporation (Dec), der darin für den damals neuen Decsystem-20-Rechner der Firma warb. Heute macht Spam mehr als zwei Drittel der über das Internet versandten E-Mails aus; täglich werden mehrere Milliarden solcher unverlangten Werbebotschaften versandt. Ein Drittel aller EMail-Nutzer hat mehr als 80 Prozent Spam in der elektronischen Post. Seit einiger Zeit sorgt Spam zudem durch so genannte Phishing-Attacken für Ärger: Dabei werden gefälschte E-Mails, die Fake-E-Mails, verschickt, die scheinbar von Mitarbeitern großer, Vertrauen erweckender Institutionen stammen, tatsächlich aber von Betrügern kommen - um damit Kreditkartennummern oder andere persönliche Informationen auszuspionieren. Nach einer Studie von Gartner Research von 2004 verursachen Phishing-Attacken in den USA Schäden in Höhe von jährlich 1,2 Milliarden Dollar. Spammer nutzen nicht nur E-Mail. In Chatrooms warten »Roboter«, die sich als Menschen ausgeben und Leute zu Klicks auf pornografische Webseiten verleiten sollen. Nutzer von Instant-Messaging-Systemen (IM) bekommen es mit so genannten splMs zu tun, engen »Verwandten« des Spams. In Web-Blogs (Web-Tagebüchern) lauern »Link-Spammer«, welche die Arbeit von Internetsuchmaschinen manipulieren, indem sie unerwünschte Links hinzufügen - was die Nutzung von Webseiten und Links erschwert. Spam steht teilweise in dem Ruf, die Internetkommunikation zu behindern oder gar zum Erliegen zu bringen. Die Wirklichkeit sieht indes nicht ganz so schwarz aus. Softwareentwickler haben verschiedene Techniken ersonnen, Spam auszufiltern und Spammern das Handwerk zu erschweren - weitere werden in Labors erprobt. Die hier vorgestellten Methoden richten sich gegen Junk-EMail, könnten aber auch zur Eindämmung anderer Spamvarianten verwendet werden. Keine dieser Techniken vermag Wunder zu vollbringen, doch ihre Kombination - sofern möglichst viele User sie anwenden - verspricht zumindest deutliche Verbesserungen. Es ist nicht unrealistisch zu hoffen, dass unsere E-MailPostfächer eines Tages wieder nahezu frei von Spam sein werden.
    Date
    18. 7.2005 11:07:22
    Footnote
    Mit einer Grafik zum Prinzip des Spamming und der Spam-Abwehr
  14. Grundlagen der praktischen Information und Dokumentation (2004) 0.19
    0.19332641 = product of:
      0.22554748 = sum of:
        0.058742482 = weight(_text_:methoden in 693) [ClassicSimilarity], result of:
          0.058742482 = score(doc=693,freq=6.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.24792352 = fieldWeight in 693, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.04430329 = weight(_text_:und in 693) [ClassicSimilarity], result of:
          0.04430329 = score(doc=693,freq=102.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.43719158 = fieldWeight in 693, product of:
              10.099504 = tf(freq=102.0), with freq of:
                102.0 = termFreq=102.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.0476716 = weight(_text_:techniken in 693) [ClassicSimilarity], result of:
          0.0476716 = score(doc=693,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.16970363 = fieldWeight in 693, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.012798779 = weight(_text_:in in 693) [ClassicSimilarity], result of:
          0.012798779 = score(doc=693,freq=60.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.20579076 = fieldWeight in 693, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.025412979 = weight(_text_:den in 693) [ClassicSimilarity], result of:
          0.025412979 = score(doc=693,freq=12.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19392191 = fieldWeight in 693, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.036618333 = product of:
          0.07323667 = sum of:
            0.07323667 = weight(_text_:naturwissenschaften in 693) [ClassicSimilarity], result of:
              0.07323667 = score(doc=693,freq=4.0), product of:
                0.29278275 = queryWeight, product of:
                  6.4035826 = idf(docFreq=198, maxDocs=44218)
                  0.045721713 = queryNorm
                0.25013995 = fieldWeight in 693, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.4035826 = idf(docFreq=198, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=693)
          0.5 = coord(1/2)
      0.85714287 = coord(6/7)
    
    Abstract
    Das Standardwerk zur fachlichen Informationsarbeit wurde 1972 von Klaus Laisiepen, Ernst Lutterbeck und Karl-Heinrich Meyer-Uhlenried begründet. Generationen von Wissenschaftlern, Praktikern, Dozenten und Studierenden schöpften aus diesem Handbuch Kenntnisse und Wissen oder gaben als Autoren ihre Erfahrungen weiter. Mehr als 30 Jahre nach der ersten Publikation wird diese Tradition weitergeführt. Seit der vierten Ausgabe von 1997 sind erhebliche technische, methodische und organisatorische Veränderungen in den Bereichen Information und Dokumentation sowie in der Informationswissenschaft zu verzeichnen. Für die vorliegende Ausgabe konnte mit Rainer Kuhlen als neuem Mitherausgeber die informationswissenschaftliche Komponente weiter gestärkt werden. Der Aufbau der Grundlagen der praktischen Information und Dokumentation spiegelt diese Verbindung von Aktualität und Kontinuität wider: - In KAPITEL A »Grundlegendes« werden die theoretischen und begrifflichen Grundlagen des Fachgebietes erläutert, historische und professionelle Entwicklungen nachgezeichnet. - KAPITEL B »Methoden«, das die methodischen Aspekte der Informationsarbeit behandelt, wurde stark ausgeweitet. Neben den bisherigen Themen wie Klassifikation, Thesaurus usw. werden nun auch neue Aspekte wie Wissensmanagement, Kryptographie oder Dokumentmanagement behandelt. - Fortgeschrieben wurden in KAPITEL C »Systeme - Produkte - Dienstleistungen« die besonderen Fachinformationsbereiche (z.B. Metainformationsdienste des Internet, Datenbank-Management-Systeme oder Technische Redaktion). - Auf dem aktuellen Stand sind auch die Kurzdarstellungen der institutionellen Teile des Informationswesens (Archive, Bibliotheken, Buchhandel, Verlage, Elektronisches Publizieren, Medien, Wirtschaftsinformation, Medizin, E-Commerce u.a.) in KAPITEL D »Bereiche der Fachinformation und -kommunikation«. Gänzlich neu ist KAPITEL E »Information im Kontext«, das Einblicke in andere Wissenschaftsdisziplinen gibt, in denen der Bereich der Information eine immer größere Rolle spielt (z.B. Informatik, Psychologie, Sprachwissenschaft, Pädagogik, Betriebswirtschaft, Politikwissenschaft, Naturwissenschaften, Philosophie oder Neurobiologie). Den Textband mit insgesamt 73 Beiträgen auf 762 Seiten ergänzt Band 2: ein Glossar zu der im Handbuch verwendeten Terminologie mit einem zusätzlichen englischsprachigen Register. Hier werden auf 138 Seiten wichtige Begriffe und Konzepte des Informationswesens definiert und beschrieben. Das Handbuch bietet die zentralen Grundlagen für jeden Studierenden und Lehrenden, für Entscheidungsträger und Praktiker im Bereich der Information und Dokumentation. Es ist damit ein verlässlicher Leitfaden durch die Vielzahl unterschiedlicher Informationsmethoden, -dienste, -systeme und -techniken sowie die damit befassten Bereiche und Institutionen.
    Content
    Enthält die Beiträge: Rainer Kuhlen: Information Thomas Seeger: Entwicklung der Fachinformation und -kommunikation Thomas Seeger: Professionalisierung in der Informationsarbeit: Beruf und Ausbildung in Deutschland Marlies Ockenfeld: Nationale und internationale Institutionen Rainer Kuhlen: Informationsethik Thomas Seeger: (Fach-)Informationspolitik in Deutschland (Bundesrepublik Deutschland) Jürgen W Goebel: Informationsrecht -Recht der Informationswirtschaft Rainer Kuhlen: Wissensökologie Wolfgang Ratzek: Informationsutopien - Proaktive Zukunftsgestaltung. Ein Essay Hans Jürgen Manecke: Klassifikation, Klassieren Margarete Burkart: Thesaurus Ulrich Reimer: Wissensbasierte Verfahren der Organisation und Vermittlung von Information Heidrun Wiesenmüller: Informationsaufbereitung I: Formale Erfassung Gerhard Knorz: Informationsaufbereitung II: Indexieren Rainer Kuhlen: Informationsaufbereitung III: Referieren (Abstracts - Abstracting - Grundlagen) Norbert Fuhr: Theorie des Information Retrieval I: Modelle Holger Nohr: Theorie des Information Retrieval II: Automatische Indexierung Christa Womser-Hacker: Theorie des Information Retrieval III: Evaluierung Walther Umstätter: Szientometrische Verfahren Josef Herget: Informationsmanagement Holger Nohr: Wissensmanagement Michael Kluck: Methoden der Informationsanalyse - Einführung in die empirischen Methoden für die Informationsbedarfsanalyse und die Markt- und Benutzerforschung Michael Kluck: Die Informationsanalyse im Online-Zeitalter. Befunde der Benutzerforschung zum Informationsverhalten im Internet Alfred Kobsa: Adaptive Verfahren -Benutzermodellierung Stefan Grudowski: Innerbetriebliches Informationsmarketing Marc Rittberger: Informationsqualität Bernard Bekavac: Informations- und Kommunikationstechnologien Thomas Schütz: Dokumentenmanagement Nicola Döring: Computervermittelte Kommunikation, Mensch-Computer-Interaktion Daniel A. Keim: Datenvisualisierung und Data Mining Jürgen Krause: Software-Ergonomie Marlies Ockenfeld: Gedruckte Informations- und Suchdienste Joachim Kind: Praxis des Information Retrieval Bernard Bekavac: Metainformationsdienste des Internet Elke Lang: Datenbanken und Datenbank-Management-Systeme Rainer Hammwöhner: Hypertext Ralph Schmidt: Informationsvermittlung Rainer Bohnert: Technologietransfer Holger Nohr: Rechnergestützte Gruppenarbeit. Computer-Supported Cooperative Work (CSCW)
    Jiri Panyr: Technische Redaktion Wolfgang F. Finke: E-Learning Harald H. Zimmermann: Maschinelle und Computergestützte Übersetzung Franziskus Geeb und Ulrike Spree: Wörterbücher und Enzyklopädien Angelika Menne-Haritz: Archive Hans-Christoph Hobohm: Bibliotheken Günter Peters: Medien, Medienwirtschaft Ulrich Riehm: Buchhandel Helmut Wittenzellner: Transformationsprozesse für die Druckbranche auf dem Weg zum Mediendienstleister Dietmar Strauch: Verlagswesen Ulrich Riehm, Knud Böhle und Bernd Wingert: Elektronisches Publizieren Heike Andermann: Initiativen zur Reformierung des Systems wissenschaftlicher Kommunikation Ute Schwens und Hans Liegmann: Langzeitarchivierung digitaler Ressourcen Achim OBwald: Document Delivery/ Dokumentlieferung Willi Bredemeier und Patrick Müller: Informationswirtschaft Martin Michelson: Wirtschaftsinformation Ulrich Kämper: Chemie-Information Wilhelm Gaus: Information und Dokumentation in der Medizin Gottfried Herzog und Hans Jörg Wiesner: Normung Jürgen Krause: Standardisierung und Heterogenität Reinhard Schramm: Patentinformation Wolfgang Semar: E-Commerce Wolfgang Semar: Kryptografie Knud Böhle: Elektronische Zahlungssysteme Herbert Stoyan: Information in der Informatik Gerhard Roth und Christian Eurich: Der Begriff der Information in der Neurobiologie Margarete Boos: Information in der Psychologie Harald H. Zimmermann: Information in der Sprachwissenschaft Ulrich Glowalla: Information und Lernen Eric Schoop: Information in der Betriebswirtschaft: ein neuer Produktionsfaktor? Gerhard Vowe: Der Informationsbegriff in der Politikwissenschaft - eine historische und systematische Bestandsaufnahme Jürgen Krause: Information in den Sozialwissenschaften Holger Lyre: Information in den Naturwissenschaften Norbert Henrichs: Information in der Philosophie
    Footnote
    Folgt weiter dem Vorbild der 2. Aufl. in der losen Zusammenstellung von Kapiteln verschiedener Autoren. Neu ist das Glossar in Bd.2. - Angeboten als gebundene und broschierte Ausgabe
    Rez. in: Mitteilungen VÖB 57(2004) H.3/4, S.86-90 (O. Oberhauser): " ...Allen kritischen Anmerkungen zum Trotz: Im Vergleich mit der letzten Auflage schneidet diese fünfte Ausgabe erfreulich positiv ab (nur Nörgler würden sagen, dass dies nicht schwergefallen ist). Natürlich könnte darüber reflektiert werden, ob es heute noch möglich ist, das Gesamtgebiet der Informationswissenschaft und -praxis in einem Handbuch erschöpfend darzustellen; die Zeiten, in denen man Wissenschaftsdisziplinen auf diese Weise repräsentierte und legitimierte, sind eigentlich vorüber. Andererseits fehlen, gerade im deutschen Sprachraum, weitgehend gute und aktuelle Darstellungen zu den hier präsentierten Teilbereichen. Als Einstieg in die Informationswissenschaft und -praxis ist das vorliegende Handbuch daher allemal wichtig. Auch für gestandene Praktiker bietet es viele interessante und neue Themen. Der Preis für die broschierte Ausgabe ist vielleicht nicht gerade wohlfeil, aber nach heutigen Massstäben dem Umfang angemessen. Grössere Bibliotheken und bibliothekarische bzw. informationswissenschaftliche Ausbildungseinrichtungen, für die auch diese Ausgabe unverzichtbar ist, werden dagegen wohl eher zur teureren gebundenen Variante greifen." Weitere Rez. in: BuB 57(2005) H.4, S.307-308 (H. Meinhardt); ZfBB 52(2005) H.6, S.349-350 (T. Seela); Information - Wissenschaft und Praxis 56(2005) H.8, S.457-458 (D. Soergel): "In sum, this work provides a comprehensive and competent introduction to information science with a breadth of scope that exists nowhere else. It does so through a collection of independent contributions of many authors with many perspectives and many redundancies. Some readers might prefer a treatment from a unified viewpoint."
    Issue
    2 Bde. 5., völlig neu gefaßte Ausgabe. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis. Bd.2: Glossar.
    RSWK
    Information und Dokumentation
    Subject
    Information und Dokumentation
  15. "Was für ein Service!" : Entwicklung und Sicherung der Auskunftsqualität von Bibliotheken (2007) 0.19
    0.1909668 = product of:
      0.22279459 = sum of:
        0.047480978 = weight(_text_:methoden in 1426) [ClassicSimilarity], result of:
          0.047480978 = score(doc=1426,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.20039418 = fieldWeight in 1426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1426)
        0.04254853 = weight(_text_:und in 1426) [ClassicSimilarity], result of:
          0.04254853 = score(doc=1426,freq=48.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41987535 = fieldWeight in 1426, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1426)
        0.06674024 = weight(_text_:techniken in 1426) [ClassicSimilarity], result of:
          0.06674024 = score(doc=1426,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.23758507 = fieldWeight in 1426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1426)
        0.009252965 = weight(_text_:in in 1426) [ClassicSimilarity], result of:
          0.009252965 = score(doc=1426,freq=16.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.14877784 = fieldWeight in 1426, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1426)
        0.04593122 = weight(_text_:den in 1426) [ClassicSimilarity], result of:
          0.04593122 = score(doc=1426,freq=20.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.35049295 = fieldWeight in 1426, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1426)
        0.010840657 = product of:
          0.021681314 = sum of:
            0.021681314 = weight(_text_:22 in 1426) [ClassicSimilarity], result of:
              0.021681314 = score(doc=1426,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.1354154 = fieldWeight in 1426, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1426)
          0.5 = coord(1/2)
      0.85714287 = coord(6/7)
    
    Abstract
    Von der Suche über das Finden zum Wissen - Routine in wohl jeder Bibliothek. Die zielgerichtete Suche im Auftrag des Kunden bildet den roten Faden des vorliegenden Themenheftes, das ausgewählte Beiträge aus Theorie und Praxis beinhaltet. Die ersten beiden Abhandlungen setzen sich grundlegend mit dem Auskunftsdienst in Bibliotheken auseinander. Während Tom Becker (Münchner Stadtbibliothek Am Gasteig) eine Standortbestimmung der Face-to-Face-Interaktion im Auskunftsdienst vornimmt, setzt sich Ursula Georgy (Fachhochschule Köln) mit den Chancen auseinander, die der Auskunftsdienst als Bestandteil eines bibliotheksweiten Total-Quality- und Service-Quality-Ansatzes einnehmen kann. Einführend wird so verdeutlicht, dass Bibliotheken über eine hohe Informationskompetenz im Auskunftsdienst verfügen, diese aber sowohl als Serviceprodukt wie auch als Marketingobjekt ständiger Optimierung unterwerfen müssen. Im Weiteren werden Rahmenbedingungen für diese qualitativ hochwertige Dienstleistung näher betrachtet. Jutta Zimmermann (Stadtbibliothek Reutlingen) beschreibt theoretische Grundlagen und Entwicklungsschritte von Auskunftsdienstkonzepten und die praktischen Erfahrungen, die die Stadtbibliothek Reutlingen in der bisherigen Umsetzung gemacht hat. Das Auskunftsinterview als das zentrale Instrument zur Klärung des realen Informationsbedarfes des Kunden erläutert. Hermann Rösch (Fachhochschule Köln). Ziele, Verlauf, Methoden und Techniken des Auskunftsinterviews werden behandelt und ein besonderes Augenmerk gilt den Spezifika, die im digitalen Umfeld durch Auskunft per E-Mail, Webformular oder Chat bestehen. Katharina Schaal (starkewortarbeit Stuttgart) greift den Themenkomplex Stressbewältigung und Motivation im Auskunftsdienst auf und stellt - basierend auf Fallbeispielen aus dem Alltag - Handlungsanleitungen für ein gelassenes Agieren an der Infotheke vor. Vor allem digitale Ressourcen für den Auskunftsdienst stellt Frank Daniel (Stadtbibliothek Köln) in den Fokus seines Beitrags und beleuchtet die Wechselbeziehung eines sich ändernden Nutzerverhaltens mit einem komplexer und spezifischer werdenden Informationsmarkt bezogen auf den Auskunftsdienst von Bibliotheken. Qualitätsstandards im Auskunftsdienst von Bibliotheken bilden den abschließenden Themenkomplex. Ingeborg Simon (HdM Stuttgart) kommentiert und übersetzt die 'Guidelines for Behavioral Perfomances of Reference and Information Service Providers' der American Library Association und unterstreicht den Stellenwert solcher Guidelines als Instrument kontinuierlicher Qualitätsverbesserung. Der Artikel von Cornelia Vonhof (HdM Stuttgart) untersucht die Einführung von Auskunftsstandards als Change-Management-Prozess und beschreibt unter diesem Blickwinkel Möglichkeiten zum Umgang mit Widerständen, Erfolgsfaktoren in sowie Möglichkeiten der Stabilisierung von Veränderungsprozessen. Das praktische Beispiel einer qualitativen Untersuchung des Auskunftsdienstes liefert Carmen Barz (Münchner Stadtbibliothek Am Gasteig): Studierende begaben sich "inkognito" in eine Auskunftssituation, um Stärken und Schwächen dieser Dienstleistung in der Münchener Zentralbibliothek festzuhalten. In dem Artikel werden die Methode, die Ergebnisse der Studie und die daraus abgeleiteten Maßnahmen vorgestellt. Daran anknüpfend stellen Tom Becker und Hanne Riehm (beide Münchner Stadtbibliothek Am Gasteig) den Weg von eben dieser Evaluation hin zu der Definition eines Katalogs von Standards und dazugehörigen Verhaltensweisen unter aktiver Einbindung aller dortigen Mitarbeiter vor. Die erarbeiteten Qualitätsstandards und Verhaltensweisen werden anschließend aufgeführt. Die Stadtbücherei Stuttgart hinterfragt das vorhandene Servicelevel im Auskunftsdienst und entwickelt aufbauend auf vorhandenen Bausteinen eine systemweit einheitliche Auskunfts-Konzeption. Warum die stetig steigenden und sehr differenzierten Anforderungen seitens der Kunden durch klar formulierte Qualitätsstandards besser kanalisiert und bewältigt werden können, berichtet Katinka Emminger (Stadtbücherei Stuttgart).
    Classification
    AN 76400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliotheksbenutzung / Auskunft, Information
    Date
    22. 2.2008 14:05:48
    RVK
    AN 76400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliotheksbenutzung / Auskunft, Information
  16. Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003) 0.19
    0.18917792 = product of:
      0.26484907 = sum of:
        0.09592607 = weight(_text_:methoden in 2508) [ClassicSimilarity], result of:
          0.09592607 = score(doc=2508,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.4048574 = fieldWeight in 2508, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
        0.044735532 = weight(_text_:und in 2508) [ClassicSimilarity], result of:
          0.044735532 = score(doc=2508,freq=26.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.441457 = fieldWeight in 2508, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
        0.0953432 = weight(_text_:techniken in 2508) [ClassicSimilarity], result of:
          0.0953432 = score(doc=2508,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.33940727 = fieldWeight in 2508, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
        0.008094659 = weight(_text_:in in 2508) [ClassicSimilarity], result of:
          0.008094659 = score(doc=2508,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1301535 = fieldWeight in 2508, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
        0.020749612 = weight(_text_:den in 2508) [ClassicSimilarity], result of:
          0.020749612 = score(doc=2508,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.15833658 = fieldWeight in 2508, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
      0.71428573 = coord(5/7)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Footnote
    Diplomarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
  17. Lebrecht, H.: Methoden und Probleme der Bilderschließung (2003) 0.19
    0.18917792 = product of:
      0.26484907 = sum of:
        0.09592607 = weight(_text_:methoden in 2871) [ClassicSimilarity], result of:
          0.09592607 = score(doc=2871,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.4048574 = fieldWeight in 2871, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
        0.044735532 = weight(_text_:und in 2871) [ClassicSimilarity], result of:
          0.044735532 = score(doc=2871,freq=26.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.441457 = fieldWeight in 2871, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
        0.0953432 = weight(_text_:techniken in 2871) [ClassicSimilarity], result of:
          0.0953432 = score(doc=2871,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.33940727 = fieldWeight in 2871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
        0.008094659 = weight(_text_:in in 2871) [ClassicSimilarity], result of:
          0.008094659 = score(doc=2871,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1301535 = fieldWeight in 2871, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
        0.020749612 = weight(_text_:den in 2871) [ClassicSimilarity], result of:
          0.020749612 = score(doc=2871,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.15833658 = fieldWeight in 2871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
      0.71428573 = coord(5/7)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.42
  18. Daconta, M.C.; Oberst, L.J.; Smith, K.T.: ¬The Semantic Web : A guide to the future of XML, Web services and knowledge management (2003) 0.18
    0.1830113 = product of:
      0.2562158 = sum of:
        0.026261522 = weight(_text_:und in 320) [ClassicSimilarity], result of:
          0.026261522 = score(doc=320,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.25915268 = fieldWeight in 320, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=320)
        0.1705551 = weight(_text_:techniken in 320) [ClassicSimilarity], result of:
          0.1705551 = score(doc=320,freq=10.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.60715014 = fieldWeight in 320, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.03125 = fieldNorm(doc=320)
        0.009891836 = weight(_text_:in in 320) [ClassicSimilarity], result of:
          0.009891836 = score(doc=320,freq=14.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15905021 = fieldWeight in 320, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=320)
        0.03711803 = weight(_text_:den in 320) [ClassicSimilarity], result of:
          0.03711803 = score(doc=320,freq=10.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.28324106 = fieldWeight in 320, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=320)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 320) [ClassicSimilarity], result of:
              0.024778644 = score(doc=320,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 320, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=320)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    "The Semantic Web is an extension of the current Web in which information is given well defined meaning, better enabling computers and people to work in cooperation." - Tim Berners Lee, "Scientific American", May 2001. This authoritative guide shows how the "Semantic Web" works technically and how businesses can utilize it to gain a competitive advantage. It explains what taxonomies and ontologies are as well as their importance in constructing the Semantic Web. The companion web site includes further updates as the framework develops and links to related sites.
    BK
    85.20 Betriebliche Information und Kommunikation
    Classification
    85.20 Betriebliche Information und Kommunikation
    Date
    22. 5.2007 10:37:38
    Footnote
    Rez. Amazon: "Die Autoren bezeichnen das Buch im Vorwort als strategischen Führer für Führungskräfte und Entwickler die sich einen Überblick über das Semantic Web und die dahinter stehende Vision machen wollen. Genau diesem Anspruch wird das Buch auch absolut gerecht. Die ersten beiden Kapitel beschreiben die Vision sowie die Möglichkeiten, die sich durch den Einsatz der in den nachfolgenden Kapiteln beschriebenen Techniken bieten. Die Autoren schaffen es anhand vieler praktischer Szenarien (die zwar teilweise meiner Einschätzung nach schon noch in einiger Zukunft liegen, aber die große Vision des ganzen schön vergegenwärtigen) sehr schnell den Leser für die Technik zu begeistern und mehr darüber wissen zu wollen. Die nachfolgenden Kapitel beschreiben die Techniken auf den verschiedenen semantischen Ebenen von XML als Basis für alles weitere, über Web Services, RDF, Taxonomies und Ontologies. Den Autoren gelingt es die beschriebenen Techniken so kurz und prägnant zu erklären, dass sich der Leser danach zumindest ein Bild über die Techniken an sich, sowie über deren komplexes Zusammenspiel machen kann. Auch für Entwickler würde ich das Buch empfehlen, da es einen sehr guten Einstieg in viele doch sehr neue Techniken bietet mit vielen Verweisen auf weitere Literatur. Alles in allem ein sehr gelungenes Buch, das es trotz relativ geringem Umfangs schafft, einen guten Überblick über dieses komplexe Thema zu vermitteln."
  19. Hübener, M.: Suchmaschinenoptimierung kompakt : anwendungsorientierte Techniken für die Praxis (2009) 0.18
    0.18173341 = product of:
      0.25442678 = sum of:
        0.08139597 = weight(_text_:methoden in 3911) [ClassicSimilarity], result of:
          0.08139597 = score(doc=3911,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 3911, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.025788303 = weight(_text_:und in 3911) [ClassicSimilarity], result of:
          0.025788303 = score(doc=3911,freq=6.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.2544829 = fieldWeight in 3911, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.11441184 = weight(_text_:techniken in 3911) [ClassicSimilarity], result of:
          0.11441184 = score(doc=3911,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.4072887 = fieldWeight in 3911, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.007931113 = weight(_text_:in in 3911) [ClassicSimilarity], result of:
          0.007931113 = score(doc=3911,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.12752387 = fieldWeight in 3911, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.024899531 = weight(_text_:den in 3911) [ClassicSimilarity], result of:
          0.024899531 = score(doc=3911,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 3911, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
      0.71428573 = coord(5/7)
    
    Abstract
    Methoden der Suchmaschinenoptimierung werden im vorliegenden Buch umfassend beleuchtet. Nach einer Einführung in das Thema besteht ein erster Schwerpunkt darin, konkrete Handlungsanweisungen für die Suchmaschinenoptimierung einer Website aufzuzeigen. Dazu wird ein Optimierungszyklus in neun Schritten vorgestellt, welcher die Felder OffPage-Optimierung, OnPage-Optimierung und Keyword-Recherche einschließt. Darüber hinaus führt der Autor die zusätzliche Kategorie der Content-Strategie ein, um die Quellen und Verbreitungswege potentieller neuer Inhalte zu systematisieren. Um die Anschaulichkeit und den Praxisbezug noch zu erhöhen, stellt der Autor eine konkrete Anwendung des vorgestellten Optimierungszyklus am Beispiel einer real existierenden Website vor.
  20. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.18
    0.1808321 = product of:
      0.25316495 = sum of:
        0.13429649 = weight(_text_:methoden in 5671) [ClassicSimilarity], result of:
          0.13429649 = score(doc=5671,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.56680036 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.05211109 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.05211109 = score(doc=5671,freq=18.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.016026607 = weight(_text_:in in 5671) [ClassicSimilarity], result of:
          0.016026607 = score(doc=5671,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.2576908 = fieldWeight in 5671, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.029049452 = weight(_text_:den in 5671) [ClassicSimilarity], result of:
          0.029049452 = score(doc=5671,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.021681314 = product of:
          0.04336263 = sum of:
            0.04336263 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.04336263 = score(doc=5671,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78

Authors

Languages

Types

  • a 8352
  • m 1224
  • el 626
  • s 324
  • x 232
  • i 72
  • r 51
  • b 44
  • n 17
  • p 12
  • l 8
  • fi 1
  • More… Less…

Themes

Subjects

Classifications