Search (110 results, page 1 of 6)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.38
    0.38357472 = product of:
      0.76714945 = sum of:
        0.10959278 = product of:
          0.32877833 = sum of:
            0.32877833 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.32877833 = score(doc=973,freq=2.0), product of:
                0.29249802 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03450078 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.32877833 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.32877833 = score(doc=973,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.32877833 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.32877833 = score(doc=973,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.17
    0.17325306 = product of:
      0.34650612 = sum of:
        0.036530927 = product of:
          0.10959278 = sum of:
            0.10959278 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.10959278 = score(doc=5820,freq=2.0), product of:
                0.29249802 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03450078 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.15498759 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15498759 = score(doc=5820,freq=4.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.15498759 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15498759 = score(doc=5820,freq=4.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.5 = coord(3/6)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  3. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.17
    0.17308651 = product of:
      0.25962976 = sum of:
        0.036530927 = product of:
          0.10959278 = sum of:
            0.10959278 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.10959278 = score(doc=701,freq=2.0), product of:
                0.29249802 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03450078 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.10959278 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10959278 = score(doc=701,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.10959278 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10959278 = score(doc=701,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.0039132624 = product of:
          0.01956631 = sum of:
            0.01956631 = weight(_text_:28 in 701) [ClassicSimilarity], result of:
              0.01956631 = score(doc=701,freq=2.0), product of:
                0.12359088 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03450078 = queryNorm
                0.15831517 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.2 = coord(1/5)
      0.6666667 = coord(4/6)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Date
    31. 3.2013 15:20:28
  4. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.17
    0.16719379 = product of:
      0.33438757 = sum of:
        0.16438916 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16438916 = score(doc=563,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.16438916 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16438916 = score(doc=563,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.0056092553 = product of:
          0.028046276 = sum of:
            0.028046276 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.028046276 = score(doc=563,freq=2.0), product of:
                0.12081586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03450078 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.2 = coord(1/5)
      0.5 = coord(3/6)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  5. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.16
    0.15982282 = product of:
      0.31964564 = sum of:
        0.045663662 = product of:
          0.13699098 = sum of:
            0.13699098 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.13699098 = score(doc=4997,freq=2.0), product of:
                0.29249802 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03450078 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.13699098 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.13699098 = score(doc=4997,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.13699098 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.13699098 = score(doc=4997,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.5 = coord(3/6)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  6. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.16
    0.15982282 = product of:
      0.31964564 = sum of:
        0.045663662 = product of:
          0.13699098 = sum of:
            0.13699098 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.13699098 = score(doc=4388,freq=2.0), product of:
                0.29249802 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03450078 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.13699098 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.13699098 = score(doc=4388,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.13699098 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.13699098 = score(doc=4388,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(3/6)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  7. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.16
    0.15982282 = product of:
      0.31964564 = sum of:
        0.045663662 = product of:
          0.13699098 = sum of:
            0.13699098 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.13699098 = score(doc=855,freq=2.0), product of:
                0.29249802 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03450078 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.13699098 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.13699098 = score(doc=855,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.13699098 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.13699098 = score(doc=855,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.5 = coord(3/6)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  8. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.16
    0.15982282 = product of:
      0.31964564 = sum of:
        0.045663662 = product of:
          0.13699098 = sum of:
            0.13699098 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.13699098 = score(doc=1000,freq=2.0), product of:
                0.29249802 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03450078 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.13699098 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.13699098 = score(doc=1000,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.13699098 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.13699098 = score(doc=1000,freq=2.0), product of:
            0.29249802 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03450078 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(3/6)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  9. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.04
    0.037426364 = product of:
      0.11227909 = sum of:
        0.107604705 = weight(_text_:suchmaschinen in 867) [ClassicSimilarity], result of:
          0.107604705 = score(doc=867,freq=16.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            0.6980896 = fieldWeight in 867, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.0046743797 = product of:
          0.023371898 = sum of:
            0.023371898 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.023371898 = score(doc=867,freq=2.0), product of:
                0.12081586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03450078 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.2 = coord(1/5)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/ChristophLehrke.pdf
    Pages
    22 S
    Theme
    Suchmaschinen
  10. Jezior, T.: Adaption und Integration von Suchmaschinentechnologie in mor(!)dernen OPACs (2013) 0.03
    0.03121022 = product of:
      0.09363066 = sum of:
        0.08608376 = weight(_text_:suchmaschinen in 2222) [ClassicSimilarity], result of:
          0.08608376 = score(doc=2222,freq=4.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            0.5584717 = fieldWeight in 2222, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0625 = fieldNorm(doc=2222)
        0.0075468966 = product of:
          0.037734482 = sum of:
            0.037734482 = weight(_text_:29 in 2222) [ClassicSimilarity], result of:
              0.037734482 = score(doc=2222,freq=2.0), product of:
                0.12136296 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03450078 = queryNorm
                0.31092256 = fieldWeight in 2222, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2222)
          0.2 = coord(1/5)
      0.33333334 = coord(2/6)
    
    Abstract
    Wissenschaftliche Bibliotheken werden heutzutage durch Universalsuchmaschinen wie Google bedroht. Ein Grund hierfür ist, dass Bibliotheken auf Rechercheinstrumente setzen die, die heutigen Erwartungen ihrer Nutzer nicht mehr erfüllen können. Wollen Bibliotheken auch zukünftig eine tragende Rolle spielen, müssen sie die Techniken in ihrer Produkte integrieren, die Suchmaschinen zu ihrem Erfolg im Web verholfen haben.
    Date
    18.10.2015 10:29:56
    Theme
    Suchmaschinen
  11. Gerber, A.: Vergleich von Suchmaschinen und Katalogen : Schwerpunkt deutschsprachiger Suchmaschinen Stand 2002 (2002) 0.03
    0.030750608 = product of:
      0.18450364 = sum of:
        0.18450364 = weight(_text_:suchmaschinen in 4005) [ClassicSimilarity], result of:
          0.18450364 = score(doc=4005,freq=6.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            1.1969744 = fieldWeight in 4005, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.109375 = fieldNorm(doc=4005)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  12. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.02
    0.023522846 = product of:
      0.07056854 = sum of:
        0.06589416 = weight(_text_:suchmaschinen in 4333) [ClassicSimilarity], result of:
          0.06589416 = score(doc=4333,freq=6.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            0.42749083 = fieldWeight in 4333, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.0046743797 = product of:
          0.023371898 = sum of:
            0.023371898 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.023371898 = score(doc=4333,freq=2.0), product of:
                0.12081586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03450078 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.2 = coord(1/5)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Suche nach Informationen im Internet führt den Nutzer meistens direkt zu einer Suchmaschine. Teile der gelieferten Ergebnisse enthalten aber manchmal nicht das, was der Nutzer gesucht hat. Hier setzen sog. adaptive Agenten an, welche die Gewohnheiten ihres Nutzers zu erlernen versuchen, um später auf Basis dessen selbstständig Entscheidungen zu treffen, ohne dass der Nutzer dazu befragt werden muss. Zunächst werden im Grundlagenteil adaptive Techniken zur Informationsgewinnung sowie die grundlegenden Eigenschaften von Webcrawlern besprochen. Im Hauptteil wird daraufhin der Webcrawler InfoSpiders erläutert. Dieses Programm arbeitet mit mehreren adaptiven Agenten, die parallel basierend auf einem Satz von Startlinks das Internet nach Informationen durchsuchen. Dabei bedienen sich die Agenten verschiedenster Techniken. Darunter fallen beispielsweise statistische Methoden, die den Inhalt von Webseiten untersuchen sowie neuronale Netze, mit denen der Inhalt bewertet wird. Eine andere Technik implementiert der genetische Algorithmus mit Hilfe dessen die Agenten Nachkommen mit neuen Mutationen erzeugen können. Danach wird eine konkrete Implementierung des InfoSpiders-Algorithmus' anhand von MySpiders verdeutlicht. Im Anschluss daran wird der InfoSpiders-Algorithmus sowie MySpiders einer Evaluation bezüglich des zusätzlichen Nutzens gegenüber herkömmlichen Suchmaschinen unterzogen. Eine Zusammenfassung mit Ausblick zu weiteren Entwicklungen in dem Bereich adaptiver Agenten zur Suche im Internet wird das Thema abschließen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/DenisWestermeyer.pdf
    Pages
    22 S
    Theme
    Suchmaschinen
  13. Amon, H.: Optimierung von Webseiten für Suchmaschinen und Kataloge : Empfehlungen zur Optimierung der Web-Seiten der Bibliothek und Dokumentation der Deutschen Gesellschaft für Auswärtige Politik (DGAP) (2004) 0.02
    0.02152094 = product of:
      0.12912564 = sum of:
        0.12912564 = weight(_text_:suchmaschinen in 4626) [ClassicSimilarity], result of:
          0.12912564 = score(doc=4626,freq=4.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            0.8377075 = fieldWeight in 4626, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.09375 = fieldNorm(doc=4626)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  14. Griesbaum, J.: Evaluierung hybrider Suchsysteme im WWW (2000) 0.02
    0.018637681 = product of:
      0.111826085 = sum of:
        0.111826085 = weight(_text_:suchmaschinen in 2482) [ClassicSimilarity], result of:
          0.111826085 = score(doc=2482,freq=12.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            0.72547597 = fieldWeight in 2482, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Ausgangspunkt dieser Arbeit ist die Suchproblematik im World Wide Web. Suchmaschinen sind einerseits unverzichtbar für erfolgreiches Information Retrieval, andererseits wird ihnen eine mäßige Leistungsfähigkeit vorgeworfen. Das Thema dieser Arbeit ist die Untersuchung der Retrievaleffektivität deutschsprachiger Suchmaschinen. Es soll festgestellt werden, welche Retrievaleffektivität Nutzer derzeit erwarten können. Ein Ansatz, um die Retrievaleffektivität von Suchmaschinen zu erhöhen besteht darin, redaktionell von Menschen erstellte und automatisch generierte Suchergebnisse in einer Trefferliste zu vermengen. Ziel dieser Arbeit ist es, die Retrievaleffektivität solcher hybrider Systeme im Vergleich zu rein roboterbasierten Suchmaschinen zu evaluieren. Zunächst werden hierzu die grundlegenden Problembereiche bei der Evaluation von Retrievalsystemen analysiert. In Anlehnung an die von Tague-Sutcliff vorgeschlagene Methodik wird unter Beachtung der webspezifischen Besonderheiten eine mögliche Vorgehensweise erschlossen. Darauf aufbauend wird das konkrete Setting für die Durchführung der Evaluation erarbeitet und ein Retrievaleffektivitätstest bei den Suchmaschinen Lycos.de, AItaVista.de und QualiGo durchgeführt.
    Theme
    Suchmaschinen
  15. Krüger, K.: Suchmaschinen-Spamming : Vergleichend-kritische Analysen zur Wirkung kommerzieller Strategien der Website-Optimierung auf das Ranking in www-Suchmaschinen (2004) 0.02
    0.01775387 = product of:
      0.106523216 = sum of:
        0.106523216 = weight(_text_:suchmaschinen in 3700) [ClassicSimilarity], result of:
          0.106523216 = score(doc=3700,freq=8.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            0.6910734 = fieldWeight in 3700, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
      0.16666667 = coord(1/6)
    
    Abstract
    Interne und externe Manipulationen zwischen erlaubter Website-Optimierung und Spam-Methoden mindern die Qualität der Ergebnislisten, und besonders kommerziellen Anbieter ist eine Positionierung unter den TopTen wichtig, weil nur die wenigsten Suchmaschinennutzer mehr als die ersten zehn, maximal zwanzig Treffer beachten. Spamming soll eine Listung unter den ersten Rangpositionen sichern, aber auch Manipulationen werden eingesetzt, um Indizes der Suchmaschinen mit irrelevanten Ergebnissen qualitativ zu verschlechtern. Praktisch analysiert werden AItaVista, Fireball, Google und Lycos auf valide und invalide Treffer, auf Anzahl vermutlich manipulierter Seiten, auf häufigste Spam-Methoden, auf Anteile kommerzieller Links und auf pornographische Seiten.
    Theme
    Suchmaschinen
  16. Stölzel, A.: Was Google nicht sieht : Das "Invisible Web" (2004) 0.02
    0.01775387 = product of:
      0.106523216 = sum of:
        0.106523216 = weight(_text_:suchmaschinen in 4040) [ClassicSimilarity], result of:
          0.106523216 = score(doc=4040,freq=2.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            0.6910734 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.109375 = fieldNorm(doc=4040)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  17. Walz, J.: Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme (2018) 0.01
    0.013178832 = product of:
      0.07907299 = sum of:
        0.07907299 = weight(_text_:suchmaschinen in 5744) [ClassicSimilarity], result of:
          0.07907299 = score(doc=5744,freq=6.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            0.51298904 = fieldWeight in 5744, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
      0.16666667 = coord(1/6)
    
    Abstract
    Ziel: Ziel dieser Bachelorarbeit war es, die Übertragbarkeit der allgemeinen Rankingfaktoren, wie sie von Web-Suchmaschinen verwendet werden, auf Discovery-Systeme zu analysieren. Dadurch könnte das bisher hauptsächlich auf dem textuellen Abgleich zwischen Suchanfrage und Dokumenten basierende bibliothekarische Ranking verbessert werden. Methode: Hierfür wurden Faktoren aus den Gruppen Popularität, Aktualität, Lokalität, Technische Faktoren, sowie dem personalisierten Ranking diskutiert. Die entsprechenden Rankingfaktoren wurden nach ihrer Vorkommenshäufigkeit in der analysierten Literatur und der daraus abgeleiteten Wichtigkeit, ausgewählt. Ergebnis: Von den 23 untersuchten Rankingfaktoren sind 14 (61 %) direkt vom Ranking der Web-Suchmaschinen auf das Ranking der Discovery-Systeme übertragbar. Zu diesen zählen unter anderem das Klickverhalten, das Erstellungsdatum, der Nutzerstandort, sowie die Sprache. Sechs (26%) der untersuchten Faktoren sind dagegen nicht übertragbar (z.B. Aktualisierungsfrequenz und Ladegeschwindigkeit). Die Linktopologie, die Nutzungshäufigkeit, sowie die Aktualisierungsfrequenz sind mit entsprechenden Modifikationen übertragbar.
  18. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.01
    0.012425121 = product of:
      0.074550726 = sum of:
        0.074550726 = weight(_text_:suchmaschinen in 5938) [ClassicSimilarity], result of:
          0.074550726 = score(doc=5938,freq=12.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            0.48365065 = fieldWeight in 5938, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
      0.16666667 = coord(1/6)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
    Content
    [Magisterarbeit] - Rez. in: Online Mitteilungen 2001, Nr.69, S.41-43 (K. Patzwaldt) (Vgl. auch: http://www.ideenreich.com/suchmaschinen/kritik.shtml)
    Theme
    Suchmaschinen
  19. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.01
    0.0114028845 = product of:
      0.03420865 = sum of:
        0.030435205 = weight(_text_:suchmaschinen in 862) [ClassicSimilarity], result of:
          0.030435205 = score(doc=862,freq=2.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            0.19744955 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.0037734483 = product of:
          0.018867241 = sum of:
            0.018867241 = weight(_text_:29 in 862) [ClassicSimilarity], result of:
              0.018867241 = score(doc=862,freq=2.0), product of:
                0.12136296 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03450078 = queryNorm
                0.15546128 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=862)
          0.2 = coord(1/5)
      0.33333334 = coord(2/6)
    
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/SandraMarcus.pdf
    Date
    13. 2.2007 20:56:29
  20. Sünkler, S.: Prototypische Entwicklung einer Software für die Erfassung und Analyse explorativer Suchen in Verbindung mit Tests zur Retrievaleffektivität (2012) 0.01
    0.01098236 = product of:
      0.06589416 = sum of:
        0.06589416 = weight(_text_:suchmaschinen in 479) [ClassicSimilarity], result of:
          0.06589416 = score(doc=479,freq=6.0), product of:
            0.15414168 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03450078 = queryNorm
            0.42749083 = fieldWeight in 479, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
      0.16666667 = coord(1/6)
    
    Abstract
    Gegenstand dieser Arbeit ist die Entwicklung eines funktionalen Prototyps einer Webanwendung für die Verknüpfung der Evaluierung von explorativen Suchen in Verbindung mit der Durchführung klassisches Retrievaltests. Als Grundlage für die Programmierung des Prototyps werden benutzerorientierte und systemorientierte Evalulierungsmethoden für Suchmaschinen analysiert und in einem theoretischen Modell zur Untersuchung von Informationssysteme und Suchmaschinen kombiniert. Bei der Gestaltung des Modells und des Prototyps wird gezeigt, wie sich aufgezeichnete Aktionsdaten praktisch für die Suchmaschinenevaluierung verwenden lassen, um auf der einen Seite eine Datengrundlage für Retrievaltests zu gewinnen und andererseits, um für die Auswertung von Relevanzbewertungen auch das implizierte Feedback durch Handlungen der Anwender zu berücksichtigen. Retrievaltests sind das gängige und erprobte Mittel zur Messung der Retrievaleffektiviät von Informationssystemen und Suchmaschinen, verzichten aber auf eine Berücksichtigung des tatsächlichen Nutzerverhaltens. Eine Methode für die Erfassung der Interaktionen von Suchmaschinennutzern sind protokollbasierte Tests, mit denen sich Logdateien über Benutzer einer Anwendung generieren lassen. Die im Rahmen der Arbeit umgesetzte Software bietet einen Ansatz, Retrievaltests auf Basis protokollierter Nutzerdaten in Verbindung mit kontrollierten Suchaufgaben, durchzuführen. Das Ergebnis dieser Arbeit ist ein fertiger funktionaler Prototyp, der in seinem Umfang bereits innerhalb von Suchmaschinenstudien nutzbar ist.

Languages

  • d 93
  • e 13
  • f 1
  • hu 1
  • More… Less…

Types