Search (5 results, page 1 of 1)

  • × author_ss:"Braschler, M."
  1. Braschler, M.; Herget, J.; Pfister, J.; Schäuble, P.; Steinbach, M.; Stuker, J.: Kommunikation im Internet : Die Suchfunktion im Praxistest (2007) 0.03
    0.02793855 = product of:
      0.06518995 = sum of:
        0.035093434 = weight(_text_:und in 291) [ClassicSimilarity], result of:
          0.035093434 = score(doc=291,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.34630734 = fieldWeight in 291, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=291)
        0.009346906 = weight(_text_:in in 291) [ClassicSimilarity], result of:
          0.009346906 = score(doc=291,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15028831 = fieldWeight in 291, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=291)
        0.020749612 = weight(_text_:den in 291) [ClassicSimilarity], result of:
          0.020749612 = score(doc=291,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.15833658 = fieldWeight in 291, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=291)
      0.42857143 = coord(3/7)
    
    Abstract
    Die Ausgangslage für Suchfunktionen auf Unternehmens-Websites stellt sich grundlegend anders dar als bei Internet-Suchdiensten. Nicht die möglichst breite Erschließung von Informationen vieler verschiedener Websites, sondern der erfolgreiche Dialog mit den Nutzern steht im Vordergrund. Das Gelingen dieser Kommunikation wird in diesem Beitrag untersucht. Von 56 Schweizer Unternehmen und Behörden wurde jeweils die Suchfunktion der Website untersucht. Dabei gruppierten sich die insgesamt 74 Einzeltests in die vier Hauptkriterien: Suchindex, Vergleich von Anfragen und Dokumenten, Benutzerinteraktion und Suchergebnisse. Die Resultate zeigen großes Potential für Verbesserungen. Dabei wurden kein Ranking der Websites und keine Auszeichnung im Rahmen der Studie beabsichtigt. Vielmehr wurde auf Basis der Ergebnisse eine Einteilung in gute, mittlere und schlechte Websites für die einzelnen Kriterien durchgeführt. Die Analyse zeigt, dass keine Website in sämtlichen getesteten Kriterien sehr gut abschneidet. Die Studie schließt mit verschiedenen Empfehlungen, die dazu führen können, die Qualität der Suchfunktion wesentlich zu verbessern. Hierbei wird unter anderem empfohlen, der Aktualität und Vollständigkeit des Suchindex besondere Beachtung zu schenken, Metadaten der Dokumentenbasis zu pflegen, bewährte Standards für die Benutzerinteraktion zu beachten und Trefferlisten sowie potenzielle Suchanfragen auch auf eine mögliche Nutzersicht hin zu optimieren.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.159-164
  2. Braschler, M.; Heuwing, B.; Mandl, T.; Womser-Hacker, C.; Herget, J.; Schäuble, P.; Stuker, J.: Evaluation der Suchfunktion deutscher Unternehmenswebsites (2013) 0.01
    0.012716813 = product of:
      0.044508845 = sum of:
        0.033292558 = weight(_text_:und in 942) [ClassicSimilarity], result of:
          0.033292558 = score(doc=942,freq=10.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.328536 = fieldWeight in 942, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
        0.011216287 = weight(_text_:in in 942) [ClassicSimilarity], result of:
          0.011216287 = score(doc=942,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.18034597 = fieldWeight in 942, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
      0.2857143 = coord(2/7)
    
    Abstract
    Der Beitrag stellt eine umfangreiche Evaluation der Suchfunktionen von 35 deutschen Unternehmenswebsites vor. In der Studie soll die vom Nutzer wahrgenommene Qualität einer Website-Suche erfasst werden, und nicht die technische Funktionalität der jeweiligen Systeme. In leitfaden-basierten Evaluationen werden die Bereiche Suchindex, Anfrage- / Dokumentenvergleich, Benutzerinteraktion und Suchergebnisse untersucht. Die Zusammenfassung der Ergebnisse der Einzeltests in diesen Kategorien ermöglicht eine qualitative Beurteilung und Aussagen über die Positionierung von Ergebnissen relativ zum Gesamtfeld. Die Ergebnisse zeigen, dass bei Internetauftritten die Suchfunktion auf Websites oft zum Problem werden kann. Die Benutzer haben häufig Anlass, die Website zu verlassen, ohne ihr Ziel erreicht zu haben. Probleme zeigten sich bei der Vollständigkeit und Aktualität des Suchindexes sowie bei der Pflege und Präsentation ergänzender .Metadaten. Zum Vergleich werden die Untersuchungen auch anhand der Google-Sitesearch durchgeführt. Dabei zeigt sich, dass eine genaue Kenntnis der eigenen Daten zu besseren Ergebnissen führen kann, dies nutzen Unternehmen aber nicht immer aus.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
  3. Agosti, M.; Braschler, M.; Ferro, N.; Peters, C.; Siebinga, S.: Roadmap for multiLingual information access in the European Library (2007) 0.00
    0.0022895155 = product of:
      0.016026607 = sum of:
        0.016026607 = weight(_text_:in in 2431) [ClassicSimilarity], result of:
          0.016026607 = score(doc=2431,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.2576908 = fieldWeight in 2431, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2431)
      0.14285715 = coord(1/7)
    
    Abstract
    The paper studies the problem of implementing MultiLingual Information Access (MLIA) functionality in The European Library (TEL). The issues that must be considered are described in detail and the results of a preliminary feasibility study are presented. The paper concludes by discussing the difficulties inherent in attempting to provide a realistic full-scale MLIA solution and proposes a roadmap aimed at determining whether this is in fact possible.
    Series
    Lecture notes in computer science ; vol. 4675
  4. Peters, C.; Braschler, M.; Clough, P.: Multilingual information retrieval : from research to practice (2012) 0.00
    0.0015106882 = product of:
      0.010574817 = sum of:
        0.010574817 = weight(_text_:in in 361) [ClassicSimilarity], result of:
          0.010574817 = score(doc=361,freq=16.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.17003182 = fieldWeight in 361, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=361)
      0.14285715 = coord(1/7)
    
    Abstract
    We are living in a multilingual world and the diversity in languages which are used to interact with information access systems has generated a wide variety of challenges to be addressed by computer and information scientists. The growing amount of non-English information accessible globally and the increased worldwide exposure of enterprises also necessitates the adaptation of Information Retrieval (IR) methods to new, multilingual settings.Peters, Braschler and Clough present a comprehensive description of the technologies involved in designing and developing systems for Multilingual Information Retrieval (MLIR). They provide readers with broad coverage of the various issues involved in creating systems to make accessible digitally stored materials regardless of the language(s) they are written in. Details on Cross-Language Information Retrieval (CLIR) are also covered that help readers to understand how to develop retrieval systems that cross language boundaries. Their work is divided into six chapters and accompanies the reader step-by-step through the various stages involved in building, using and evaluating MLIR systems. The book concludes with some examples of recent applications that utilise MLIR technologies. Some of the techniques described have recently started to appear in commercial search systems, while others have the potential to be part of future incarnations.The book is intended for graduate students, scholars, and practitioners with a basic understanding of classical text retrieval methods. It offers guidelines and information on all aspects that need to be taken into consideration when building MLIR systems, while avoiding too many 'hands-on details' that could rapidly become obsolete. Thus it bridges the gap between the material covered by most of the classical IR textbooks and the novel requirements related to the acquisition and dissemination of information in whatever language it is stored.
  5. Peters, C.; Braschler, M.: Cross-language system evaluation : the CLEF campaigns (2001) 0.00
    0.0010682179 = product of:
      0.0074775247 = sum of:
        0.0074775247 = weight(_text_:in in 6979) [ClassicSimilarity], result of:
          0.0074775247 = score(doc=6979,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.120230645 = fieldWeight in 6979, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=6979)
      0.14285715 = coord(1/7)
    
    Abstract
    The goals of the CLEF (Cross-Language Evaluation Forum) series of evaluation campaigns for information retrieval systems operating on European languages are described. The difficulties of organizing an activity which aims at an objective evaluation of systems running on and over a number' of different languages are examined. The discussion includes an analysis of the first results and proposals for possible developments in the future.