Search (26 results, page 2 of 2)

  • × author_ss:"Mandl, T."
  1. Pauls, N.; Griesbaum, J.; Mandl, T.: Erfolgsfaktoren kirchlicher Community-Angebote im Social Web : eine Analyse des Wikis "Evangelisch in Niedersachsen" (2011) 0.00
    0.0034318906 = product of:
      0.025739178 = sum of:
        0.02179256 = weight(_text_:und in 3247) [ClassicSimilarity], result of:
          0.02179256 = score(doc=3247,freq=6.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.33931053 = fieldWeight in 3247, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3247)
        0.0039466172 = product of:
          0.0078932345 = sum of:
            0.0078932345 = weight(_text_:information in 3247) [ClassicSimilarity], result of:
              0.0078932345 = score(doc=3247,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.1551638 = fieldWeight in 3247, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3247)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Vorliegender Artikel behandelt anhand einer Untersuchung des Wikis "Evangelisch in Niedersachsen" die Frage von Erfolgsfaktoren kirchlicher Social Media Angebote. Hierzu werden Bewertungskriterien aus der Literatur erarbeitet und auf die Fallstudie "Evangelisch in Niedersachsen" angewendet. Dabei werden statistische Nutzungsdaten ausgewertet sowie eine Expertenanalyse und eine Nutzerbefragung durchgeführt. In der konkreten Fallstudie werden die Ergebnisse zur Erarbeitung von Empfehlungen zur Optimierung des Kirchen-Wikis genutzt.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.19-27
  2. Eibl, M.; Mandl, T.: ¬Die Qualität von Visualisierungen : eine Methode zum Vergleich zweidimensionaler Karten (2004) 0.00
    0.0026733913 = product of:
      0.020050433 = sum of:
        0.017583797 = weight(_text_:und in 3139) [ClassicSimilarity], result of:
          0.017583797 = score(doc=3139,freq=10.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.27378 = fieldWeight in 3139, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3139)
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 3139) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=3139,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 3139, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3139)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Zweidimensionale Karten dienen im Information Retrieval (IR) immer häufiger der Visualisierung von Dokumentbeständen. Über die Qualität der verschiedenen Methoden zur Erzeugung dieser Karten ist wenig bekannt. In diesem Artikel werden nach einem Überblick über Stand der Forschung und Technik zu Visualisierungen und ihrer Bewertung zwei Verfahren hinsichtlich ihrer Unterschiede verglichen. Die Evaluierung basiert auf der Perspektive des Benutzers beim Browsing in einer Karte. Das Experiment zeigt, dass die Methoden sowohl bei großen als auch bei kleinen Dokumentenmengen zu sehr unterschiedlichen Karten führen und zwischen den Karten keine Korrelation besteht. Das Ergebnis der Untersuchung ist in zweifacher Hinsicht interpretierbar. zum einen kann nicht davon ausgegangen werden, dass sich ein spezielles Verfahren der Dimensionsreduktion eindeutig anbietet, es muss also auf den speziellen Anwendungsfall hin überprüft werden, welches Verfahren anzuwenden ist. Zum anderen scheint aber auch kein Verfahren zu vollkommen unbrauchbaren Ergebnissen zu führen, so dass davon ausgegangen werden kann, dass die einzelnen Verfahren einander ergänzend unterschiedliche Aspekte des Dokumentbestandes beleuchten. Hierzu sollten weitere Tests folgen.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  3. Çetta, D.; Griesbaum, J.; Montanari, E.G.; Mandl, T.: Selbstbestimmt durch Informationskompetenz (2021) 0.00
    0.0018160468 = product of:
      0.027240701 = sum of:
        0.027240701 = weight(_text_:und in 116) [ClassicSimilarity], result of:
          0.027240701 = score(doc=116,freq=24.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.42413816 = fieldWeight in 116, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=116)
      0.06666667 = coord(1/15)
    
    Abstract
    Das Internet verändert die Informationswelt und Gesellschaft. Es bietet zum einen umfassenden Zugriff auf Informationen, zugleich stellt es einen komplexen, interessengesteuerten und teilweise intransparenten Informationsraum dar. Die Menge an verfügbaren Informationen nimmt stetig zu, was auch daran liegt, dass Informationen von jeder Person mühelos ins Netz gestellt werden können. So gelangen auch ungeprüfte Informationen in Umlauf, was wiederum die Bewertung und Bestimmung der Glaubwürdigkeit von Informationen erschwert. Das Internet macht es einfach, Fake News und Desinformation zu verbreiten. Im privaten Bereich haben Nutzer_innen es mit Phishing- oder Spammails, falschen Online-Shops oder irreführenden Gesundheitsinformationen zu tun. Im aktuellen Corona-Kontext kursieren diverse Falschinformationen zu gesundheitsbezogenen Themen. Kurz: Das Internet ist eine fordernde Informationsumwelt. Eine Informationsumwelt, die Nutzer_innen auch überfordern kann. Verfügt man nicht über hinreichende Informationskompetenz so läuft man Gefahr sich manipulieren zu lassen und sich dabei noch für informiert zu halten.
    In Anbetracht einer komplexer werdenden Informationsumwelt unterstützt Informationskompetenz dabei, informierte Entscheidungen zu treffen. Informationskompetenz ist wichtig für private und beruflich Lebensbereiche und auch für öffentliche Diskurse elementar. Informationskompetenz schafft die Grundlage dafür, auf einer fundierten Informationsgrundlage selbstbestimmt entscheiden und sich sachlich-rational in Diskurse einbringen zu können. Informationskompetenz ist nicht schwer zu erlangen, man muss sich aber dafür entscheiden, sich informationskompetent zu verhalten. Das ist vor allem bei Themen und Entscheidungen, die auf eine fundierte Informationsgrundlage angewiesen sind wichtig.
    Content
    Dieser Artikel wurde im Rahmen des Projekts »Informationskompetenz und Demokratie (IDE): Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung« erstellt. Das Projekt wird durch das Niedersächsische Ministerium für Wissenschaft und Kultur im Rahmen der Ausschreibung »Zukunftsdiskurse« aus Mitteln des Niedersächsischen Vorab gefördert.
  4. Braschler, M.; Heuwing, B.; Mandl, T.; Womser-Hacker, C.; Herget, J.; Schäuble, P.; Stuker, J.: Evaluation der Suchfunktion deutscher Unternehmenswebsites (2013) 0.00
    0.0014067038 = product of:
      0.021100556 = sum of:
        0.021100556 = weight(_text_:und in 942) [ClassicSimilarity], result of:
          0.021100556 = score(doc=942,freq=10.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.328536 = fieldWeight in 942, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
      0.06666667 = coord(1/15)
    
    Abstract
    Der Beitrag stellt eine umfangreiche Evaluation der Suchfunktionen von 35 deutschen Unternehmenswebsites vor. In der Studie soll die vom Nutzer wahrgenommene Qualität einer Website-Suche erfasst werden, und nicht die technische Funktionalität der jeweiligen Systeme. In leitfaden-basierten Evaluationen werden die Bereiche Suchindex, Anfrage- / Dokumentenvergleich, Benutzerinteraktion und Suchergebnisse untersucht. Die Zusammenfassung der Ergebnisse der Einzeltests in diesen Kategorien ermöglicht eine qualitative Beurteilung und Aussagen über die Positionierung von Ergebnissen relativ zum Gesamtfeld. Die Ergebnisse zeigen, dass bei Internetauftritten die Suchfunktion auf Websites oft zum Problem werden kann. Die Benutzer haben häufig Anlass, die Website zu verlassen, ohne ihr Ziel erreicht zu haben. Probleme zeigten sich bei der Vollständigkeit und Aktualität des Suchindexes sowie bei der Pflege und Präsentation ergänzender .Metadaten. Zum Vergleich werden die Untersuchungen auch anhand der Google-Sitesearch durchgeführt. Dabei zeigt sich, dass eine genaue Kenntnis der eigenen Daten zu besseren Ergebnissen führen kann, dies nutzen Unternehmen aber nicht immer aus.
  5. Mandl, T.: Einsatz neuronaler Netze als Transferkomponenten beim Retrieval in heterogenen Dokumentbeständen (2000) 0.00
    8.387961E-4 = product of:
      0.012581941 = sum of:
        0.012581941 = weight(_text_:und in 6563) [ClassicSimilarity], result of:
          0.012581941 = score(doc=6563,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.19590102 = fieldWeight in 6563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6563)
      0.06666667 = coord(1/15)
    
    Abstract
    Die zunehmende weltweite Vernetzung und der aufbau von digitalen Bibliotheken führt zu neuen Möglichkeiten bei der Suche in mehreren Datenbeständen. Dabei entsteht das Problem der semantischen Heterogenität, da z.B. Begriffe in verschiedenen Kontexten verschiedene Bedeutung haben können. Die dafür notwendigen Transferkomponenten bilden eine neue Herausforderung, für die neuronale Netze gut geeignet sind
  6. Hellweg, H.; Krause, J.; Mandl, T.; Marx, J.; Müller, M.N.O.; Mutschke, P.; Strötgen, R.: Treatment of semantic heterogeneity in information retrieval (2001) 0.00
    4.5571616E-4 = product of:
      0.006835742 = sum of:
        0.006835742 = product of:
          0.013671484 = sum of:
            0.013671484 = weight(_text_:information in 6560) [ClassicSimilarity], result of:
              0.013671484 = score(doc=6560,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.2687516 = fieldWeight in 6560, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6560)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Nowadays, users of information services are faced with highly decentralised, heterogeneous document sources with different content analysis. Semantic heterogeneity occurs e.g. when resources using different systems for content description are searched using a simple query system. This report describes several approaches of handling semantic heterogeneity used in projects of the German Social Science Information Centre