Search (22 results, page 1 of 2)

  • × author_ss:"Mandl, T."
  1. Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003) 0.03
    0.030210808 = product of:
      0.12084323 = sum of:
        0.028013978 = weight(_text_:software in 1734) [ClassicSimilarity], result of:
          0.028013978 = score(doc=1734,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.35064998 = fieldWeight in 1734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
        0.021417862 = weight(_text_:und in 1734) [ClassicSimilarity], result of:
          0.021417862 = score(doc=1734,freq=12.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.47985753 = fieldWeight in 1734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
        0.028013978 = weight(_text_:software in 1734) [ClassicSimilarity], result of:
          0.028013978 = score(doc=1734,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.35064998 = fieldWeight in 1734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
        0.015383439 = weight(_text_:der in 1734) [ClassicSimilarity], result of:
          0.015383439 = score(doc=1734,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.34197432 = fieldWeight in 1734, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
        0.028013978 = weight(_text_:software in 1734) [ClassicSimilarity], result of:
          0.028013978 = score(doc=1734,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.35064998 = fieldWeight in 1734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
      0.25 = coord(5/20)
    
    Abstract
    Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.4, S.203-210
  2. Mandl, T.: Qualität als neue Dimension im Information Retrieval : Das AQUAINT Projekt (2005) 0.02
    0.023497451 = product of:
      0.093989804 = sum of:
        0.021010485 = weight(_text_:software in 3184) [ClassicSimilarity], result of:
          0.021010485 = score(doc=3184,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.2629875 = fieldWeight in 3184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
        0.016063396 = weight(_text_:und in 3184) [ClassicSimilarity], result of:
          0.016063396 = score(doc=3184,freq=12.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.35989314 = fieldWeight in 3184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
        0.021010485 = weight(_text_:software in 3184) [ClassicSimilarity], result of:
          0.021010485 = score(doc=3184,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.2629875 = fieldWeight in 3184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
        0.01489495 = weight(_text_:der in 3184) [ClassicSimilarity], result of:
          0.01489495 = score(doc=3184,freq=10.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.3311152 = fieldWeight in 3184, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
        0.021010485 = weight(_text_:software in 3184) [ClassicSimilarity], result of:
          0.021010485 = score(doc=3184,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.2629875 = fieldWeight in 3184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
      0.25 = coord(5/20)
    
    Abstract
    Die Bewertung von Internet-Dokumenten nach ihrer Qualität wird im Zeitalter verteilten und in großen Mengen vorliegenden Wissens zunehmend an Software delegiert. Dies gilt besonders bei der Suche nach Informationen etwa mit Internet-Suchmaschinen, bei der Qualitätsbewertungssysteme als Filter einsetzbar sind. Die starke Heterogenität der Qua-lität von Internet-Dokumenten lässt hier einen besonderen Mehrwert erwarten. Experimentelle Systeme behandeln verschiedeneAspekte und nutzen unterschiedliche Definitionen von Oualität. Im Einsatz befindliche Systeme greifen zur Zeit auf einzelne und begrenzte Aspekte von Qualität zu. Insbesondere die Analyse der Verlinkungsstruktur des Internets bietet einen Ansatzpunkt für existierende Systeme. Die Komplexität des Qualitätskonzepts und der Dokumente erfordert jedoch auf mehreren Aspekten beruhende Definitionen. Im Projekt AQUAINT (Automatische Qualitätsabschätzung für Internet Ressourcen) werden Oualitätsdefinitionen aus menschlichen Urteilen abgeleitet. Formale Eigenschaften von Internet-Seiten werden automatisch extrahiert. Menschliche Oualitätsurteile unterschiedlichster Art bilden die Grundlage für Verfahren des maschinellen Lernens. So entstehen Klassifikationssysteme, welche die menschlichen Urteile so weit wie möglich simulieren. Diese werden in prototypischen Such- und Filtersystemen integriert.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.13-20
  3. Eibl, M.; Mandl, T.: ¬Die Qualität von Visualisierungen : eine Methode zum Vergleich zweidimensionaler Karten (2004) 0.02
    0.01578154 = product of:
      0.0789077 = sum of:
        0.01221984 = weight(_text_:und in 3139) [ClassicSimilarity], result of:
          0.01221984 = score(doc=3139,freq=10.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.27378 = fieldWeight in 3139, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3139)
        0.04225093 = weight(_text_:methoden in 3139) [ClassicSimilarity], result of:
          0.04225093 = score(doc=3139,freq=4.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.4048574 = fieldWeight in 3139, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3139)
        0.017553868 = weight(_text_:der in 3139) [ClassicSimilarity], result of:
          0.017553868 = score(doc=3139,freq=20.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.390223 = fieldWeight in 3139, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3139)
        0.0068830615 = product of:
          0.013766123 = sum of:
            0.013766123 = weight(_text_:29 in 3139) [ClassicSimilarity], result of:
              0.013766123 = score(doc=3139,freq=2.0), product of:
                0.070840135 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02013827 = queryNorm
                0.19432661 = fieldWeight in 3139, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3139)
          0.5 = coord(1/2)
      0.2 = coord(4/20)
    
    Abstract
    Zweidimensionale Karten dienen im Information Retrieval (IR) immer häufiger der Visualisierung von Dokumentbeständen. Über die Qualität der verschiedenen Methoden zur Erzeugung dieser Karten ist wenig bekannt. In diesem Artikel werden nach einem Überblick über Stand der Forschung und Technik zu Visualisierungen und ihrer Bewertung zwei Verfahren hinsichtlich ihrer Unterschiede verglichen. Die Evaluierung basiert auf der Perspektive des Benutzers beim Browsing in einer Karte. Das Experiment zeigt, dass die Methoden sowohl bei großen als auch bei kleinen Dokumentenmengen zu sehr unterschiedlichen Karten führen und zwischen den Karten keine Korrelation besteht. Das Ergebnis der Untersuchung ist in zweifacher Hinsicht interpretierbar. zum einen kann nicht davon ausgegangen werden, dass sich ein spezielles Verfahren der Dimensionsreduktion eindeutig anbietet, es muss also auf den speziellen Anwendungsfall hin überprüft werden, welches Verfahren anzuwenden ist. Zum anderen scheint aber auch kein Verfahren zu vollkommen unbrauchbaren Ergebnissen zu führen, so dass davon ausgegangen werden kann, dass die einzelnen Verfahren einander ergänzend unterschiedliche Aspekte des Dokumentbestandes beleuchten. Hierzu sollten weitere Tests folgen.
    Date
    29. 1.2005 19:17:50
    Series
    Fortschritte in der Wissensorganisation; Bd.7
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  4. Hellweg, H.; Krause, J.; Mandl, T.; Marx, J.; Müller, M.N.O.; Mutschke, P.; Strötgen, R.: Treatment of semantic heterogeneity in information retrieval (2001) 0.02
    0.015495214 = product of:
      0.07747607 = sum of:
        0.022864813 = weight(_text_:23 in 6560) [ClassicSimilarity], result of:
          0.022864813 = score(doc=6560,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.31678912 = fieldWeight in 6560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6560)
        0.022864813 = weight(_text_:23 in 6560) [ClassicSimilarity], result of:
          0.022864813 = score(doc=6560,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.31678912 = fieldWeight in 6560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6560)
        0.022864813 = weight(_text_:23 in 6560) [ClassicSimilarity], result of:
          0.022864813 = score(doc=6560,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.31678912 = fieldWeight in 6560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6560)
        0.008881632 = weight(_text_:der in 6560) [ClassicSimilarity], result of:
          0.008881632 = score(doc=6560,freq=2.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.19743896 = fieldWeight in 6560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=6560)
      0.2 = coord(4/20)
    
    Footnote
    Der vollständige Text steht unter http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/ als PDF-Datei zur Verfügung
    Series
    IZ-Arbeitsbericht; Nr.23
  5. Becks, D.; Mandl, T.; Womser-Hacker, C.: Spezielle Anforderungen bei der Evaluierung von Patent-Retrieval-Systemen (2010) 0.01
    0.010752335 = product of:
      0.07168223 = sum of:
        0.010819908 = weight(_text_:und in 4667) [ClassicSimilarity], result of:
          0.010819908 = score(doc=4667,freq=4.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.24241515 = fieldWeight in 4667, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
        0.041826285 = weight(_text_:methoden in 4667) [ClassicSimilarity], result of:
          0.041826285 = score(doc=4667,freq=2.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.40078837 = fieldWeight in 4667, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
        0.019036034 = weight(_text_:der in 4667) [ClassicSimilarity], result of:
          0.019036034 = score(doc=4667,freq=12.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.4231716 = fieldWeight in 4667, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
      0.15 = coord(3/20)
    
    Abstract
    Innerhalb der informationswissenschaftlich geprägten Fachinformation nimmt die Patentdomäne eine gewisse Sonderstellung ein, da sie über eine Reihe von Besonderheiten verfügt, die es notwendig machen, die klassischen Methoden der Bewertung zu überarbeiten bzw. zu adaptieren. Dies belegen unter anderem die Ergebnisse des Intellectual Property Track, der seit 2009 im Rahmen der Evaluierungskampagne CLEF stattfindet. Der vorliegende Artikel beschreibt die innerhalb des zuvor genannten Track erzielten Ergebnisse. Darüber hinaus werden die Konsequenzen für die Evaluierung von Patent-Retrieval-Systemen herausgearbeitet.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  6. Mandl, T.; Diem, S.: Bild- und Video-Retrieval (2023) 0.01
    0.009785542 = product of:
      0.06523695 = sum of:
        0.016063396 = weight(_text_:und in 801) [ClassicSimilarity], result of:
          0.016063396 = score(doc=801,freq=12.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.35989314 = fieldWeight in 801, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
        0.035851102 = weight(_text_:methoden in 801) [ClassicSimilarity], result of:
          0.035851102 = score(doc=801,freq=2.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.3435329 = fieldWeight in 801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
        0.013322448 = weight(_text_:der in 801) [ClassicSimilarity], result of:
          0.013322448 = score(doc=801,freq=8.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.29615843 = fieldWeight in 801, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
      0.15 = coord(3/20)
    
    Abstract
    Digitale Bildverarbeitung hat längst den Alltag erreicht: Automatisierte Passkontrollen, Gesichtserkennung auf dem Mobiltelefon und Apps zum Bestimmen von Pflanzen anhand von Fotos sind nur einige Beispiele für den Einsatz dieser Technologie. Digitale Bildverarbeitung zur Analyse der Inhalte von Bildern kann den Zugang zu Wissen verbessern und ist somit relevant für die Informationswissenschaft. Häufig greifen Systeme bei der Suche nach visueller Information nach wie vor auf beschreibende Metadaten zu, weil diese sprachbasierten Methoden für Massendaten meist robust funktionieren. Der Fokus liegt in diesem Beitrag auf automatischer Inhaltsanalyse von Bildern (content based image retrieval) und nicht auf reinen Metadaten-Systemen, welche Wörter für die Beschreibung von Bildern nutzen (s. Kapitel B 9 Metadaten) und somit letztlich Text-Retrieval ausführen (concept based image retrieval) (s. Kapitel C 1 Informationswissenschaftliche Perspektiven des Information Retrieval).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  7. Tappenbeck, I.; Michel, A.; Wittich, A.; Werr, N.; Gäde, M.; Spree, U.; Gläser, C.; Griesbaum, J.; Mandl, T.; Keller-Loibl, K.; Stang, R.: Framework Informationskompetenz : Ein gemeinsamer Standard für die Qualifikation in den bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland (2022) 0.01
    0.0077536805 = product of:
      0.0516912 = sum of:
        0.01874063 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.01874063 = score(doc=540,freq=12.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.023314286 = weight(_text_:der in 540) [ClassicSimilarity], result of:
          0.023314286 = score(doc=540,freq=18.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.5182773 = fieldWeight in 540, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.009636286 = product of:
          0.019272571 = sum of:
            0.019272571 = weight(_text_:29 in 540) [ClassicSimilarity], result of:
              0.019272571 = score(doc=540,freq=2.0), product of:
                0.070840135 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02013827 = queryNorm
                0.27205724 = fieldWeight in 540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=540)
          0.5 = coord(1/2)
      0.15 = coord(3/20)
    
    Abstract
    Der Beitrag stellt Ergebnisse der Fachgruppe Informationskompetenz der KIBA vor, in der alle Lehrenden im Bereich der Vermittlung von Medien- und Informationskompetenz an bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland zusammenarbeiten. Ausgangspunkt ist das "Framework Informationskompetenz", ein Anforderungsrahmen, der gemeinsame Standards in der Qualifikation von Studierenden der Bibliotheks- und Informationswissenschaft für das Aufgabenfeld der Förderung von Informationskompetenz sichern soll. Es wird aufgezeigt, wie die in diesem Rahmenmodell formulierten Qualifikationsstandards in den verschiedenen Studiengängen umgesetzt werden und wo es bedarfsbezogene Ausprägung und Gewichtung in den Qualifikationszielen gibt.
    Date
    2. 4.2022 13:42:29
  8. Mandl, T.; Schulz, J.M.; Marholz, N.; Werner, K.: Benutzerforschung anhand von Log-Dateien : Chancen Grenzen und aktuelle Trends (2011) 0.01
    0.0075636865 = product of:
      0.050424576 = sum of:
        0.019551745 = weight(_text_:und in 4304) [ClassicSimilarity], result of:
          0.019551745 = score(doc=4304,freq=10.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.438048 = fieldWeight in 4304, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4304)
        0.019859934 = weight(_text_:der in 4304) [ClassicSimilarity], result of:
          0.019859934 = score(doc=4304,freq=10.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.44148692 = fieldWeight in 4304, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4304)
        0.011012898 = product of:
          0.022025796 = sum of:
            0.022025796 = weight(_text_:29 in 4304) [ClassicSimilarity], result of:
              0.022025796 = score(doc=4304,freq=2.0), product of:
                0.070840135 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02013827 = queryNorm
                0.31092256 = fieldWeight in 4304, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4304)
          0.5 = coord(1/2)
      0.15 = coord(3/20)
    
    Abstract
    Die Analyse des Verhaltens von Benutzern von Informationssystemen stellt einen Kern der Informationswissenschaft dar. Die Sammlung von umfangreichen Verhaltensdaten fällt mit den heutigen technischen Möglichkeiten leicht. Der Artikel fasst Möglichkeiten und Chancen der Analyse von Log-Dateien zusammen. Der Track LogCLEF wird vorgestellt, der Forschern erstmals die Möglichkeit eröffnet, mit den denselben Log-Dateien und somit vergleichend arbeiten zu können. Die Datengrundlage und einige Ergebnisse von LogCLEF werden vorgestellt.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.29-35
  9. Mandl, T.; Stempfhuber, M.: Softwareergonomische Gestaltung von Wirtschaftsinformationssystemen am Beispiel von ELVIRA (1998) 0.00
    0.004668999 = product of:
      0.031126658 = sum of:
        0.010929758 = weight(_text_:und in 4154) [ClassicSimilarity], result of:
          0.010929758 = score(doc=4154,freq=2.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.24487628 = fieldWeight in 4154, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4154)
        0.01110204 = weight(_text_:der in 4154) [ClassicSimilarity], result of:
          0.01110204 = score(doc=4154,freq=2.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.2467987 = fieldWeight in 4154, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4154)
        0.009094859 = product of:
          0.027284576 = sum of:
            0.027284576 = weight(_text_:22 in 4154) [ClassicSimilarity], result of:
              0.027284576 = score(doc=4154,freq=2.0), product of:
                0.07052079 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02013827 = queryNorm
                0.38690117 = fieldWeight in 4154, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4154)
          0.33333334 = coord(1/3)
      0.15 = coord(3/20)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  10. Braschler, M.; Heuwing, B.; Mandl, T.; Womser-Hacker, C.; Herget, J.; Schäuble, P.; Stuker, J.: Evaluation der Suchfunktion deutscher Unternehmenswebsites (2013) 0.00
    0.0040462622 = product of:
      0.04046262 = sum of:
        0.014663808 = weight(_text_:und in 942) [ClassicSimilarity], result of:
          0.014663808 = score(doc=942,freq=10.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.328536 = fieldWeight in 942, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
        0.025798813 = weight(_text_:der in 942) [ClassicSimilarity], result of:
          0.025798813 = score(doc=942,freq=30.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.5735084 = fieldWeight in 942, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
      0.1 = coord(2/20)
    
    Abstract
    Der Beitrag stellt eine umfangreiche Evaluation der Suchfunktionen von 35 deutschen Unternehmenswebsites vor. In der Studie soll die vom Nutzer wahrgenommene Qualität einer Website-Suche erfasst werden, und nicht die technische Funktionalität der jeweiligen Systeme. In leitfaden-basierten Evaluationen werden die Bereiche Suchindex, Anfrage- / Dokumentenvergleich, Benutzerinteraktion und Suchergebnisse untersucht. Die Zusammenfassung der Ergebnisse der Einzeltests in diesen Kategorien ermöglicht eine qualitative Beurteilung und Aussagen über die Positionierung von Ergebnissen relativ zum Gesamtfeld. Die Ergebnisse zeigen, dass bei Internetauftritten die Suchfunktion auf Websites oft zum Problem werden kann. Die Benutzer haben häufig Anlass, die Website zu verlassen, ohne ihr Ziel erreicht zu haben. Probleme zeigten sich bei der Vollständigkeit und Aktualität des Suchindexes sowie bei der Pflege und Präsentation ergänzender .Metadaten. Zum Vergleich werden die Untersuchungen auch anhand der Google-Sitesearch durchgeführt. Dabei zeigt sich, dass eine genaue Kenntnis der eigenen Daten zu besseren Ergebnissen führen kann, dies nutzen Unternehmen aber nicht immer aus.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
    Source
    Wissen - Wissenschaft - Organisation: Proceedings der 12. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Bonn, 19. bis 21. Oktober 2009. Hrsg.: H.P. Ohly
  11. Mandl, T.: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval (2006) 0.00
    0.0038517376 = product of:
      0.038517375 = sum of:
        0.023133935 = weight(_text_:und in 5975) [ClassicSimilarity], result of:
          0.023133935 = score(doc=5975,freq=14.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.51830536 = fieldWeight in 5975, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
        0.015383439 = weight(_text_:der in 5975) [ClassicSimilarity], result of:
          0.015383439 = score(doc=5975,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.34197432 = fieldWeight in 5975, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5975)
      0.1 = coord(2/20)
    
    Abstract
    Im Information Retrieval tragen Evaluierungsinitiativen erheblich zur empirisch fundierten Forschung bei. Mit umfangreichen Kollektionen und Aufgaben unterstützen sie die Standardisierung und damit die Systementwicklung. Die wachsenden Anforderungen hinsichtlich der Korpora und Anwendungsszenarien führten zu einer starken Diversifizierung innerhalb der Evaluierungsinitiativen. Dieser Artikel gibt einen Überblick über den aktuellen Stand der wichtigsten Evaluierungsinitiativen und neuen Trends.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  12. Griesbaum, J.; Mandl, T.: Forschung und Lehre der Informationswissenschaft an der Universität Hildesheim : Interkulturell, mutilingual, sozial (2010) 0.00
    0.0034935183 = product of:
      0.034935184 = sum of:
        0.019551745 = weight(_text_:und in 4009) [ClassicSimilarity], result of:
          0.019551745 = score(doc=4009,freq=10.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.438048 = fieldWeight in 4009, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4009)
        0.015383439 = weight(_text_:der in 4009) [ClassicSimilarity], result of:
          0.015383439 = score(doc=4009,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.34197432 = fieldWeight in 4009, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4009)
      0.1 = coord(2/20)
    
    Abstract
    Das vorliegende Schwerpunktheft zeichnet eine aktuelle Bestandsaufnahme der Hildesheimer Informationswissenschaft. Im Vergleich zu anderen Standorten wie Konstanz, Saarbrücken, Regensburg ist die Informationswissenschaft in Hildesheim relativ "jung". Sie wurde zunächst von Christa Hauenschild und ab ihrer Berufung 1998 federführend von Christa Womser-Hacker aufgebaut und hat sich mittlerweile als Erfolgsmodell in Lehre und Forschung etabliert.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.331-332
  13. Mandl, T.: Evaluierung im Information Retrieval : die Hildesheimer Antwort auf aktuelle Herausforderungen der globalisierten Informationsgesellschaft (2010) 0.00
    0.0030528156 = product of:
      0.030528154 = sum of:
        0.015144716 = weight(_text_:und in 4011) [ClassicSimilarity], result of:
          0.015144716 = score(doc=4011,freq=6.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.33931053 = fieldWeight in 4011, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4011)
        0.015383439 = weight(_text_:der in 4011) [ClassicSimilarity], result of:
          0.015383439 = score(doc=4011,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.34197432 = fieldWeight in 4011, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4011)
      0.1 = coord(2/20)
    
    Abstract
    Die Forschung zur Evaluierung von Information Retrieval Systemen hat in den letzten Jahren neue Richtungen eingeschlagen und interessante Ergebnisse erzielt. Während früher primär die Überlegenheit einzelner Verfahren in heterogenen Anwendungsszenarien im Fokus stand, gerät zunehmend die Validität der Evaluierungsmethodik ins Zentrum der Aufmerksamkeit. Dieser Artikel fasst die aktuelle Forschung zu innovativen Evaluierungsmaßen und zur Zuverlässigkeit des so genannten Cranfield-Paradigmas zusammen.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.341-348
  14. Mandl, T.: Text mining und data minig (2013) 0.00
    0.0030032936 = product of:
      0.030032936 = sum of:
        0.018930895 = weight(_text_:und in 713) [ClassicSimilarity], result of:
          0.018930895 = score(doc=713,freq=6.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.42413816 = fieldWeight in 713, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=713)
        0.01110204 = weight(_text_:der in 713) [ClassicSimilarity], result of:
          0.01110204 = score(doc=713,freq=2.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.2467987 = fieldWeight in 713, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=713)
      0.1 = coord(2/20)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  15. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.00
    0.002876217 = product of:
      0.02876217 = sum of:
        0.015301661 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015301661 = score(doc=266,freq=8.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.34282678 = fieldWeight in 266, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
        0.0134605095 = weight(_text_:der in 266) [ClassicSimilarity], result of:
          0.0134605095 = score(doc=266,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.29922754 = fieldWeight in 266, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
      0.1 = coord(2/20)
    
    Abstract
    Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.2, S.82-89
  16. Mandl, T.: Einsatz neuronaler Netze als Transferkomponenten beim Retrieval in heterogenen Dokumentbeständen (2000) 0.00
    0.002860374 = product of:
      0.02860374 = sum of:
        0.008743806 = weight(_text_:und in 6563) [ClassicSimilarity], result of:
          0.008743806 = score(doc=6563,freq=2.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.19590102 = fieldWeight in 6563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6563)
        0.019859934 = weight(_text_:der in 6563) [ClassicSimilarity], result of:
          0.019859934 = score(doc=6563,freq=10.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.44148692 = fieldWeight in 6563, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=6563)
      0.1 = coord(2/20)
    
    Abstract
    Die zunehmende weltweite Vernetzung und der aufbau von digitalen Bibliotheken führt zu neuen Möglichkeiten bei der Suche in mehreren Datenbeständen. Dabei entsteht das Problem der semantischen Heterogenität, da z.B. Begriffe in verschiedenen Kontexten verschiedene Bedeutung haben können. Die dafür notwendigen Transferkomponenten bilden eine neue Herausforderung, für die neuronale Netze gut geeignet sind
    Content
    Zugleich Dissertation des Verfassers an der Universität Hildesheim
    Footnote
    Der vollständige Text steht unter http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/ als PDF-Datei zur Verfügung
  17. Çetta, D.; Griesbaum, J.; Montanari, E.G.; Mandl, T.: Selbstbestimmt durch Informationskompetenz (2021) 0.00
    0.0028545544 = product of:
      0.028545544 = sum of:
        0.018930895 = weight(_text_:und in 116) [ClassicSimilarity], result of:
          0.018930895 = score(doc=116,freq=24.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.42413816 = fieldWeight in 116, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=116)
        0.009614649 = weight(_text_:der in 116) [ClassicSimilarity], result of:
          0.009614649 = score(doc=116,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.21373394 = fieldWeight in 116, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=116)
      0.1 = coord(2/20)
    
    Abstract
    Das Internet verändert die Informationswelt und Gesellschaft. Es bietet zum einen umfassenden Zugriff auf Informationen, zugleich stellt es einen komplexen, interessengesteuerten und teilweise intransparenten Informationsraum dar. Die Menge an verfügbaren Informationen nimmt stetig zu, was auch daran liegt, dass Informationen von jeder Person mühelos ins Netz gestellt werden können. So gelangen auch ungeprüfte Informationen in Umlauf, was wiederum die Bewertung und Bestimmung der Glaubwürdigkeit von Informationen erschwert. Das Internet macht es einfach, Fake News und Desinformation zu verbreiten. Im privaten Bereich haben Nutzer_innen es mit Phishing- oder Spammails, falschen Online-Shops oder irreführenden Gesundheitsinformationen zu tun. Im aktuellen Corona-Kontext kursieren diverse Falschinformationen zu gesundheitsbezogenen Themen. Kurz: Das Internet ist eine fordernde Informationsumwelt. Eine Informationsumwelt, die Nutzer_innen auch überfordern kann. Verfügt man nicht über hinreichende Informationskompetenz so läuft man Gefahr sich manipulieren zu lassen und sich dabei noch für informiert zu halten.
    In Anbetracht einer komplexer werdenden Informationsumwelt unterstützt Informationskompetenz dabei, informierte Entscheidungen zu treffen. Informationskompetenz ist wichtig für private und beruflich Lebensbereiche und auch für öffentliche Diskurse elementar. Informationskompetenz schafft die Grundlage dafür, auf einer fundierten Informationsgrundlage selbstbestimmt entscheiden und sich sachlich-rational in Diskurse einbringen zu können. Informationskompetenz ist nicht schwer zu erlangen, man muss sich aber dafür entscheiden, sich informationskompetent zu verhalten. Das ist vor allem bei Themen und Entscheidungen, die auf eine fundierte Informationsgrundlage angewiesen sind wichtig.
    Content
    Dieser Artikel wurde im Rahmen des Projekts »Informationskompetenz und Demokratie (IDE): Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung« erstellt. Das Projekt wird durch das Niedersächsische Ministerium für Wissenschaft und Kultur im Rahmen der Ausschreibung »Zukunftsdiskurse« aus Mitteln des Niedersächsischen Vorab gefördert.
  18. Pauls, N.; Griesbaum, J.; Mandl, T.: Erfolgsfaktoren kirchlicher Community-Angebote im Social Web : eine Analyse des Wikis "Evangelisch in Niedersachsen" (2011) 0.00
    0.0027705242 = product of:
      0.027705241 = sum of:
        0.015144716 = weight(_text_:und in 3247) [ClassicSimilarity], result of:
          0.015144716 = score(doc=3247,freq=6.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.33931053 = fieldWeight in 3247, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3247)
        0.012560525 = weight(_text_:der in 3247) [ClassicSimilarity], result of:
          0.012560525 = score(doc=3247,freq=4.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.27922085 = fieldWeight in 3247, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3247)
      0.1 = coord(2/20)
    
    Abstract
    Vorliegender Artikel behandelt anhand einer Untersuchung des Wikis "Evangelisch in Niedersachsen" die Frage von Erfolgsfaktoren kirchlicher Social Media Angebote. Hierzu werden Bewertungskriterien aus der Literatur erarbeitet und auf die Fallstudie "Evangelisch in Niedersachsen" angewendet. Dabei werden statistische Nutzungsdaten ausgewertet sowie eine Expertenanalyse und eine Nutzerbefragung durchgeführt. In der konkreten Fallstudie werden die Ergebnisse zur Erarbeitung von Empfehlungen zur Optimierung des Kirchen-Wikis genutzt.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.19-27
  19. Mandl, T.: Text Mining und Data Mining (2023) 0.00
    0.002651206 = product of:
      0.026512058 = sum of:
        0.01874063 = weight(_text_:und in 774) [ClassicSimilarity], result of:
          0.01874063 = score(doc=774,freq=12.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.41987535 = fieldWeight in 774, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=774)
        0.0077714287 = weight(_text_:der in 774) [ClassicSimilarity], result of:
          0.0077714287 = score(doc=774,freq=2.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.17275909 = fieldWeight in 774, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=774)
      0.1 = coord(2/20)
    
    Abstract
    Text und Data Mining sind ein Bündel von Technologien, die eng mit den Themenfeldern Statistik, Maschinelles Lernen und dem Erkennen von Mustern verbunden sind. Die üblichen Definitionen beziehen eine Vielzahl von verschiedenen Verfahren mit ein, ohne eine exakte Grenze zu ziehen. Data Mining bezeichnet die Suche nach Mustern, Regelmäßigkeiten oder Auffälligkeiten in stark strukturierten und vor allem numerischen Daten. "Any algorithm that enumerates patterns from, or fits models to, data is a data mining algorithm." Numerische Daten und Datenbankinhalte werden als strukturierte Daten bezeichnet. Dagegen gelten Textdokumente in natürlicher Sprache als unstrukturierte Daten.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  20. Baeck, J.; Wiem, S.; Kölle, R.; Mandl, T.: User Interface Prototyping : eine Evaluation spezifischer Werkzeuge (2010) 0.00
    0.0026362767 = product of:
      0.026362766 = sum of:
        0.010819908 = weight(_text_:und in 4674) [ClassicSimilarity], result of:
          0.010819908 = score(doc=4674,freq=4.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.24241515 = fieldWeight in 4674, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4674)
        0.015542857 = weight(_text_:der in 4674) [ClassicSimilarity], result of:
          0.015542857 = score(doc=4674,freq=8.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.34551817 = fieldWeight in 4674, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4674)
      0.1 = coord(2/20)
    
    Abstract
    Die Eignung von Prototyping-Werkzeugen zur Erstellung interaktiver Prototypen hängt stark vom Anwendungsfall ab. Der Beitrag beschreibt die Evaluierung von Prototyping-Werkzeugen für einen spezifischen Anwendungsfall. Dazu wurde ein Kriterienkatalog entwickelt, der auf Basis der Anforderungen bei IBM Interactive Hamburg gewichtet wurde. In einem Benchmark wurden 27 Systeme auf 20 Kriterien hin bewertet. Fünf Systeme wurden in einer heuristischen Analyse intensiver auf ihre Usability hin untersucht. Die zwei am besten geeigneten Systeme wurden in einem abschließenden Benutzertest mit der derzeitigen Lösung verglichen.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker