Search (4245 results, page 1 of 213)

  • × year_i:[2000 TO 2010}
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.58
    0.5805126 = product of:
      0.9030196 = sum of:
        0.050942488 = product of:
          0.15282746 = sum of:
            0.15282746 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.15282746 = score(doc=562,freq=2.0), product of:
                0.27192625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0320743 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.15282746 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15282746 = score(doc=562,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.15282746 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15282746 = score(doc=562,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.15282746 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15282746 = score(doc=562,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.052257393 = weight(_text_:source in 562) [ClassicSimilarity], result of:
          0.052257393 = score(doc=562,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.32864225 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.15282746 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15282746 = score(doc=562,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.02264558 = weight(_text_:web in 562) [ClassicSimilarity], result of:
          0.02264558 = score(doc=562,freq=2.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.21634221 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.15282746 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.15282746 = score(doc=562,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.013036874 = product of:
          0.026073748 = sum of:
            0.026073748 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.026073748 = score(doc=562,freq=2.0), product of:
                0.11231873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0320743 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.64285713 = coord(9/14)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.47
    0.46575987 = product of:
      1.086773 = sum of:
        0.06792332 = product of:
          0.20376995 = sum of:
            0.20376995 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.20376995 = score(doc=140,freq=2.0), product of:
                0.27192625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0320743 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
        0.20376995 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.20376995 = score(doc=140,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.20376995 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.20376995 = score(doc=140,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.20376995 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.20376995 = score(doc=140,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.20376995 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.20376995 = score(doc=140,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.20376995 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.20376995 = score(doc=140,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.42857143 = coord(6/14)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  3. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.41
    0.40753993 = product of:
      0.9509265 = sum of:
        0.059432905 = product of:
          0.17829871 = sum of:
            0.17829871 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.17829871 = score(doc=306,freq=2.0), product of:
                0.27192625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0320743 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.17829871 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.17829871 = score(doc=306,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.17829871 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.17829871 = score(doc=306,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.17829871 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.17829871 = score(doc=306,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.17829871 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.17829871 = score(doc=306,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.17829871 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.17829871 = score(doc=306,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.42857143 = coord(6/14)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  4. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.37
    0.3736091 = product of:
      0.7472182 = sum of:
        0.042452075 = product of:
          0.12735622 = sum of:
            0.12735622 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.12735622 = score(doc=5895,freq=2.0), product of:
                0.27192625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0320743 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
        0.067985 = weight(_text_:medien in 5895) [ClassicSimilarity], result of:
          0.067985 = score(doc=5895,freq=6.0), product of:
            0.15096188 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0320743 = queryNorm
            0.45034546 = fieldWeight in 5895, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.12735622 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.12735622 = score(doc=5895,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.12735622 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.12735622 = score(doc=5895,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.12735622 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.12735622 = score(doc=5895,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.12735622 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.12735622 = score(doc=5895,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.12735622 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.12735622 = score(doc=5895,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
      0.5 = coord(7/14)
    
    Abstract
    Das Problem der Wahrnehmung und Darstellung von Wahrheit durch die Medien führt zu vier zentralen Fragen: Wie viel Wahrheit gibt es in der Welt, über die Journalisten berichten müssen? Wie ermittelt oder recherchiert man diese Wahrheit? Wie trennt man die Spreu vom Weizen? Und wie geht man als Journalist mit dem um, was man als Wahrheit erkannt hat oder erkannt zu haben glaubt? Hier gibt es ganz offensichtlich eine Parallele zwischen Journalisten und Wissenschaftlern. Journalisten und Wissenschaftler brauchen erstens Hypothesen, zweitens geeignete Hypothesentests, drittens ein gutes Abgrenzungs-Kriterium und viertens Verfahren, um die erkannten Sachverhalte auf angemessene Weise für eine Kommunikation mit anderen zu repräsentieren, das heißt sie darzustellen. Es gibt zwei große Unterschiede zwischen Journalisten und Wissenschaftlern: Journalisten sind in der Regel auf raum-zeitlich begrenzte Aussagen aus, Wissenschaftler in der Regel auf raumzeitlich unbegrenzte Gesetze. Aber diese Unterschiede sind fließend, weil Wissenschaftler raum-zeitlich begrenzte Aussagen brauchen, um ihre All-Aussagen zu überprüfen, und Journalisten sich immer häufiger auf das Feld der allgemeinen Gesetzes-Aussagen wagen oder doch zumindest Kausalinterpretationen für soziale Phänomene anbieten. Der zweite Unterschied besteht darin, dass die Wissenschaft weitgehend professionalisiert ist (zumindest gilt dies uneingeschränkt für die Naturwissenschaften und die Medizin), was ihr relativ klare Abgrenzungs- und Güte-Kriterien beschert hat. Diese fehlen weitgehend im Journalismus.
    Content
    Der Beitrag basiert auf einem Vortrag beim 9. Ethiktag "Wissenschaft und Medien" am Zentrum für Ethik und Recht in der Medizin des Universitätsklinikums Freiburg im Februar 2001.
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  5. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.35
    0.3493199 = product of:
      0.81507975 = sum of:
        0.050942488 = product of:
          0.15282746 = sum of:
            0.15282746 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.15282746 = score(doc=2918,freq=2.0), product of:
                0.27192625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0320743 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.15282746 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.15282746 = score(doc=2918,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.15282746 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.15282746 = score(doc=2918,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.15282746 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.15282746 = score(doc=2918,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.15282746 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.15282746 = score(doc=2918,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.15282746 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.15282746 = score(doc=2918,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.42857143 = coord(6/14)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  6. Möller, E.: ¬Die heimliche Medienrevolution : wie Weblogs, Wikis und freie Software die Welt verändern (2006) 0.30
    0.29552028 = product of:
      0.5171605 = sum of:
        0.09929844 = weight(_text_:medien in 142) [ClassicSimilarity], result of:
          0.09929844 = score(doc=142,freq=20.0), product of:
            0.15096188 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0320743 = queryNorm
            0.65777165 = fieldWeight in 142, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=142)
        0.06519775 = weight(_text_:benutzer in 142) [ClassicSimilarity], result of:
          0.06519775 = score(doc=142,freq=4.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.35643286 = fieldWeight in 142, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.03125 = fieldNorm(doc=142)
        0.11037505 = weight(_text_:beteiligung in 142) [ClassicSimilarity], result of:
          0.11037505 = score(doc=142,freq=4.0), product of:
            0.2379984 = queryWeight, product of:
              7.4202213 = idf(docFreq=71, maxDocs=44218)
              0.0320743 = queryNorm
            0.46376383 = fieldWeight in 142, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.4202213 = idf(docFreq=71, maxDocs=44218)
              0.03125 = fieldNorm(doc=142)
        0.040651817 = weight(_text_:open in 142) [ClassicSimilarity], result of:
          0.040651817 = score(doc=142,freq=4.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.2814501 = fieldWeight in 142, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03125 = fieldNorm(doc=142)
        0.049268745 = weight(_text_:source in 142) [ClassicSimilarity], result of:
          0.049268745 = score(doc=142,freq=4.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.3098469 = fieldWeight in 142, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.03125 = fieldNorm(doc=142)
        0.021350458 = weight(_text_:web in 142) [ClassicSimilarity], result of:
          0.021350458 = score(doc=142,freq=4.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.2039694 = fieldWeight in 142, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=142)
        0.082331546 = weight(_text_:log in 142) [ClassicSimilarity], result of:
          0.082331546 = score(doc=142,freq=4.0), product of:
            0.205552 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0320743 = queryNorm
            0.40053877 = fieldWeight in 142, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.03125 = fieldNorm(doc=142)
        0.048686706 = product of:
          0.09737341 = sum of:
            0.09737341 = weight(_text_:wiki in 142) [ClassicSimilarity], result of:
              0.09737341 = score(doc=142,freq=4.0), product of:
                0.22354181 = queryWeight, product of:
                  6.9694996 = idf(docFreq=112, maxDocs=44218)
                  0.0320743 = queryNorm
                0.43559372 = fieldWeight in 142, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.9694996 = idf(docFreq=112, maxDocs=44218)
                  0.03125 = fieldNorm(doc=142)
          0.5 = coord(1/2)
      0.5714286 = coord(8/14)
    
    Abstract
    Medien bedeuten Macht. Kann das Internet Bertelsmann, Time Warner und Rupert Murdoch gefährlich werden? Großunternehmen versuchen auch die neuen Medien zu kapitalisieren, doch im globalen, dezentralen Kommunikationsnetz gelten andere Spielregeln. Auf der Basis freier Software, die von jedem kostenlos verändert und kopiert werden kann, entstehen völlig neue Medienformen. Millionen von "Weblogs" genannten Online-Postillen ergänzen die klassische Medienlandschaft um unabhängige Stimmen. Erste Experimente mit cleveren Finanzierungsmodellen zeigen, dass auf dieser Basis auch echter Journalismus möglich ist. Gleichzeitig arbeiten Tausende von Freiwilligen an offenen Wissensdatenbanken wie der gigantischen Enzyklopädie Wikipedia. Eine Konvergenz von Wikis und Weblogs zeichnet sich ab. Massive Online-Zusammenarbeit in den Bereichen Nachrichten, Wissen, Kunst und Kultur scheint unausweichlich oder findet bereits statt. Das revolutionäre Potenzial des Internet, das erst übertrieben, dann belächelt wurde, nimmt Konturen an. Dieses Buch erfasst den aktuellen Stand der Entwicklung, wagt einen vorsichtigen Blick in die Zukunft und liefert das notwendige Grundwissen zur direkten Partizipation an der neuen Medienwelt.
    BK
    05.38 Neue elektronische Medien <Kommunikationswissenschaft>
    Classification
    MS 7850 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations]
    AP 18420 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Arten des Nachrichtenwesens, Medientechnik # Internet]
    05.38 Neue elektronische Medien <Kommunikationswissenschaft>
    RSWK
    Neue Medien / Benutzer / Beteiligung / Open Source / Web log / Wiki
    RVK
    MS 7850 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations]
    AP 18420 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Arten des Nachrichtenwesens, Medientechnik # Internet]
    Subject
    Neue Medien / Benutzer / Beteiligung / Open Source / Web log / Wiki
  7. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.28
    0.28236848 = product of:
      0.56473696 = sum of:
        0.03396166 = product of:
          0.101884976 = sum of:
            0.101884976 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.101884976 = score(doc=701,freq=2.0), product of:
                0.27192625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0320743 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.101884976 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.101884976 = score(doc=701,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.101884976 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.101884976 = score(doc=701,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.101884976 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.101884976 = score(doc=701,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.101884976 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.101884976 = score(doc=701,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.021350458 = weight(_text_:web in 701) [ClassicSimilarity], result of:
          0.021350458 = score(doc=701,freq=4.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.2039694 = fieldWeight in 701, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.101884976 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.101884976 = score(doc=701,freq=2.0), product of:
            0.27192625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0320743 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(7/14)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Theme
    Semantic Web
  8. Heckner, M.: Tagging, rating, posting : studying forms of user contribution for web-based information management and information retrieval (2009) 0.09
    0.08559928 = product of:
      0.29959747 = sum of:
        0.055509515 = weight(_text_:medien in 2931) [ClassicSimilarity], result of:
          0.055509515 = score(doc=2931,freq=4.0), product of:
            0.15096188 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0320743 = queryNorm
            0.36770552 = fieldWeight in 2931, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2931)
        0.08149719 = weight(_text_:benutzer in 2931) [ClassicSimilarity], result of:
          0.08149719 = score(doc=2931,freq=4.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.44554108 = fieldWeight in 2931, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2931)
        0.059676345 = weight(_text_:web in 2931) [ClassicSimilarity], result of:
          0.059676345 = score(doc=2931,freq=20.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.5701118 = fieldWeight in 2931, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2931)
        0.10291443 = weight(_text_:log in 2931) [ClassicSimilarity], result of:
          0.10291443 = score(doc=2931,freq=4.0), product of:
            0.205552 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0320743 = queryNorm
            0.5006735 = fieldWeight in 2931, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2931)
      0.2857143 = coord(4/14)
    
    BK
    05.38 / Neue elektronische Medien <Kommunikationswissenschaft>
    Classification
    05.38 / Neue elektronische Medien <Kommunikationswissenschaft>
    Content
    The Web of User Contribution - Foundations and Principles of the Social Web - Social Tagging - Rating and Filtering of Digital Resources Empirical Analysisof User Contributions - The Functional and Linguistic Structure of Tags - A Comparative Analysis of Tags for Different Digital Resource Types - Exploring Relevance Assessments in Social IR Systems - Exploring User Contribution Within a Higher Education Scenario - Summary of Empirical Results and Implications for Designing Social Information Systems User Contribution for a Participative Information System - Social Information Architecture for an Online Help System
    Object
    Web 2.0
    RSWK
    World Wide Web 2.0 / Benutzer / Online-Publizieren / Information Retrieval / Soziale Software / Hilfesystem
    Social Tagging / Filter / Web log / World Wide Web 2.0
    Subject
    World Wide Web 2.0 / Benutzer / Online-Publizieren / Information Retrieval / Soziale Software / Hilfesystem
    Social Tagging / Filter / Web log / World Wide Web 2.0
  9. Sixtus, M.: ¬Das Gemeinschaftsnetz : Im Wiki-Web können alle Surfer Seiten umschreiben und hinzufügen - so entstehen ganze Enzyklopädien (2003) 0.07
    0.07275449 = product of:
      0.2546407 = sum of:
        0.021558879 = weight(_text_:open in 1739) [ClassicSimilarity], result of:
          0.021558879 = score(doc=1739,freq=2.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.14926144 = fieldWeight in 1739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
        0.026128696 = weight(_text_:source in 1739) [ClassicSimilarity], result of:
          0.026128696 = score(doc=1739,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.16432112 = fieldWeight in 1739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
        0.02264558 = weight(_text_:web in 1739) [ClassicSimilarity], result of:
          0.02264558 = score(doc=1739,freq=8.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.21634221 = fieldWeight in 1739, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
        0.18430755 = sum of:
          0.17127067 = weight(_text_:wiki in 1739) [ClassicSimilarity], result of:
            0.17127067 = score(doc=1739,freq=22.0), product of:
              0.22354181 = queryWeight, product of:
                6.9694996 = idf(docFreq=112, maxDocs=44218)
                0.0320743 = queryNorm
              0.76616836 = fieldWeight in 1739, product of:
                4.690416 = tf(freq=22.0), with freq of:
                  22.0 = termFreq=22.0
                6.9694996 = idf(docFreq=112, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1739)
          0.013036874 = weight(_text_:22 in 1739) [ClassicSimilarity], result of:
            0.013036874 = score(doc=1739,freq=2.0), product of:
              0.11231873 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0320743 = queryNorm
              0.116070345 = fieldWeight in 1739, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1739)
      0.2857143 = coord(4/14)
    
    Content
    "Wissen ist in. Allerorten wird es zum Rohstoffdes 21. Jahrhunderts ausgerufen. Doch je mehr man weiß, desto wichtiger ist es, die Informationen professionell zu verwalten, zu organisieren und zu pflegen. Manche Unternehmen bauen dazu teure, komplexe Knowledge-Management-Systeme ins Firmennetz ein. Doch das Wissensmanagement geht einfacher - mit Wikis. Ein Wiki ist eine Sammlung dynamischer Webseiten, die über Verweise verbunden sind und alle über eine Besonderheit verfügen: Ganz unten fordert ein Button alle Surfer dazu auf, die aktuelle Seite zu verändern. Prinzipiell kann jeder jede Seite ändern, ergänzen, verbessern oder sogar löschen. Rechte-Hierarchien existieren schlicht nicht. Jeder User ist gleichzeitig Leser, Lektor, Redakteur und Autor. Seiten anlegen und verlinken geschieht in einem Arbeitsgang. Einige rudimentäre Möglichkeiten zur Textformatierung und zur Einbindung von Grafiken sowie eine Volltextsuche runden den bescheidenen Funktionsumfang eines Standard-Wikis ab - und machen es verblüffenderweise doch zu einem mächtigen Werkzeug. Geübte User erzeugen mit dem virtuellen Zettelkasten in Windeseile Strukturen, die Hunderte oder Tausende von Einzelseiten umfassen. Die Einsatzmöglichkeiten sind vielfältig: Wikis fungieren als Wissensspeicher, als Basis für gemeinsame Projektdokumentationen, als Materialanforderungsformular oder als Brainstorminghilfe in Kreativberufen. Und selbst bei der Planung von Betriebsfeiern oder als Datenbank für Kochrezepte sollen sie schon zum Einsatz kommen. Wenn jeder Nutzer jedes einzelne Dokument ändern oder löschen kann, herrscht dann nicht das Chaos? Was passiert, wenn Fehler sich einschleichen oder wichtige Passagen verschwinden? Dagegen sind die Wikis gewappnet: Mit der HistoryFunktion und über Differenzberechnungen lässt sich überblicken, wer wann was geändert hat. Bei Bedarf lassen sich alle Anderungen rückgängig machen. Jeder historische Zustand ist so mit wenigen Mausklicks wiederhergestellt. Seit 1999 setzen Teams des Mobilfunkherstellers Motorola auf Wikis als Werkzeuge für das kollaborative Arbeiten, die Lufthansa verwendet sie zur Verwaltung technischer Dokumentationen, und die Konzerne SAP und Disney experimentieren mit den wenigen hundert Kilobyte kleinen Systemen in ihren Firmennetzen. Das erste Wiki hat der Software-Entwickler Ward Cunningham im Jahr 1995 unter der Adresse c2.com/cgi/wiki ins Netz gestellt - und dort steht es heute noch. Der Begriff "Wiki" ist das hawaiianische Wort für "schnell", und genau darum ging es Cunningham: flottes, unkompliziertes Arbeiten, ohne von einem unübersichtlichen Funktionsumfang gebremst zu werden. Mittlerweile existieren etliche Klons und Weiterentwicklungen des UrWikis, in mehreren Programmiersprachen und für fast alle Computerplattformen. Die meisten stehen gratis und unter der Open-Source-Lizenz im Netz.
    Die Idee des editierbaren Internets geht zurück auf den Erfinder des World Wide Web, Tim Berners-Lee, der in seinem Buch Weaving the Web die Grundideen der Wiki-Philosophie aussprach: "Das Web editieren zu können ist genauso wichtig, wie durch es zu browsen." Aber haben Sites, an denen jeder zufällig Vorbeisurfende herumdoktern kann, überhaupt eine Überlebenschance? Wer schon einmal beobachtet hat, wie schnell offene Systeme wie Gästebücher oder Foren im Chaos versinken können, mag berechtigte Zweifel anmelden. Erstaunlicherweise funktionieren offene Wikis aber hervorragend. Beispielsweise Wikipedia: Das seit 2001 laufende Enzyklopädie-Projekt umfasst in der englischsprachigen Variante mehr als 144 000 Artikel. Das Mammutvorhaben, das Wissen der Welt in einem Wiki festzuhalten, wird nicht von einer Hand voll Autoren und Redakteuren angegangen. Vielmehr kann jeder Surfer sein persönliches Know-how dazu beisteuern. Dank der globalen Teamarbeit haben die Wikipedia-Artikel eine beachtliche Qualität erreicht - und können sich bisweilen durchaus mit professionellen und kostspieligen Nachschlagewerken messen. Der Journalist und Bestseller-Autor Sheldon Rampton verfolgt mit seinem Wiki-Projekt Disinfopedia.org speziellere Ziele: Die Enzyklopädie der Propaganda soll dokumentieren, wie PR-Unternehmen, Lobbyisten und Thinktanks die öffentliche Meinung in den USA mit Hilfe von fragwürdigen wissenschaftlichen Studien, fingierten Graswurzelbewegungen oder schlichter Verbreitung von Falschinformationen beeinflussen. Auch Disinfopedia wächst und gedeiht unter Mitarbeit der Netzbewohner, und obwohl man annehmen müsste, dass gerade ein solches politisches Projekt besonders unter Störern und Angreifern leidet, hat sich die Wiki-Technologie bisher als resistent erwiesen. Wer sich mit dem Thema Wissensmanagement beschäftigt, sollte auf jeden Fall ernsthaft prüfen, ob die kleine Wiki-Teeküche für seine Belange ausreicht. Und für manche Netzphilosophen sind die erfolgreichen Experimente mit den offenen Websites dann auch mehr als nur ein gelungenes Beispiel für gemeinschaftliches Arbeiten: Sie seien auch Beweis dafür, dass die menschliche Konstruktivität größer ist als ihre zerstörerischen Kräfte. Ein digitaler Hoffnungsschimmer."
    Date
    17. 7.1996 9:33:22
    Footnote
    Vgl. auch: c2.com/cgi/wiki; de.wikipedia.org; www.disinfopedia.org
  10. Hauser, T.; Wenz, C.: Mambo : das Open-source-CMS einsetzen und erweitern (2006) 0.07
    0.06744549 = product of:
      0.23605919 = sum of:
        0.06915266 = weight(_text_:benutzer in 1555) [ClassicSimilarity], result of:
          0.06915266 = score(doc=1555,freq=2.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.37805414 = fieldWeight in 1555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.060977723 = weight(_text_:open in 1555) [ClassicSimilarity], result of:
          0.060977723 = score(doc=1555,freq=4.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.42217514 = fieldWeight in 1555, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.07390312 = weight(_text_:source in 1555) [ClassicSimilarity], result of:
          0.07390312 = score(doc=1555,freq=4.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.46477038 = fieldWeight in 1555, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.032025687 = weight(_text_:web in 1555) [ClassicSimilarity], result of:
          0.032025687 = score(doc=1555,freq=4.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.3059541 = fieldWeight in 1555, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
      0.2857143 = coord(4/14)
    
    Abstract
    Mambo ist nach Typo3 das am meisten verbreitete Content Management System (CMS) auf Open Source-Basis. Dieses Buch zeigt, wie man eigene Mambo-basierte Websites erstellt. Fortgeschrittene Nutzer lernen, Websites den eigenen Bedürfnissen entsprechend anzupassen und zu erweitern. Das Buch enthält wertvolle Infos über weitere Projekte im Mambo-Umfeld. Teil 1: CMS-Grundlagen allgemein und mit Mambo Von der Installation über die Konfiguration bis hin zur Verwaltung eines Basissystems, Einrichten von Websites, Verwaltung der Mambo-Benutzer. Teil 2: Anpassung des Mambo-Systems an eigene Bedürfnisse Themen sind hier u.a. die Entwicklung eigener Layouts, das Einbinden von Modulen, die Erstellung mehrsprachiger Websites...
    Classification
    ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
    RVK
    ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
  11. Lewen, H.: Personalisierte Ordnung von Objekten basierend auf Vertrauensnetzwerken (2008) 0.07
    0.0671863 = product of:
      0.31353608 = sum of:
        0.22585164 = weight(_text_:benutzer in 2305) [ClassicSimilarity], result of:
          0.22585164 = score(doc=2305,freq=12.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            1.2347196 = fieldWeight in 2305, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0625 = fieldNorm(doc=2305)
        0.057490345 = weight(_text_:open in 2305) [ClassicSimilarity], result of:
          0.057490345 = score(doc=2305,freq=2.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.39803052 = fieldWeight in 2305, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0625 = fieldNorm(doc=2305)
        0.030194107 = weight(_text_:web in 2305) [ClassicSimilarity], result of:
          0.030194107 = score(doc=2305,freq=2.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.2884563 = fieldWeight in 2305, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2305)
      0.21428572 = coord(3/14)
    
    Abstract
    Open Rating Systeme werden zur Be­wertung unterschiedlichster Objekte eingesetzt. Benutzer können Rezensionen über Objekte verfassen, andere Benutzer können die Qualität dieser Rezensionen bewerten. Basierend auf diesen Bewertungen der Rezensionen wird ein Vertrauensnetzwerk (Web of Trust) aufgebaut. Zwei Benutzer werden durch eine gerichtete Kante verbunden, wenn ein Benutzer dem System mitteilt, dass er einem anderen Benutzer vertraut, Inhalte korrekt zu bewerten. Basierend auf diesem persönlichen Vertrauensnetzwerk werden Objekte und auch die Rezensionen für ein bestimmtes Objekt individuell für jeden Benutzer angeordnet.
  12. Wester, J.: AutoFocus: An Open-source Facet-Driven Enterprise Search Solution (2007) 0.05
    0.05280566 = product of:
      0.2464264 = sum of:
        0.08712918 = weight(_text_:open in 717) [ClassicSimilarity], result of:
          0.08712918 = score(doc=717,freq=6.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.603233 = fieldWeight in 717, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0546875 = fieldNorm(doc=717)
        0.121933915 = weight(_text_:source in 717) [ClassicSimilarity], result of:
          0.121933915 = score(doc=717,freq=8.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.76683193 = fieldWeight in 717, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0546875 = fieldNorm(doc=717)
        0.037363302 = weight(_text_:web in 717) [ClassicSimilarity], result of:
          0.037363302 = score(doc=717,freq=4.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.35694647 = fieldWeight in 717, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=717)
      0.21428572 = coord(3/14)
    
    Abstract
    In the final presentation of the afternoon, Jeroen Wester of Aduna described the main features of their open-source, facet-driven enterprise search solution, AutoFocus. AutoFocus is based upon and exploits the advantages of Semantic Web technologies, in particular RDF (Resource Description Framework), although a bewildering variety of related technologies - XML, SOAP, SKOS, OWL - are also employed. In addition to providing components for metadata-based data integration and cross-silo search and navigation in a single enterprise search solution, AutoFocus offers the advantage of being open-source, meaning that its source code is freely available for customization
    Theme
    Semantic Web
  13. Web intelligence: research and development : First Asia-Pacific Conference, WI 2001, Maebashi City, Japan, Oct. 23-26, 2001, Proceedings (2003) 0.05
    0.04958649 = product of:
      0.13884217 = sum of:
        0.015700461 = weight(_text_:medien in 1832) [ClassicSimilarity], result of:
          0.015700461 = score(doc=1832,freq=2.0), product of:
            0.15096188 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0320743 = queryNorm
            0.104002826 = fieldWeight in 1832, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
        0.032598875 = weight(_text_:benutzer in 1832) [ClassicSimilarity], result of:
          0.032598875 = score(doc=1832,freq=4.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.17821643 = fieldWeight in 1832, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
        0.017419131 = weight(_text_:source in 1832) [ClassicSimilarity], result of:
          0.017419131 = score(doc=1832,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.10954742 = fieldWeight in 1832, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
        0.0440151 = weight(_text_:web in 1832) [ClassicSimilarity], result of:
          0.0440151 = score(doc=1832,freq=68.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.4204937 = fieldWeight in 1832, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
        0.029108597 = weight(_text_:log in 1832) [ClassicSimilarity], result of:
          0.029108597 = score(doc=1832,freq=2.0), product of:
            0.205552 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0320743 = queryNorm
            0.14161184 = fieldWeight in 1832, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
      0.35714287 = coord(5/14)
    
    Abstract
    Web Intelligence is a new research area dealing with all aspects of intelligent data processing in the Web. As the ferst book devoted to Web Intelligence, this coherently written multi-author monograph provides a thorough introduction and systematic overview of this new area. It presents both the current state of research as well as application aspects. All major topics related to Web Intelligence which can have impact an future directions and developments are presented in detail. This book will be a valuable source of reference for years to all research and development professionals interested in Weh Intelligence. Students will also appreciate the numerous illustrations and examples.
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.378-379 (T. Mandl): "Im Oktober 2001 fand erstmals eine Tagung mit dem Titel "Web Intelligence" statt. Ist dies nun eine neue Disziplin oder der Versuch analog zu "Artificial Intelligence" und "Computational Intelligence" ein neues Modewort zu kreieren? Geht es um den Einsatz sogenannter intelligenter Verfahren, um mit dem Internet umgehen zu können oder erscheint das Internet als "emerging global brain" (Goertzel 2002), also als eine unerschöpfliche Quelle von Wissen, die nur geschickt ausgebeutet werden muss? Kommt also die Intelligenz aus dem Web oder dient die Intelligenz als Werkzeug für das Web? Der Tagungsband ist seit Anfang 2003 verfügbar und bietet nun den Anlass, diesen Begriff anhand der darin präsentierten Inhalte zu bewerten. Die Herausgeber führen in ihrem einleitenden Artikel gleich die Abkürzung WI ein und versuchen tatsächlich "Web Intelligence" als neue Sub-Disziplin der Informatik zu etablieren. Zu diesem Zweck greifen sie auch auf die Anzahl der Nachweise für diese Phrase in Suchmaschinen zu. Zwar lieferten die Systeme angeblich Zahlen von über einer Million (S. 4), aber dies überzeugt sicher noch niemanden, das Studium der WI aufzunehmen. Allerdings weist dieses Vorgehen schon auf einen Kern der WI hin: man versucht, aus dem im Web gespeicherten Wissen neues Wissen zu generieren. Damit wäre man sehr nahe am Data oder eben Web-Mining, jedoch geht die Definition der Autoren darüber hinaus. Sie wollen WI verstanden wissen als die Anwendung von Künstlicher Intelligenz sowie Informationstechnologie im Internet (S. 2). Da nun Künstliche Intelligenz bei allen Meinungsverschiedenheiten sicherlich nicht ohne Informationstechnologie denkbar ist, wirkt die Definition nicht ganz überzeugend. Allerdings beschwichtigen die Autoren im gleichen Atemzug und versichern, diese Definition solle ohnehin keine Forschungsrichtung ausschließen. Somit bietet sich eher eine Umfangsdefinition an. Diese solle die wichtigsten Stoßrichtungen des Buchs und damit auch der Tagung umfassen. Als Ausgangspunkt dient dazu auch eine Liste der Herausgeber (S. 7f.), die hier aber etwas modifiziert wird: - Grundlagen von Web Informationssystemen (Protokolle, Technologien, Standards) - Web Information Retrieval, WebMining und Farming - Informationsmanagement unter WebBedingungen - Mensch-Maschine Interaktion unter Web-Bedingungen (hier "HumanMedia Engineering" S. XII) Eine grobe Einteilung wie diese ist zwar übersichtlich, führt aber zwangsläufig zu Ouerschnittsthemen. In diesem Fall zählt dazu das Semantic Web, an dem momentan sehr intensiv geforscht wird. Das Semantic Web will das Unbehagen mit der Anarchie im Netz und daraus folgenden Problemen für die Suchmaschinen überwinden, indem das gesamte Wissen im Web auch explizit als solches gekennzeichnet wird. Tauchen auf einer WebSeite zwei Namen auf und einer ist der des Autors und der andere der eines Sponsors, so erlauben neue Technologien, diese auch als solche zu bezeichnen. Noch wichtiger, wie in einer Datenbank sollen nun Abfragen möglich sein, welche andere Seiten aus dem Web liefen, die z.B. den gleichen Sponsor, aber einen anderen Autor haben. Dieser Thematik widmen sich etwa Hendler & Feigenbaum. Das Semantic Web stellt ein Ouerschnittsthema dar, da dafür neue Technologien (Mizoguchi) und ein neuartiges Informationsmanagement erforderlich sind (z.B. Stuckenschmidt & van Harmelen), die Suchverfahren angepasst werden und natürlich auch auf die Benutzer neue Herausforderungen zukommen. Diesem Aspekt, inwieweit Benutzer solche Anfragen überhaupt stellen werden, widmet sich in diesem Band übrigens niemand ernsthaft. Im Folgenden sollen die einzelnen Themengebiete anhand der im Band enthaltenen Inhalte näher bestimmt werden, bevor abschließend der Versuch eines Resümees erfolgt.
    - Grundlagen von Web Informationssystemen Protokolle, Technologien und Standards existieren inzwischen mannigfaltig und lediglich für spezifische Anwendungen entstehen weitere Grundlagen. In dem vorliegenden Band gibt es etwa ein Datenmodell für XML-Datenbanken (Wuwongse et al.) und den Vorschlag einer 3DModellierung (Hwang, Lee & Hwang). Auch für Proxy-Server werden neue Algorithmen entwickelt (Aguilar & Leiss). - Web Information Retrieval, WebMining und Farming Neben klassischen Themen des Information Retrieval wie kontrolliertem Vokabular (Sim & Wong), Ranking (Wang & Maguire), Kategorisierung (Loia & Luongo) und Term-Erweiterung (Huang, Oyang & Chien) stehen auch typische Web Information Retrieval Themen. Multimedia Retrieval spielt eine wichtige Rolle im Web und dazu gibt es Beiträge zu Audio (Wieczorkowska & Ra- Wan, Liu & Wang) und Grafiken (Fukumoto & Cho, Hwang, Lee & Hwang). Das Hype-Thema Link-Analyse schlägt auch gleich den Bogen hin zum Web-Mining, ist mit fünf Beiträgen aber eher unterrepräsentiert. Link-Analyse stellt die Frage, was sich aus den inzwischen wohl über zehn Milliarden Links im Internet folgern lässt. So extrahieren zwei Beiträge die zeitliche Veränderung sozialer Strukturen in Web Communities. Matsumura et al. untersuchen, ob Außenseiter sich auch für die innerhalb einer Community diskutierten Themen interessieren und werten dies als Maß für die Verbreitung des Themas. Bun & Ishizuka interessieren sich nur für die Änderungen innerhalb einer Gruppe von thematisch zusammengehörigen Web-Abgeboten und analysieren in diesem Korpus die wichtigsten Sätze, die neu entstehende Themen am besten repräsentieren. Andere Mining-Beiträge befassen sich mit der Erstellung von Sprachressourcen (Chau & Yeh). - Informationsmanagement unter WebBedingungen Für das Informationsmanagement gelten Ontologien zur Beschreibung des vorhandenen Wissens als wichtiges Instrument und dementsprechend ist "Ontologie" auch ein Kandidat für das höchst-frequente Wort in dem Tagungsband.
    Einen weiteren wichtigen Aspekt stellt nach wie vor E-Learning dar, das u.a. neue Anforderungen an die Erstellung und Verwaltung von Lernmodulen (Forcheri et al.) und die Zusammenarbeit von Lehrern und Schülern stellt (Hazeyama et al., Liu et al.). - Mensch-Maschine Interaktion unter Web-Bedingungen Benutzermodellierung (Estivill-Castro & Yang, Lee, Sung & Cho) hat mit der Popularität des Internet eine neue Dimension gewonnen und ist besonders im kommerziellen Umfeld sehr interessant. Eine Wissensquelle hierfür und für andere Anwendungen sind Log-Files (Yang et al.). Breiten Raum nehmen die Visualisierungen ein, die häufig für spezielle Benutzergruppen gedacht sind, wie etwa Data Mining Spezialisten (Han & Cercone) und Soziologen, die sich mit Web-Communities befassen (Sumi & Mase). Agenten (Lee) und Assistenten (Molina) als neue Formen der Interaktion treten nicht zuletzt für E-Commerce Anwendungen in Erscheinung. In diesem Kontext der Mensch-Medien-Beziehung soll das Ouerschnittsthema WebCommunities genannt werden, in dem die sozialen Aspekte der Kooperation (Hazeyama et al.) ebenso wie das Entdecken von Gruppenstrukturen (Bun & Ishizuka) untersucht werden. Dagegen kommen kaum empirische Evaluierungen vor, die belegen könnten, wie intelligent denn die Systeme nun sind. Worin liegt nun der Kern der Web Intelligence? Der Aspekt Web Mining befasst sich mit der Extraktion von Wissen aus dem riesigen Reservoir Internet während der Aspekt Web-Informationssysteme den Einsatz so genannter intelligenter Technologien in Informationssystemen im Internet behandelt. Da jedoch das Spektrum der eingesetzten Informationssysteme praktisch beliebig ist und auch die Auswahl der intelligenten Technologien keinen spezifischen Fokus erkennen lässt, stellt Web Intelligence momentan eher einen bunten Strauß dar als ein klar abgegrenztes Feld. Das Web taugt inzwischen kaum mehr zur Abgrenzung von Technologien. Die Beiträge sind stärker von den Communities der Autoren geprägt als von der Web Intelligence Community, die vielleicht noch gar nicht existiert. Wenn doch, so befindet sie sich in einem frühen Stadium, in dem sich wenig Gemeinsamkeiten zwischen den Arbeiten erkennen lassen. Allerdings macht die mangelnde Kohärenz die einzelnen Beiträge keineswegs uninteressant. Dieser Meinung sind offensichtlich auch die 57 Mitglieder des Programmkomitees der Tagung, unter denen auch drei deutsche Wissenschaftler sind. Denn für 2003 ist eine weitere Tagung geplant (http://www.comp.hkbu. edu.hk/WIo3/)."
  14. Farkas, M.G.: Social software in libraries : building collaboration, communication, and community online (2007) 0.05
    0.048975654 = product of:
      0.22855306 = sum of:
        0.032025687 = weight(_text_:web in 2364) [ClassicSimilarity], result of:
          0.032025687 = score(doc=2364,freq=4.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.3059541 = fieldWeight in 2364, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2364)
        0.123497315 = weight(_text_:log in 2364) [ClassicSimilarity], result of:
          0.123497315 = score(doc=2364,freq=4.0), product of:
            0.205552 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0320743 = queryNorm
            0.60080814 = fieldWeight in 2364, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.046875 = fieldNorm(doc=2364)
        0.073030055 = product of:
          0.14606011 = sum of:
            0.14606011 = weight(_text_:wiki in 2364) [ClassicSimilarity], result of:
              0.14606011 = score(doc=2364,freq=4.0), product of:
                0.22354181 = queryWeight, product of:
                  6.9694996 = idf(docFreq=112, maxDocs=44218)
                  0.0320743 = queryNorm
                0.6533906 = fieldWeight in 2364, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.9694996 = idf(docFreq=112, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2364)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    RSWK
    Bibliothek / Wiki
    Bibliothek / Web log
    Subject
    Bibliothek / Wiki
    Bibliothek / Web log
  15. Semantic Media Wiki : Autoren sollen Wiki-Inhalte erschließen (2006) 0.05
    0.048215233 = product of:
      0.16875331 = sum of:
        0.025152026 = weight(_text_:open in 6027) [ClassicSimilarity], result of:
          0.025152026 = score(doc=6027,freq=2.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.17413835 = fieldWeight in 6027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6027)
        0.030483479 = weight(_text_:source in 6027) [ClassicSimilarity], result of:
          0.030483479 = score(doc=6027,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.19170798 = fieldWeight in 6027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6027)
        0.013209922 = weight(_text_:web in 6027) [ClassicSimilarity], result of:
          0.013209922 = score(doc=6027,freq=2.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.12619963 = fieldWeight in 6027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6027)
        0.09990788 = product of:
          0.19981577 = sum of:
            0.19981577 = weight(_text_:wiki in 6027) [ClassicSimilarity], result of:
              0.19981577 = score(doc=6027,freq=22.0), product of:
                0.22354181 = queryWeight, product of:
                  6.9694996 = idf(docFreq=112, maxDocs=44218)
                  0.0320743 = queryNorm
                0.8938631 = fieldWeight in 6027, product of:
                  4.690416 = tf(freq=22.0), with freq of:
                    22.0 = termFreq=22.0
                  6.9694996 = idf(docFreq=112, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=6027)
          0.5 = coord(1/2)
      0.2857143 = coord(4/14)
    
    Content
    "Mit einer semantischen Erweiterung der Software MediaWiki ist es dem Forschungsteam Wissensmanagement des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe (TH) gelungen, das Interesse der internationalen Fachwelt auf sich zu ziehen. Die jungen Forscher Denny Vrandecic und Markus Krötzsch aus dem Team von Professor Dr. Rudi Studer machen die Inhalte von Websites, die mit MediaWiki geschrieben sind, für Maschinen besser auswertbar. Ihr Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die Wiki-Autoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Wiki-PlugIn-Software "Semantic MediaWiki" eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt - und ernten für diese Idee viel Beifall. Semantic MediaWiki wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte (URLs siehe Kasten). Nun testen die Karlsruher Forscher, ob ihr Programm auch den gigantischen Volumenanforderungen der freien Web-Enzyklopädie Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. Semantic MediaWiki steht als Open Source Software (PHP) auf der Website Sourceforge zur Verfügung. Semantic MediaWiki ist ein relativ einfach zu bedienendes Werkzeug, welches auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise (Links), die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, bei der Eingabe als Link eines bestimmten Typs kennzeichnen (typed links) und Zahlenangaben und Fakten im Text als Attribute (attributes) markieren. Bei dem Eintrag zu "Ägypten" steht dann zum Bespiel der typisierte Link "[[ist Land von::Afrika]]" / "[[is country of::africa]]", ein Attribut könnte "[[Bevölkerung:=76,000,000]]" / "[[population:=76,000,000]]" sein. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Dreier-Bezugsgruppen (Triple) abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Die Autoren können die Relationen zur Definition der Beziehungen zwischen den verlinkten Begriffen frei wählen, z.B. "ist ...von' / "is...of", "hat..." /"has ...". Eingeführte Relationen stehen als "bisher genutzte Relationen" den anderen Schreibern für deren Textindexierung zur Verfügung.
    Aus den so festgelegten Beziehungen zwischen den verlinkten Begriffen sollen Computer automatisch sinnvolle Antworten auf komplexere Anfragen generieren können; z.B. eine Liste erzeugen, in der alle Länder von Afrika aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen - dem Artikel zum Land, für das man sich interessiert. Aus informationswissenschaftlicher Sicht ist das Informationsergebnis, das die neue Technologie produziert, relativ simpel. Aus sozialwissenschaftlicher Sicht steckt darin aber ein riesiges Potential zur Verbesserung der Bereitstellung von enzyklopädischer Information und Wissen für Menschen auf der ganzen Welt. Spannend ist auch die durch Semantic MediaWiki gegebene Möglichkeit der automatischen Zusammenführung von Informationen, die in den verschiedenen Wiki-Einträgen verteilt sind, bei einer hohen Konsistenz der Ergebnisse. Durch die feststehenden Beziehungen zwischen den Links enthält die automatisch erzeugte Liste nach Angaben der Karlsruher Forscher immer die gleichen Daten, egal, von welcher Seite aus man sie abruft. Die Suchmaschine holt sich die Bevölkerungszahl von Ägypten immer vom festgelegten Ägypten-Eintrag, so dass keine unterschiedlichen Zahlen in der Wiki-Landschaft kursieren können. Ein mit Semantic MediaWiki erstellter Testeintrag zu Deutschland kann unter http://ontoworld.org/index.php/Germany eingesehen werden. Die Faktenbox im unteren Teil des Eintrags zeigt an, was der "Eintrag" der Suchmaschine an Wissen über Deutschland anbieten kann. Diese Ergebnisse werden auch in dem Datenbeschreibungsstandard RDF angeboten. Mehr als das, was in der Faktenbox steht, kann der Eintrag nicht an die Suchmaschine abgeben."
    Footnote
    Vgl. auch die Links: http://ontoworld.org/wiki/Semantic_MediaWiki (Projektbeschreibung); http://sourceforge.net/projects/semediawiki (Download); http://bible.tmtm.com/Wiki/Main_Page (Beispiel: The Bible Wiki); www.wikiscuba.com/wiki/index.php/Main_Page (Beispiel: Tauchen); http://wiki.eswc2006.org/index.php/Main_Page
  16. Wusteman, J.: Patently ridiculous (2004) 0.05
    0.046462297 = product of:
      0.21682405 = sum of:
        0.086235516 = weight(_text_:open in 2847) [ClassicSimilarity], result of:
          0.086235516 = score(doc=2847,freq=2.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.5970458 = fieldWeight in 2847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.09375 = fieldNorm(doc=2847)
        0.104514785 = weight(_text_:source in 2847) [ClassicSimilarity], result of:
          0.104514785 = score(doc=2847,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.6572845 = fieldWeight in 2847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.09375 = fieldNorm(doc=2847)
        0.026073748 = product of:
          0.052147496 = sum of:
            0.052147496 = weight(_text_:22 in 2847) [ClassicSimilarity], result of:
              0.052147496 = score(doc=2847,freq=2.0), product of:
                0.11231873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0320743 = queryNorm
                0.46428138 = fieldWeight in 2847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2847)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Abstract
    The Open Source Software movement has much to offer the library community. But can it survive the onslaught of patent applications?
    Source
    Library hi tech. 22(2004) no.2, S.231-237
  17. Ozmutlu, H.C.; Cavdur, F.; Ozmutlu, S.: Cross-validation of neural network applications for automatic new topic identification (2008) 0.05
    0.04538342 = product of:
      0.2117893 = sum of:
        0.04354783 = weight(_text_:source in 1364) [ClassicSimilarity], result of:
          0.04354783 = score(doc=1364,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.27386856 = fieldWeight in 1364, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1364)
        0.042197548 = weight(_text_:web in 1364) [ClassicSimilarity], result of:
          0.042197548 = score(doc=1364,freq=10.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.40312994 = fieldWeight in 1364, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1364)
        0.12604392 = weight(_text_:log in 1364) [ClassicSimilarity], result of:
          0.12604392 = score(doc=1364,freq=6.0), product of:
            0.205552 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0320743 = queryNorm
            0.61319727 = fieldWeight in 1364, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1364)
      0.21428572 = coord(3/14)
    
    Abstract
    The purpose of this study is to provide results from experiments designed to investigate the cross-validation of an artificial neural network application to automatically identify topic changes in Web search engine user sessions by using data logs of different Web search engines for training and testing the neural network. Sample data logs from the FAST and Excite search engines are used in this study. The results of the study show that identification of topic shifts and continuations on a particular Web search engine user session can be achieved with neural networks that are trained on a different Web search engine data log. Although FAST and Excite search engine users differ with respect to some user characteristics (e.g., number of queries per session, number of topics per session), the results of this study demonstrate that both search engine users display similar characteristics as they shift from one topic to another during a single search session. The key finding of this study is that a neural network that is trained on a selected data log could be universal; that is, it can be applicable on all Web search engine transaction logs regardless of the source of the training data log.
  18. Beccaria, M.; Scott, D.: Fac-Back-OPAC : an open source interface to your library system (2007) 0.04
    0.044557877 = product of:
      0.20793675 = sum of:
        0.08712918 = weight(_text_:open in 2207) [ClassicSimilarity], result of:
          0.08712918 = score(doc=2207,freq=6.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.603233 = fieldWeight in 2207, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2207)
        0.10559788 = weight(_text_:source in 2207) [ClassicSimilarity], result of:
          0.10559788 = score(doc=2207,freq=6.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.664096 = fieldWeight in 2207, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2207)
        0.015209687 = product of:
          0.030419374 = sum of:
            0.030419374 = weight(_text_:22 in 2207) [ClassicSimilarity], result of:
              0.030419374 = score(doc=2207,freq=2.0), product of:
                0.11231873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0320743 = queryNorm
                0.2708308 = fieldWeight in 2207, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2207)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Abstract
    Fac-Back-OPAC is a faceted back­ up OPAC. This advanced catalog offers features that compare favorably with the traditional catalogs for today's library systems. Fac-Back-OPAC represents the convergence of two prominent trends in library tools: the decoupling of discovery tools from the traditional integrated library system and the use of readily available open source components to rapidly produce leading-edge technology for meeting patron and library needs. Built on code that was originally developed by Casey Durfee in February 2007, Fac-Back-OPAC is available for no cost under an open source license to any library that wants to offer an advanced search interface or a backup catalog for its patrons.
    Date
    17. 8.2008 11:22:47
  19. BOND: Assoziativ-OPAC SpiderSearch (2003) 0.04
    0.043596435 = product of:
      0.20345002 = sum of:
        0.055509515 = weight(_text_:medien in 1795) [ClassicSimilarity], result of:
          0.055509515 = score(doc=1795,freq=4.0), product of:
            0.15096188 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0320743 = queryNorm
            0.36770552 = fieldWeight in 1795, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
        0.11525443 = weight(_text_:benutzer in 1795) [ClassicSimilarity], result of:
          0.11525443 = score(doc=1795,freq=8.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.63009024 = fieldWeight in 1795, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
        0.03268608 = weight(_text_:web in 1795) [ClassicSimilarity], result of:
          0.03268608 = score(doc=1795,freq=6.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.3122631 = fieldWeight in 1795, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
      0.21428572 = coord(3/14)
    
    Abstract
    Der Hersteller von Bibliothekssoftware BOND erweitert sein Produktangebot um eine innovative Neuheit, den Assoziativ-OPAC SpiderSearch. Dieser graphische Web-OPAC sucht zu einem Stichwort Assoziative, d.h. sinn- oder sprachwissenschaftlich verwandte Begriffe. Diese baut er spinnennetzartig um den zentralen Suchbegriff herum auf. Anhand der ihm angebotenen Assoziative kann sich der Leser sehr einfach und anschaulich durch den Medienbestand der Bibliothek klicken. So findet er schnell und komfortabel relevante Medien, die mit herkömmlichen Suchverfahren nur schwer recherchierbar wären. Mühsame Überlegungen über verwandte Suchbegriffe und angrenzende Themengebiete bleiben dem Benutzer erspart. Dies übernimmt SpiderSearch und navigiert den Benutzer ähnlich wie beim Surfen durch Webseiten durch sämtliche Themen, die mit dem Suchbegriff in Zusammenhang stehen. Auch aufwändiges Durchblättern einer riesigen Suchergebnisliste ist nicht nötig. Durch die im semantischen Netz vorgeschlagenen Begriffe, kann der Benutzer sein Thema genau eingrenzen und erhält in seiner Trefferliste nur passende Medien. Diese ordnet SpiderSearch nach ihrer Relevanz, so dass der Leser die benötigte Literatur einfach und komfortabel findet. Wie auch im normalen Web-OPAC enthält die Trefferliste Angaben zu Titel, Standort und Verfügbarkeit des Mediums. Zur einfachen Zuordnung der Medienart ist jedem Medium ein entsprechendes Symbol zugewiesen. Per Mausklick erhält der Benutzer Detailangaben zum Medium und optional eine Ansicht des Buchcovers. SpiderSearch ist ein Zusatzmodul zur Software BIBLIOTHECA2000 von BOND und setzt auf den Web-OPAL auf. Vor allem bei Öffentlichen Bibliotheken stößt SpiderSearch auf großes Interesse. Erste Anwender bieten Ihren Lesern bereits dieses neue Sucherlebnis.
  20. AssoziativOPAC : SpiderSearch von BOND (2003) 0.04
    0.043596435 = product of:
      0.20345002 = sum of:
        0.055509515 = weight(_text_:medien in 2029) [ClassicSimilarity], result of:
          0.055509515 = score(doc=2029,freq=4.0), product of:
            0.15096188 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0320743 = queryNorm
            0.36770552 = fieldWeight in 2029, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.11525443 = weight(_text_:benutzer in 2029) [ClassicSimilarity], result of:
          0.11525443 = score(doc=2029,freq=8.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.63009024 = fieldWeight in 2029, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.03268608 = weight(_text_:web in 2029) [ClassicSimilarity], result of:
          0.03268608 = score(doc=2029,freq=6.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.3122631 = fieldWeight in 2029, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
      0.21428572 = coord(3/14)
    
    Content
    "Der Hersteller von Bibliothekssoftware BOND erweitert sein Produktangebot um den Assoziativ-OPAC SpiderSearch. Dieser graphische Web-OPAC sucht zu einem Stichwort Assoziative, d.h. sinnoder sprachwissenschaftlich verwandte Begriffe. Diese baut er spinnennetzartig um den zentralen Suchbegriff herum auf. Anhand der ihm angebotenen Assoziative kann sich der Leser sehr einfach und anschaulich durch den Medienbestand der Bibliothek klicken. So findet er schnell und komfortabel relevante Medien, die mit herkömmlichen Suchverfahren nur schwer recherchierbar wären. Überlegungen über verwandte Suchbegriffe und angrenzende Themengebiete bleiben dem Benutzer erspart: SpiderSearch navigiert den Benutzer ähnlich wie beim Surfen durch Webseiten durch sämtliche Themen, die mit dem Suchbegriff in Zusammenhang stehen. Auch aufwändiges Durchblättern einer riesigen Suchergebnisliste ist nicht nötig. Durch die im semantischen Netz vorgeschlagenen Begriffe kann der Benutzer sein Thema genau eingrenzen und erhält in seiner Trefferliste nur passende Medien. Diese ordnet SpiderSearch nach ihrer Relevanz, so dass der Leser die benötigte Literatur einfach und komfortabel findet. Wie auch im normalen Web-OPAC enthält die Trefferliste Angaben zu Titel, Standort und Verfügbarkeit des Mediums. Zur einfachen Zuordnung der Medienart ist jedem Medium ein entsprechendes Symbol zugewiesen. Per Mausklick erhält der Benutzer Detailangaben zum Medium und optional eine Ansicht des Buchcovers. SpiderSearch ist ein Zusatzmodul zur Software BIBLIOTHECA2000 von BOND und setzt auf den Web-OPAC auf."

Languages

Types

  • a 3393
  • m 533
  • el 315
  • s 182
  • x 84
  • b 32
  • i 27
  • r 20
  • n 14
  • p 2
  • More… Less…

Themes

Subjects

Classifications