Search (4 results, page 1 of 1)

  • × author_ss:"Kramer, A."
  1. Kramer, A.: Datendetektive : Volltextsuchmaschinen trotzen dem Chaos auf der Festplatte (2004) 0.00
    9.850342E-4 = product of:
      0.0019700683 = sum of:
        0.0019700683 = product of:
          0.0039401366 = sum of:
            0.0039401366 = weight(_text_:s in 2825) [ClassicSimilarity], result of:
              0.0039401366 = score(doc=2825,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.09609913 = fieldWeight in 2825, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2825)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    c't. 2004, H.14, S.182-189
  2. Kramer, A.: Such, Programm! : Elf kostenlose Desktop-Tools schnüffeln um die Wette (2005) 0.00
    9.850342E-4 = product of:
      0.0019700683 = sum of:
        0.0019700683 = product of:
          0.0039401366 = sum of:
            0.0039401366 = weight(_text_:s in 4560) [ClassicSimilarity], result of:
              0.0039401366 = score(doc=4560,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.09609913 = fieldWeight in 4560, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4560)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    c't. 2005, H.13, S.170-177
  3. Kramer, A.: Herrscher über das Chaos : Strategien, um im Dokumentenwust den Überblick zu wahren (2006) 0.00
    9.850342E-4 = product of:
      0.0019700683 = sum of:
        0.0019700683 = product of:
          0.0039401366 = sum of:
            0.0039401366 = weight(_text_:s in 181) [ClassicSimilarity], result of:
              0.0039401366 = score(doc=181,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.09609913 = fieldWeight in 181, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.0625 = fieldNorm(doc=181)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    c't. 2006, H.9, S.178-182
  4. Kramer, A.: Falsche Fuffziger : Textplagiaten per Software auf der Spur (2004) 0.00
    7.387756E-4 = product of:
      0.0014775512 = sum of:
        0.0014775512 = product of:
          0.0029551024 = sum of:
            0.0029551024 = weight(_text_:s in 3030) [ClassicSimilarity], result of:
              0.0029551024 = score(doc=3030,freq=8.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.072074346 = fieldWeight in 3030, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3030)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Wie Plagiatsuche funktioniert Algorithmen zum Aufspüren von Plagiaten gibt es seit den 70er Jahren, damals wurden sie entwickelt, um Programmcode nach geklauten Passagen zu durchsuchen. Sie waren anfangs relativ einfach gestrickt, weil sich auch die Täter nicht viel mehr Mühe machten, als lediglich white- in for-Schleifen zu ändern, Variablen auszutauschen oder Kommentare zu löschen beziehungsweise hinzuzufügen. Ansätze zum Auffinden von Plagiaten in natürlichsprachlichen Texten sind weitaus aufwendiger. Sie werten unter anderem die Schnittmenge gemeinsamer Satzbausteine (n-Gramme), die längste gemeinsame Textsequenz, ungefähr übereinstimmende Passagen oder den Anteil gemeinsamer Inhaltswörter aus. Scriptum, PI@giarism und vermutlich noch weitere Programme fahnden mit Hilfe von n-Gramm-Statistiken nach gemeinsamen Wortketten. Das Verfahren wertet Wortfolgen der Länge n aus, Satzzeichen und typografische Informationen wie Überschriften oder Fettdruck verwirft es. Die meisten Ansätze verwenden Dreiwortfolgen, so genannte Trigramme. Das auf eine Wortkette reduzierte Dokument wird in überlappende Folgen aus jeweils drei Wörtern eingeteilt {'Vor diesem Hintergrund', 'diesem Hintergrund verzichteten', 'Hintergrund verzichteten die', 'verzichteten die Grünen', ...}. Zur Berechnung der Ähnlichkeit werden die Trigramm-Sets S von Dokument A und Dokument B miteinander verglichen. Die Schnittmenge von S(A) und S(B), geteilt durch deren Vereinigungsmenge, zeigt an, inwieweit die Texte übereinstimmen. Neben diesem so genannten Jaccard-Koeffizienten existieren weitere Berechnungsmethoden und Abweichungen von diesem Modell.
    Source
    c't. 2004, H.21, S.176-181