Search (39 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Computerlinguistik"
  • × type_ss:"a"
  1. Geißler, S.: Maschinelles Lernen und NLP : Reif für die industrielle Anwendung! (2019) 0.04
    0.04189464 = product of:
      0.08378928 = sum of:
        0.077667296 = weight(_text_:lernen in 3547) [ClassicSimilarity], result of:
          0.077667296 = score(doc=3547,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.37145096 = fieldWeight in 3547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.046875 = fieldNorm(doc=3547)
        0.006121984 = product of:
          0.03060992 = sum of:
            0.03060992 = weight(_text_:29 in 3547) [ClassicSimilarity], result of:
              0.03060992 = score(doc=3547,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.23319192 = fieldWeight in 3547, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3547)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Date
    2. 9.2019 19:29:24
  2. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.02
    0.024422478 = product of:
      0.048844956 = sum of:
        0.045305923 = weight(_text_:lernen in 5759) [ClassicSimilarity], result of:
          0.045305923 = score(doc=5759,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.21667974 = fieldWeight in 5759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.0035390325 = product of:
          0.017695162 = sum of:
            0.017695162 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
              0.017695162 = score(doc=5759,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.1354154 = fieldWeight in 5759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5759)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Abstract
    Computer müssen lernen, die Sprache des Menschen zu verstehen. Forscher an der Uni Duisburg haben eine Methode entwickelt, mit der ein Rechner Informationen aus Radiobeiträgen herausfiltern kann.
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22
  3. Kiss, T.: Anmerkungen zur scheinbaren Konkurrenz von numerischen und symbolischen Verfahren in der Computerlinguistik (2002) 0.01
    0.012944549 = product of:
      0.051778197 = sum of:
        0.051778197 = weight(_text_:lernen in 1752) [ClassicSimilarity], result of:
          0.051778197 = score(doc=1752,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.24763398 = fieldWeight in 1752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03125 = fieldNorm(doc=1752)
      0.25 = coord(1/4)
    
    Abstract
    Man kann wohl abschließend festhalten, dass von einer Überlegenheit statistischer Verfahren zumindest im Bereich des Tagging eigentlich nicht gesprochen werden sollte. Darüber hinaus muss die Opposition zwischen regelbasierten und numerischen Verfahren hier aufgeweicht werden, denn auch die statistischen Verfahren verwenden Regelsysteme. Selbst beim Lernen ohne Referenzkorpus ist ja zumindest eine Zuordnung der Wörter zu einem Lexikon bzw. auch eine heuristische Erkennung unbekannter Wörter nach Regeln notwendig. Statistische Verfahren haben - und dies wurde hier wahrscheinlich nicht ausreichend betont - durchaus ihre Berechtigung, sie sind nützlich; sie gestatten, insbesondere im Vergleich zur Introspektion, eine unmittelbarere und breitere Heranführung an das Phänomen Sprache. Die vorhandenen umfangreichen elektronischen Korpora verlangen nahezu danach, Sprache auch mit statistischen Mitteln zu untersuchen. Allerdings können die statistischen Verfahren die regelbasierten Verfahren nicht ersetzen. Somit muss dem Diktum vom "Es geht nicht anders" deutlich widersprochen werden. Dass die statistischen Verfahren zur Zeit so en vogue sind und die regelbasierten Verfahren aussehen lassen wie eine alte Dallas-Folge, mag wohl auch daran liegen, dass zu viele Vertreter des alten Paradigmas nicht die Energie aufbringen, sich dem neuen Paradigma so weit zu öffnen, dass eine kritische Auseinandersetzung mit dem neuen auf der Basis des alten möglich wird. Die Mathematik ist eine geachtete, weil schwierige Wissenschaft, die statistische Sprachverarbeitung ist eine gefürchtete, weil in ihren Eigenschaften oftmals nicht gründlich genug betrachtete Disziplin.
  4. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2022) 0.01
    0.012944549 = product of:
      0.051778197 = sum of:
        0.051778197 = weight(_text_:lernen in 929) [ClassicSimilarity], result of:
          0.051778197 = score(doc=929,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.24763398 = fieldWeight in 929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03125 = fieldNorm(doc=929)
      0.25 = coord(1/4)
    
    Content
    "Seit dem 30. November 2022 ist meine Welt - und die vieler Bildungsexpertinnen und Bildungsexperten - gefühlt eine andere Welt, die uns in eine "Neuzeit" führt, von der wir noch nicht wissen, ob wir sie lieben oder fürchten sollen. Der Ableger und Prototyp ChatGPT des derzeit (zumindest in der westlichen Welt) führenden generativen KI-Sprachmodells GPT-3 von OpenAI wurde am 30. November veröffentlicht und ist seit dieser Zeit für jeden frei zugänglich und kostenlos. Was zunächst als unspektakuläre Ankündigung von OpenAI anmutete, nämlich das seit 2020 bereits verfügbare KI-Sprachmodell GPT-3 nun in leicht modifizierter Version (GPT-3,5) als Chat-Variante für die Echtzeit-Kommunikation bereitzustellen, entpuppt sich in der Anwendung - aus Sicht der Nutzerinnen und Nutzer - als Meilenstein der KI-Entwicklung. Fakt ist, dass die Leistungsvielfalt und -stärke von ChatGPT selbst IT-Expertinnen und -Experten überrascht hat und sie zu einer Fülle von Superlativen in der Bewertung veranlasst, jedoch immer in Kombination mit Hinweisen zur fehlenden Faktentreue und Verlässlichkeit derartiger generativer KI-Modelle. Mit WebGPT von OpenAI steht aber bereits ein Forschungsprototyp bereit, der mit integrierter Internetsuchfunktion die "Halluzinationen" aktueller GPT-Varianten ausmerzen könnte. Für den Bildungssektor stellt sich die Frage, wie sich das Lehren und Lernen an Hochschulen (und nicht nur dort) verändern wird, wenn derartige KI-Werkzeuge omnipräsent sind und mit ihrer Hilfe nicht nur die Hausarbeit "per Knopfdruck" erstellt werden kann. Beeindruckend ist zudem die fachliche Bandbreite von ChatGPT, siehe den Tweet von @davidtsong, der ChatGPT dem Studierfähigkeitstest SAT unterzogen hat."
  5. Koch, C.: ¬Die Schreibmaschine : Die SMS-Worterkennung T9 soll unser Leben erleichtern - das gelingt ihr nicht immer (2005) 0.01
    0.011326481 = product of:
      0.045305923 = sum of:
        0.045305923 = weight(_text_:lernen in 4098) [ClassicSimilarity], result of:
          0.045305923 = score(doc=4098,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.21667974 = fieldWeight in 4098, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4098)
      0.25 = coord(1/4)
    
    Content
    Manche Rechtschreibfehler lassen die Programmierer absichtlich drin - schließlich ist ein SMS-Schreiber frustriert, wenn das Programm ein Wort hartnäckig verweigert, von dem er fest glaubt, dass es existieren müsse. So kommt es, dass T9 sogar ein Wort »Rhytmuß« kennt. »Andere Wörter ergänzen wir, Imperative zum Beispiel wie :gib9 oder :nimm9. Die kommen in gedruckten Texten nur selten vor, in Kurzmitteilungen dafür ziemlich oft«, sagt Lisa Nathan. Aber wie kommt es, dass die Worterkennung zwar den Nazi-Jargon von Hitler bis Euthanasie im Programm hat, Wörter, die den Sex beschreiben oder das Einnehmen von Drogen, häufig aber nicht erkennt und die üblichsten Flüche einfach fehlen? »Wir zensieren nicht«, sagt Lisa Nathan. »in unserer Datenbank stehen alle Wörter - sofern sie häufig genug vorkommen. Aber fast alle Handyhersteller lassen Schimpfwörter und Wörter mit sexueller Bedeutung ausblenden.« Der Nazi-Jargon scheint niemand zu stören. Weil Flüche, Spitznamen oder nette Abkürzungen im Programm fehlen, ist T9 neuerdings lernfähig geworden: Wer Wörter vermisst, kann sie der Worterkennung beibringen. Die neuesten Handys lernen sogar automatisch, indem sie die eingehenden SMS nach neuen Wörtern durchsuchen. Am meisten Zeit spart man durch die Funktionen »Wortkomplettierung« oder »Wortvorhersage«, die nicht nur vorschlagen, wie das angefangene Wort enden könnte, sondern auch, welches wohl als nächstes kommt. »Ich bin kein sehr pünktlicher Mensch«, gesteht Lisa Nathan, »und wenn ich das Wort :komme9 tippe, schlägt mir T9 automatisch :etwas später9 als folgende Wörter vor.« Das kann sehr praktisch sein - aber auch sehr nervig. Denn wer will schon ständig an den Namen der Exfreundin Natalie erinnert werden, wenn er nur »nat« für »natürlich« eingegeben hat?"
  6. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.007242508 = product of:
      0.028970033 = sum of:
        0.028970033 = product of:
          0.07242508 = sum of:
            0.03703476 = weight(_text_:28 in 4184) [ClassicSimilarity], result of:
              0.03703476 = score(doc=4184,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.27705154 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
            0.035390325 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.035390325 = score(doc=4184,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.4 = coord(2/5)
      0.25 = coord(1/4)
    
    Date
    22. 1.2011 10:38:28
  7. Albrecht, I.: GPT-3: die Zukunft studentischer Hausarbeiten oder eine Bedrohung der wissenschaftlichen Integrität? (2023) 0.01
    0.0062353997 = product of:
      0.024941599 = sum of:
        0.024941599 = product of:
          0.062354 = sum of:
            0.031744078 = weight(_text_:28 in 881) [ClassicSimilarity], result of:
              0.031744078 = score(doc=881,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.23747274 = fieldWeight in 881, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=881)
            0.03060992 = weight(_text_:29 in 881) [ClassicSimilarity], result of:
              0.03060992 = score(doc=881,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.23319192 = fieldWeight in 881, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=881)
          0.4 = coord(2/5)
      0.25 = coord(1/4)
    
    Date
    28. 1.2022 11:05:29
  8. Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974) 0.01
    0.0050503793 = product of:
      0.020201517 = sum of:
        0.020201517 = product of:
          0.10100759 = sum of:
            0.10100759 = weight(_text_:29 in 4251) [ClassicSimilarity], result of:
              0.10100759 = score(doc=4251,freq=4.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.7694941 = fieldWeight in 4251, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    29. 1.2011 14:56:29
  9. Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023) 0.00
    0.0044181617 = product of:
      0.017672647 = sum of:
        0.017672647 = product of:
          0.08836323 = sum of:
            0.08836323 = weight(_text_:29 in 925) [ClassicSimilarity], result of:
              0.08836323 = score(doc=925,freq=6.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.6731671 = fieldWeight in 925, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=925)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    29. 3.2023 13:23:26
    29. 3.2023 13:29:19
  10. Rapp, R.: Text-Detektor : Fehlertolerantes Retrieval ganz einfach (1997) 0.00
    0.004232544 = product of:
      0.016930176 = sum of:
        0.016930176 = product of:
          0.08465088 = sum of:
            0.08465088 = weight(_text_:28 in 3918) [ClassicSimilarity], result of:
              0.08465088 = score(doc=3918,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.63326067 = fieldWeight in 3918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.125 = fieldNorm(doc=3918)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    4.11.1998 14:28:10
  11. Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993) 0.00
    0.004081323 = product of:
      0.016325291 = sum of:
        0.016325291 = product of:
          0.08162645 = sum of:
            0.08162645 = weight(_text_:29 in 2140) [ClassicSimilarity], result of:
              0.08162645 = score(doc=2140,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.6218451 = fieldWeight in 2140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2140)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    4.11.1998 14:30:29
  12. Krause, J.: Principles of content analysis for information retrieval systems : an overview (1996) 0.00
    0.0037034762 = product of:
      0.014813905 = sum of:
        0.014813905 = product of:
          0.07406952 = sum of:
            0.07406952 = weight(_text_:28 in 5270) [ClassicSimilarity], result of:
              0.07406952 = score(doc=5270,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.5541031 = fieldWeight in 5270, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5270)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    28. 9.1996 20:12:47
  13. Rolland, M.T.: Sachgebietsstandardisierung im Bereich der Informationswissenschaft (1996) 0.00
    0.0037034762 = product of:
      0.014813905 = sum of:
        0.014813905 = product of:
          0.07406952 = sum of:
            0.07406952 = weight(_text_:28 in 5271) [ClassicSimilarity], result of:
              0.07406952 = score(doc=5271,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.5541031 = fieldWeight in 5271, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5271)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    28. 9.1996 20:12:47
  14. Hahn, U.; Reimer, U.: Informationslinguistische Konzepte der Volltextverarbeitung in TOPIC (1983) 0.00
    0.003571157 = product of:
      0.014284628 = sum of:
        0.014284628 = product of:
          0.07142314 = sum of:
            0.07142314 = weight(_text_:29 in 450) [ClassicSimilarity], result of:
              0.07142314 = score(doc=450,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.5441145 = fieldWeight in 450, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=450)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Source
    Deutscher Dokumentartag 1982, Lübeck-Travemünde, 29.-30.9.1982: Fachinformation im Zeitalter der Informationsindustrie. Bearb.: H. Strohl-Goebel
  15. ¬Der Student aus dem Computer (2023) 0.00
    0.0035390325 = product of:
      0.01415613 = sum of:
        0.01415613 = product of:
          0.07078065 = sum of:
            0.07078065 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.07078065 = score(doc=1079,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.5416616 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1079)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    27. 1.2023 16:22:55
  16. Zue, V.: Dein Computer spricht mir dir (1999) 0.00
    0.003060992 = product of:
      0.012243968 = sum of:
        0.012243968 = product of:
          0.06121984 = sum of:
            0.06121984 = weight(_text_:29 in 4244) [ClassicSimilarity], result of:
              0.06121984 = score(doc=4244,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.46638384 = fieldWeight in 4244, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4244)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    31.12.1996 19:29:41
  17. Müller, P.: Text-Automat mit Tücken (2023) 0.00
    0.003060992 = product of:
      0.012243968 = sum of:
        0.012243968 = product of:
          0.06121984 = sum of:
            0.06121984 = weight(_text_:29 in 481) [ClassicSimilarity], result of:
              0.06121984 = score(doc=481,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.46638384 = fieldWeight in 481, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=481)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Source
    Pirmasenser Zeitung. Nr. 29 vom 03.02.2023, S.2
  18. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.00
    0.0030334564 = product of:
      0.012133826 = sum of:
        0.012133826 = product of:
          0.060669128 = sum of:
            0.060669128 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.060669128 = score(doc=5429,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Source
    c't. 2000, H.22, S.230-231
  19. Seelbach, H.E.: Von der Stichwortliste zum halbautomatisch kontrollierten Wortschatz (1977) 0.00
    0.00264534 = product of:
      0.01058136 = sum of:
        0.01058136 = product of:
          0.0529068 = sum of:
            0.0529068 = weight(_text_:28 in 8950) [ClassicSimilarity], result of:
              0.0529068 = score(doc=8950,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.39578792 = fieldWeight in 8950, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.078125 = fieldNorm(doc=8950)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Source
    Nachrichten für Dokumentation. 28(1977), S.159-164
  20. Stock, W.G.: Natürlichsprachige Suche - more like this! : Lexis-Nexis' Freestyle (1998) 0.00
    0.00264534 = product of:
      0.01058136 = sum of:
        0.01058136 = product of:
          0.0529068 = sum of:
            0.0529068 = weight(_text_:28 in 2523) [ClassicSimilarity], result of:
              0.0529068 = score(doc=2523,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.39578792 = fieldWeight in 2523, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2523)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Source
    Password. 1998, H.11, S.21-28