Search (52 results, page 1 of 3)

  • × theme_ss:"Computerlinguistik"
  • × language_ss:"d"
  1. Stock, W.G.: Natürlichsprachige Suche - more like this! : Lexis-Nexis' Freestyle (1998) 0.03
    0.028500326 = product of:
      0.08550098 = sum of:
        0.07576 = weight(_text_:suchmaschinen in 2523) [ClassicSimilarity], result of:
          0.07576 = score(doc=2523,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.49362388 = fieldWeight in 2523, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.078125 = fieldNorm(doc=2523)
        0.009740981 = product of:
          0.048704904 = sum of:
            0.048704904 = weight(_text_:28 in 2523) [ClassicSimilarity], result of:
              0.048704904 = score(doc=2523,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.39578792 = fieldWeight in 2523, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2523)
          0.2 = coord(1/5)
      0.33333334 = coord(2/6)
    
    Abstract
    Insbesondere durch die Suchmaschinen im Internet wurde die Aufmerksamkeit der Information Professionals auf Retrievalmöglichkeiten jenseits der Booleschen Operatoren gelenkt. Auch die kommerziellen Online-Archive entwickelten in den letzten Jahren natürlichsprachige Suchoptionen. Lexis-Nexis erhielt im Laufe des Jahres 1998 2 Patente für Module automatischer Indexierung erteilt.
    Source
    Password. 1998, H.11, S.21-28
  2. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.01
    0.012499763 = product of:
      0.07499857 = sum of:
        0.07499857 = weight(_text_:suchmaschinen in 5912) [ClassicSimilarity], result of:
          0.07499857 = score(doc=5912,freq=16.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.48866272 = fieldWeight in 5912, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
      0.16666667 = coord(1/6)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
    Theme
    Suchmaschinen
  3. Sünkler, S.; Kerkmann, F.; Schultheiß, S.: Ok Google . the end of search as we know it : sprachgesteuerte Websuche im Test (2018) 0.01
    0.008838667 = product of:
      0.053032 = sum of:
        0.053032 = weight(_text_:suchmaschinen in 5626) [ClassicSimilarity], result of:
          0.053032 = score(doc=5626,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.3455367 = fieldWeight in 5626, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5626)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  4. Weiß, E.-M.: ChatGPT soll es richten : Microsoft baut KI in Suchmaschine Bing ein (2023) 0.01
    0.008838667 = product of:
      0.053032 = sum of:
        0.053032 = weight(_text_:suchmaschinen in 866) [ClassicSimilarity], result of:
          0.053032 = score(doc=866,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.3455367 = fieldWeight in 866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0546875 = fieldNorm(doc=866)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  5. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.00
    0.0044448692 = product of:
      0.026669214 = sum of:
        0.026669214 = product of:
          0.06667303 = sum of:
            0.034093432 = weight(_text_:28 in 4184) [ClassicSimilarity], result of:
              0.034093432 = score(doc=4184,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.27705154 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
            0.0325796 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.0325796 = score(doc=4184,freq=2.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    22. 1.2011 10:38:28
  6. Albrecht, I.: GPT-3: die Zukunft studentischer Hausarbeiten oder eine Bedrohung der wissenschaftlichen Integrität? (2023) 0.00
    0.0038267868 = product of:
      0.02296072 = sum of:
        0.02296072 = product of:
          0.0574018 = sum of:
            0.02922294 = weight(_text_:28 in 881) [ClassicSimilarity], result of:
              0.02922294 = score(doc=881,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.23747274 = fieldWeight in 881, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=881)
            0.028178858 = weight(_text_:29 in 881) [ClassicSimilarity], result of:
              0.028178858 = score(doc=881,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.23319192 = fieldWeight in 881, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=881)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    28. 1.2022 11:05:29
  7. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.00
    0.003788 = product of:
      0.022728 = sum of:
        0.022728 = weight(_text_:suchmaschinen in 3385) [ClassicSimilarity], result of:
          0.022728 = score(doc=3385,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.14808716 = fieldWeight in 3385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
      0.16666667 = coord(1/6)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
  8. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.00
    0.0031749066 = product of:
      0.01904944 = sum of:
        0.01904944 = product of:
          0.047623597 = sum of:
            0.024352452 = weight(_text_:28 in 190) [ClassicSimilarity], result of:
              0.024352452 = score(doc=190,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19789396 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
            0.023271143 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.023271143 = score(doc=190,freq=2.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    14. 4.2007 10:04:22
  9. Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974) 0.00
    0.0030995165 = product of:
      0.018597098 = sum of:
        0.018597098 = product of:
          0.09298549 = sum of:
            0.09298549 = weight(_text_:29 in 4251) [ClassicSimilarity], result of:
              0.09298549 = score(doc=4251,freq=4.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.7694941 = fieldWeight in 4251, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    29. 1.2011 14:56:29
  10. Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023) 0.00
    0.002711512 = product of:
      0.016269071 = sum of:
        0.016269071 = product of:
          0.08134536 = sum of:
            0.08134536 = weight(_text_:29 in 925) [ClassicSimilarity], result of:
              0.08134536 = score(doc=925,freq=6.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.6731671 = fieldWeight in 925, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=925)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    29. 3.2023 13:23:26
    29. 3.2023 13:29:19
  11. Rapp, R.: Text-Detektor : Fehlertolerantes Retrieval ganz einfach (1997) 0.00
    0.0025975949 = product of:
      0.015585569 = sum of:
        0.015585569 = product of:
          0.07792784 = sum of:
            0.07792784 = weight(_text_:28 in 3918) [ClassicSimilarity], result of:
              0.07792784 = score(doc=3918,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.63326067 = fieldWeight in 3918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.125 = fieldNorm(doc=3918)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    4.11.1998 14:28:10
  12. Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993) 0.00
    0.0025047874 = product of:
      0.015028724 = sum of:
        0.015028724 = product of:
          0.07514362 = sum of:
            0.07514362 = weight(_text_:29 in 2140) [ClassicSimilarity], result of:
              0.07514362 = score(doc=2140,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.6218451 = fieldWeight in 2140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2140)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    4.11.1998 14:30:29
  13. Krause, J.: Principles of content analysis for information retrieval systems : an overview (1996) 0.00
    0.0022728955 = product of:
      0.013637373 = sum of:
        0.013637373 = product of:
          0.068186864 = sum of:
            0.068186864 = weight(_text_:28 in 5270) [ClassicSimilarity], result of:
              0.068186864 = score(doc=5270,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.5541031 = fieldWeight in 5270, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5270)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    28. 9.1996 20:12:47
  14. Rolland, M.T.: Sachgebietsstandardisierung im Bereich der Informationswissenschaft (1996) 0.00
    0.0022728955 = product of:
      0.013637373 = sum of:
        0.013637373 = product of:
          0.068186864 = sum of:
            0.068186864 = weight(_text_:28 in 5271) [ClassicSimilarity], result of:
              0.068186864 = score(doc=5271,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.5541031 = fieldWeight in 5271, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5271)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    28. 9.1996 20:12:47
  15. Hahn, U.; Reimer, U.: Informationslinguistische Konzepte der Volltextverarbeitung in TOPIC (1983) 0.00
    0.0021916889 = product of:
      0.013150133 = sum of:
        0.013150133 = product of:
          0.065750666 = sum of:
            0.065750666 = weight(_text_:29 in 450) [ClassicSimilarity], result of:
              0.065750666 = score(doc=450,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.5441145 = fieldWeight in 450, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=450)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Source
    Deutscher Dokumentartag 1982, Lübeck-Travemünde, 29.-30.9.1982: Fachinformation im Zeitalter der Informationsindustrie. Bearb.: H. Strohl-Goebel
  16. ¬Der Student aus dem Computer (2023) 0.00
    0.0021719735 = product of:
      0.01303184 = sum of:
        0.01303184 = product of:
          0.0651592 = sum of:
            0.0651592 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.0651592 = score(doc=1079,freq=2.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.5416616 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1079)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    27. 1.2023 16:22:55
  17. Zue, V.: Dein Computer spricht mir dir (1999) 0.00
    0.0018785906 = product of:
      0.011271543 = sum of:
        0.011271543 = product of:
          0.056357715 = sum of:
            0.056357715 = weight(_text_:29 in 4244) [ClassicSimilarity], result of:
              0.056357715 = score(doc=4244,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.46638384 = fieldWeight in 4244, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4244)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Date
    31.12.1996 19:29:41
  18. Müller, P.: Text-Automat mit Tücken (2023) 0.00
    0.0018785906 = product of:
      0.011271543 = sum of:
        0.011271543 = product of:
          0.056357715 = sum of:
            0.056357715 = weight(_text_:29 in 481) [ClassicSimilarity], result of:
              0.056357715 = score(doc=481,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.46638384 = fieldWeight in 481, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=481)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Source
    Pirmasenser Zeitung. Nr. 29 vom 03.02.2023, S.2
  19. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.00
    0.0018616914 = product of:
      0.011170148 = sum of:
        0.011170148 = product of:
          0.05585074 = sum of:
            0.05585074 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.05585074 = score(doc=5429,freq=2.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Source
    c't. 2000, H.22, S.230-231
  20. Seelbach, H.E.: Von der Stichwortliste zum halbautomatisch kontrollierten Wortschatz (1977) 0.00
    0.0016234969 = product of:
      0.009740981 = sum of:
        0.009740981 = product of:
          0.048704904 = sum of:
            0.048704904 = weight(_text_:28 in 8950) [ClassicSimilarity], result of:
              0.048704904 = score(doc=8950,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.39578792 = fieldWeight in 8950, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.078125 = fieldNorm(doc=8950)
          0.2 = coord(1/5)
      0.16666667 = coord(1/6)
    
    Source
    Nachrichten für Dokumentation. 28(1977), S.159-164

Years

Types

  • a 38
  • el 12
  • m 6
  • x 3
  • s 2
  • d 1
  • More… Less…

Classifications