Search (135 results, page 6 of 7)

  • × type_ss:"x"
  1. Temath, C.: Prototypische Implementierung der "Topic Map Query Language"-Abfragesprache für die Groupware-basierte Topic Map Engine (2005) 0.01
    0.00530574 = product of:
      0.01061148 = sum of:
        0.01061148 = product of:
          0.03183444 = sum of:
            0.03183444 = weight(_text_:k in 200) [ClassicSimilarity], result of:
              0.03183444 = score(doc=200,freq=2.0), product of:
                0.16142878 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.045220956 = queryNorm
                0.19720423 = fieldWeight in 200, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=200)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Die folgende Dokumentation beschäftigt sich mit den Ergebnissen der Seminararbeit zum Thema "Prototypische Implementierung der "Topic Map Query Language"-Abfragesprache für die Groupware-basierte Topic Map Engine", die im Rahmen des Seminars Wirtschaftsinformatik II am Groupware Competence Center entstanden ist. Im Rahmen des Dissertationsprojektes "K-Discovery" von Stefan Smolnik am Groupware Competence Center entstand der Prototyp einer Groupware-basierten Topic Map Engine. Diese Umgebung stellt verschiedene Werkzeuge zur Modellierung, Erstellung und Visualisierung von Topic Maps in einem Groupware-basierten Umfeld zur Verfügung. So reichen die vorhandenen Werkzeuge von einem grafischen Modellierungswerkzeug für die Erstellung von Topic Maps, bis hin zu Suchwerkzeugen, die grafisch oder textbasiert die Suche nach Informationen erleichtern. Zusätzlich existiert eine Exportschnittstelle, die es ermöglicht, die Daten der erzeugten Topic Map in ein standardisiertes XML-Format, dem XML Topic Maps (XTM) Format, zu exportieren. Dies stellt eine erste, rudimentäre Schnittstelle zum Abfragen von Topic Map Informationen für die Groupwarebasierte Topic Map Engine (GTME) dar. Im Rahmen internationaler Standardisierungsbemühungen wird zurzeit an einem Abfragestandard für Topic Maps gearbeitet, der so genannten "Topic Map Query Language (TMQL)"-Abfragesprache. Ziel dieser Arbeit ist es nun, einen Überblick über den aktuellen Stand des Standardisierungsprozesses für die TMQL-Abfragesprache aufzuzeigen und basierend auf den im Standardisierungsprozess bisher erarbeiteten Ergebnissen eine prototypische Implementierung für die Groupware-basierte Topic Map Engine zu erstellen. Das Ziel ist demnach eine standardisierte Schnittstelle zum Abfragen von Topic Map Daten zu schaffen, um die Groupware-basierte Topic Map Engine einem neuen Anwendungsspektrum zugänglich zu machen.
  2. Bös, K.: Aspektorientierte Inhaltserschließung von Romanen und Bildern : ein Vergleich der Ansätze von Annelise Mark Pejtersen und Sara Shatford (2012) 0.01
    0.00530574 = product of:
      0.01061148 = sum of:
        0.01061148 = product of:
          0.03183444 = sum of:
            0.03183444 = weight(_text_:k in 400) [ClassicSimilarity], result of:
              0.03183444 = score(doc=400,freq=2.0), product of:
                0.16142878 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.045220956 = queryNorm
                0.19720423 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  3. Grün, S.: Mehrwortbegriffe und Latent Semantic Analysis : Bewertung automatisch extrahierter Mehrwortgruppen mit LSA (2017) 0.01
    0.00530574 = product of:
      0.01061148 = sum of:
        0.01061148 = product of:
          0.03183444 = sum of:
            0.03183444 = weight(_text_:k in 3954) [ClassicSimilarity], result of:
              0.03183444 = score(doc=3954,freq=2.0), product of:
                0.16142878 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.045220956 = queryNorm
                0.19720423 = fieldWeight in 3954, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3954)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Die vorliegende Studie untersucht das Potenzial von Mehrwortbegriffen für das Information Retrieval. Zielsetzung der Arbeit ist es, intellektuell positiv bewertete Kandidaten mithilfe des Latent Semantic Analysis (LSA) Verfahren höher zu gewichten, als negativ bewertete Kandidaten. Die positiven Kandidaten sollen demnach bei einem Ranking im Information Retrieval bevorzugt werden. Als Kollektion wurde eine Version der sozialwissenschaftlichen GIRT-Datenbank (German Indexing and Retrieval Testdatabase) eingesetzt. Um Kandidaten für Mehrwortbegriffe zu identifizieren wurde die automatische Indexierung Lingo verwendet. Die notwendigen Kernfunktionalitäten waren Lemmatisierung, Identifizierung von Komposita, algorithmische Mehrworterkennung sowie Gewichtung von Indextermen durch das LSA-Modell. Die durch Lingo erkannten und LSAgewichteten Mehrwortkandidaten wurden evaluiert. Zuerst wurde dazu eine intellektuelle Auswahl von positiven und negativen Mehrwortkandidaten vorgenommen. Im zweiten Schritt der Evaluierung erfolgte die Berechnung der Ausbeute, um den Anteil der positiven Mehrwortkandidaten zu erhalten. Im letzten Schritt der Evaluierung wurde auf der Basis der R-Precision berechnet, wie viele positiv bewerteten Mehrwortkandidaten es an der Stelle k des Rankings geschafft haben. Die Ausbeute der positiven Mehrwortkandidaten lag bei durchschnittlich ca. 39%, während die R-Precision einen Durchschnittswert von 54% erzielte. Das LSA-Modell erzielt ein ambivalentes Ergebnis mit positiver Tendenz.
  4. Grünberg, H.: ¬Die Sacherschließung auf der Grundlage der Regensburger Aufstellungssystematiken in einer wissenschaftlichen Spezialbibliothek : dargestellt am Beispiel der Fachbibliothek Geodäsie / Kartographie / Geographie an der Technischen Universität Dresden (1993) 0.01
    0.005139889 = product of:
      0.010279778 = sum of:
        0.010279778 = product of:
          0.030839335 = sum of:
            0.030839335 = weight(_text_:h in 1559) [ClassicSimilarity], result of:
              0.030839335 = score(doc=1559,freq=2.0), product of:
                0.11234917 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045220956 = queryNorm
                0.27449545 = fieldWeight in 1559, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1559)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  5. Schröder, T.A.: Parlament und Information : Die Geschichte der Parlamentsdokumentation in Deutschland (1998) 0.01
    0.005139889 = product of:
      0.010279778 = sum of:
        0.010279778 = product of:
          0.030839335 = sum of:
            0.030839335 = weight(_text_:h in 4018) [ClassicSimilarity], result of:
              0.030839335 = score(doc=4018,freq=2.0), product of:
                0.11234917 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045220956 = queryNorm
                0.27449545 = fieldWeight in 4018, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4018)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: nfd 51(2000) H.2, S.90 (P. Horvath)
  6. Schmolz, H.: Anaphora resolution and text retrieval : a lnguistic analysis of hypertexts (2015) 0.01
    0.005139889 = product of:
      0.010279778 = sum of:
        0.010279778 = product of:
          0.030839335 = sum of:
            0.030839335 = weight(_text_:h in 1172) [ClassicSimilarity], result of:
              0.030839335 = score(doc=1172,freq=2.0), product of:
                0.11234917 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045220956 = queryNorm
                0.27449545 = fieldWeight in 1172, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1172)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  7. Schmolz, H.: Anaphora resolution and text retrieval : a lnguistic analysis of hypertexts (2013) 0.01
    0.005139889 = product of:
      0.010279778 = sum of:
        0.010279778 = product of:
          0.030839335 = sum of:
            0.030839335 = weight(_text_:h in 1810) [ClassicSimilarity], result of:
              0.030839335 = score(doc=1810,freq=2.0), product of:
                0.11234917 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045220956 = queryNorm
                0.27449545 = fieldWeight in 1810, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1810)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  8. Buß, M.: Unternehmenssprache in internationalen Unternehmen : Probleme des Informationstransfers in der internen Kommunikation (2005) 0.01
    0.00510568 = product of:
      0.01021136 = sum of:
        0.01021136 = product of:
          0.030634077 = sum of:
            0.030634077 = weight(_text_:22 in 1482) [ClassicSimilarity], result of:
              0.030634077 = score(doc=1482,freq=2.0), product of:
                0.15835609 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045220956 = queryNorm
                0.19345059 = fieldWeight in 1482, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1482)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Date
    22. 5.2005 18:25:26
  9. Düring, M.: ¬Die Dewey Decimal Classification : Entstehung, Aufbau und Ausblick auf eine Nutzung in deutschen Bibliotheken (2003) 0.01
    0.00510568 = product of:
      0.01021136 = sum of:
        0.01021136 = product of:
          0.030634077 = sum of:
            0.030634077 = weight(_text_:22 in 2460) [ClassicSimilarity], result of:
              0.030634077 = score(doc=2460,freq=2.0), product of:
                0.15835609 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045220956 = queryNorm
                0.19345059 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Die ständig steigende Zahl an publizierter Information in immer neuen Formen verlangt besonders von Informations- und Dokumentationseinrichtungen immer präzisere Lösungen zur Erschließung dieser Informationen und ihrer benutzerfreundlichen Aufbereitung. Besonders im derzeitigen Zeitalter der Datenbanken und Online-Kataloge ist die Kombination von verbaler und klassifikatorischer Sacherschließung gefordert, ohne dabei die Verbindung zu den älteren, vielerorts noch (zumindest zusätzlich) in Verwendung befindlichen, Zettelkatalogen zu verlieren. Weltweit ist eine Vielzahl an verschiedenen Klassifikationen im Einsatz. Die Wahl der für eine Einrichtung passenden Klassifikation ist abhängig von ihrer thematischen und informationellen Ausrichtung, der Größe und Art der Bestände und nicht zuletzt von technischen und personellen Voraussetzungen. Auf Seiten der zu wählenden Klassifikation sind die Einfachheit der Handhabung für den Bibliothekar, die Verständlichkeit für den Benutzer, die Erweiterungsfähigkeit der Klassifikation durch das Aufkommen neuer Wissensgebiete und die Einbindung in informationelle Netze mit anderen Einrichtungen von entscheidender Bedeutung. In dieser Arbeit soll die Dewey Dezimalklassifikation (DDC) hinsichtlich dieser Punkte näher beleuchtet werden. Sie ist die weltweit am häufigsten benutzte Klassifikation. Etwa 200.000 Bibliotheken in 135 Ländern erschließen ihre Bestände mit diesem System. Sie liegt derzeit bereits in der 22. ungekürzten Auflage vor und wurde bisher in 30 Sprachen übersetzt. Eine deutsche Komplettübersetzung wird im Jahre 2005 erscheinen. Trotz teils heftig geführter Standardisierungsdebatten und Plänen für die Übernahme von amerikanischen Formalerschließungsregeln herrscht in Bezug auf die Sacherschließung unter deutschen Bibliotheken wenig Einigkeit. Die DDC ist in Deutschland und anderen europäischen Ländern kaum verbreitet, sieht von Großbritannien und von der Verwendung in Bibliografien ab. Diese Arbeit geht demzufolge auf die historischen Gründe dieser Entwicklung ein und wagt einen kurzen Ausblick in die Zukunft der Dezimalklassifikation.
  10. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.01
    0.00510568 = product of:
      0.01021136 = sum of:
        0.01021136 = product of:
          0.030634077 = sum of:
            0.030634077 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.030634077 = score(doc=4333,freq=2.0), product of:
                0.15835609 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045220956 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Pages
    22 S
  11. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.01
    0.00510568 = product of:
      0.01021136 = sum of:
        0.01021136 = product of:
          0.030634077 = sum of:
            0.030634077 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.030634077 = score(doc=867,freq=2.0), product of:
                0.15835609 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045220956 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Pages
    22 S
  12. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.01
    0.00510568 = product of:
      0.01021136 = sum of:
        0.01021136 = product of:
          0.030634077 = sum of:
            0.030634077 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
              0.030634077 = score(doc=1670,freq=2.0), product of:
                0.15835609 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045220956 = queryNorm
                0.19345059 = fieldWeight in 1670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1670)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Date
    26. 9.2006 21:00:22
  13. Geisriegler, E.: Enriching electronic texts with semantic metadata : a use case for the historical Newspaper Collection ANNO (Austrian Newspapers Online) of the Austrian National Libraryhek (2012) 0.01
    0.00510568 = product of:
      0.01021136 = sum of:
        0.01021136 = product of:
          0.030634077 = sum of:
            0.030634077 = weight(_text_:22 in 595) [ClassicSimilarity], result of:
              0.030634077 = score(doc=595,freq=2.0), product of:
                0.15835609 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045220956 = queryNorm
                0.19345059 = fieldWeight in 595, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=595)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Date
    3. 2.2013 18:00:22
  14. Makewita, S.M.: Investigating the generic information-seeking function of organisational decision-makers : perspectives on improving organisational information systems (2002) 0.01
    0.00510568 = product of:
      0.01021136 = sum of:
        0.01021136 = product of:
          0.030634077 = sum of:
            0.030634077 = weight(_text_:22 in 642) [ClassicSimilarity], result of:
              0.030634077 = score(doc=642,freq=2.0), product of:
                0.15835609 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045220956 = queryNorm
                0.19345059 = fieldWeight in 642, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=642)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Date
    22. 7.2022 12:16:58
  15. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.00
    0.004244592 = product of:
      0.008489184 = sum of:
        0.008489184 = product of:
          0.025467552 = sum of:
            0.025467552 = weight(_text_:k in 5938) [ClassicSimilarity], result of:
              0.025467552 = score(doc=5938,freq=2.0), product of:
                0.16142878 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.045220956 = queryNorm
                0.15776339 = fieldWeight in 5938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5938)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    [Magisterarbeit] - Rez. in: Online Mitteilungen 2001, Nr.69, S.41-43 (K. Patzwaldt) (Vgl. auch: http://www.ideenreich.com/suchmaschinen/kritik.shtml)
  16. Schwarz, K.: Domain model enhanced search : a comparison of taxonomy, thesaurus and ontology (2005) 0.00
    0.004244592 = product of:
      0.008489184 = sum of:
        0.008489184 = product of:
          0.025467552 = sum of:
            0.025467552 = weight(_text_:k in 4569) [ClassicSimilarity], result of:
              0.025467552 = score(doc=4569,freq=2.0), product of:
                0.16142878 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.045220956 = queryNorm
                0.15776339 = fieldWeight in 4569, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4569)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  17. Neet, H.: Assoziationsrelationen in Dokumentationslexika für die verbale Sacherschließung (1984) 0.00
    0.004111911 = product of:
      0.008223822 = sum of:
        0.008223822 = product of:
          0.024671467 = sum of:
            0.024671467 = weight(_text_:h in 1254) [ClassicSimilarity], result of:
              0.024671467 = score(doc=1254,freq=2.0), product of:
                0.11234917 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045220956 = queryNorm
                0.21959636 = fieldWeight in 1254, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1254)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  18. Schwarz, H.: Verhalten von Benutzern am Online-Katalog in Bibliotheken : Auswertung einer empirischen Untersuchung zur Überprüfung von Zielvorstellungen von Systementwicklern (1994) 0.00
    0.004111911 = product of:
      0.008223822 = sum of:
        0.008223822 = product of:
          0.024671467 = sum of:
            0.024671467 = weight(_text_:h in 5289) [ClassicSimilarity], result of:
              0.024671467 = score(doc=5289,freq=2.0), product of:
                0.11234917 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045220956 = queryNorm
                0.21959636 = fieldWeight in 5289, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5289)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  19. Bickmann, H.-J.: Synonymie und Sprachverwendung : Verfahren zur Ermittlung von Synonymenklassen als kontextbeschränkten Äquivalenzklassen (1978) 0.00
    0.004111911 = product of:
      0.008223822 = sum of:
        0.008223822 = product of:
          0.024671467 = sum of:
            0.024671467 = weight(_text_:h in 5890) [ClassicSimilarity], result of:
              0.024671467 = score(doc=5890,freq=2.0), product of:
                0.11234917 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045220956 = queryNorm
                0.21959636 = fieldWeight in 5890, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5890)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  20. Kiren, T.: ¬A clustering based indexing technique of modularized ontologies for information retrieval (2017) 0.00
    0.004084544 = product of:
      0.008169088 = sum of:
        0.008169088 = product of:
          0.024507262 = sum of:
            0.024507262 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
              0.024507262 = score(doc=4399,freq=2.0), product of:
                0.15835609 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045220956 = queryNorm
                0.15476047 = fieldWeight in 4399, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4399)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Date
    20. 1.2015 18:30:22

Languages

  • d 120
  • e 14
  • hu 1
  • More… Less…

Types

Subjects

Classifications