Search (18 results, page 1 of 1)

  • × language_ss:"d"
  • × type_ss:"r"
  1. Biela, S.: Methodische Rahmenregelung zur Erarbeitung und Anwendung sachbezogener Indexiermuster (1985) 0.01
    0.011060072 = product of:
      0.0774205 = sum of:
        0.0774205 = product of:
          0.154841 = sum of:
            0.154841 = weight(_text_:anwendung in 977) [ClassicSimilarity], result of:
              0.154841 = score(doc=977,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.85586053 = fieldWeight in 977, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.125 = fieldNorm(doc=977)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  2. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.01
    0.005865489 = product of:
      0.04105842 = sum of:
        0.04105842 = product of:
          0.08211684 = sum of:
            0.08211684 = weight(_text_:anwendung in 4322) [ClassicSimilarity], result of:
              0.08211684 = score(doc=4322,freq=4.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.4538886 = fieldWeight in 4322, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4322)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  3. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.01
    0.005786181 = product of:
      0.040503263 = sum of:
        0.040503263 = product of:
          0.08100653 = sum of:
            0.08100653 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
              0.08100653 = score(doc=7383,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.61904186 = fieldWeight in 7383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7383)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 2.1997 19:46:30
  4. Frisch, E.; Kluck, M.: Pretest zum Projekt German Indexing and Retrieval Testdatabase (GIRT) unter Anwendung der Retrievalsysteme Messenger und freeWAISsf (1997) 0.01
    0.005530036 = product of:
      0.03871025 = sum of:
        0.03871025 = product of:
          0.0774205 = sum of:
            0.0774205 = weight(_text_:anwendung in 624) [ClassicSimilarity], result of:
              0.0774205 = score(doc=624,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.42793027 = fieldWeight in 624, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0625 = fieldNorm(doc=624)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  5. John, M.: Semantische Technologien in der betrieblichen Anwendung : Ergebnisse einer Anwenderstudie (2006) 0.01
    0.005530036 = product of:
      0.03871025 = sum of:
        0.03871025 = product of:
          0.0774205 = sum of:
            0.0774205 = weight(_text_:anwendung in 3898) [ClassicSimilarity], result of:
              0.0774205 = score(doc=3898,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.42793027 = fieldWeight in 3898, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3898)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
  6. Mengel, A.: Thesaurusrelationen, Konsistenz, Inferenz und Interdependenz (1991) 0.00
    0.0048387814 = product of:
      0.03387147 = sum of:
        0.03387147 = product of:
          0.06774294 = sum of:
            0.06774294 = weight(_text_:anwendung in 4710) [ClassicSimilarity], result of:
              0.06774294 = score(doc=4710,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.37443897 = fieldWeight in 4710, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4710)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.00
    0.0041475273 = product of:
      0.029032689 = sum of:
        0.029032689 = product of:
          0.058065377 = sum of:
            0.058065377 = weight(_text_:anwendung in 1837) [ClassicSimilarity], result of:
              0.058065377 = score(doc=1837,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3209477 = fieldWeight in 1837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1837)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Kuhlen, R.; Hess, M.S.: Passagen-Retrieval : auch eine Möglichkeit der automatischen Verknüpfung in Hypertexten (1993) 0.00
    0.0041475273 = product of:
      0.029032689 = sum of:
        0.029032689 = product of:
          0.058065377 = sum of:
            0.058065377 = weight(_text_:anwendung in 1947) [ClassicSimilarity], result of:
              0.058065377 = score(doc=1947,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3209477 = fieldWeight in 1947, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1947)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Das Passagen-Retrieval erlaubt explorierendes Navigieren in Volltextdatenbanken, aber auch in textorientierten Hypertextbasen. Es wird experimentell an fünf, im Information Retrieval geläufigen Assoziationskoeffizienten überprüft, inwieweit mit ihnen Textpassagen, gewonnen aus der Konversion von Absätzen aus einer Buchvorlage (Hypertextbuch von R. Kuhlen, 1991b), automatisch verknüpft werden können. Voraussetzung für die Anwendung der Maße ist eine Volltextinvertierung mit linguistisch abgesicherter Stammformenreduktion. Die Ergebnisse, gewonnen aus der Bewertung der Verknüpfungsangebote entsprechend den Berechnungen nach den fünf Koeffizienten und aus dem Vergleich mit einer intellektuellen Verknüpfungsvorgabe, zeigen eine deutliche Präferenz zugunsten des Asymmetrie-Maßes, das vielleicht noch durch eine Kombination mit dem Cosinus-Maß verbessert werden könnte. Die automatisch erstellten Verknüpfungsangebote sind sowohl im Autoren-Modus zur Unterstützung des Aufbaus von Hypertextbasen sinnvoll als auch im Lese-Modus als Möglichkeit des assoziativen Navigierens in großen Hypertextbasen verwendbar.
  9. Puzicha, J.: Informationen finden! : Intelligente Suchmaschinentechnologie & automatische Kategorisierung (2007) 0.00
    0.0041475273 = product of:
      0.029032689 = sum of:
        0.029032689 = product of:
          0.058065377 = sum of:
            0.058065377 = weight(_text_:anwendung in 2817) [ClassicSimilarity], result of:
              0.058065377 = score(doc=2817,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3209477 = fieldWeight in 2817, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2817)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Wie in diesem Text erläutert wurde, ist die Effektivität von Such- und Klassifizierungssystemen durch folgendes bestimmt: 1) den Arbeitsauftrag, 2) die Genauigkeit des Systems, 3) den zu erreichenden Automatisierungsgrad, 4) die Einfachheit der Integration in bereits vorhandene Systeme. Diese Kriterien gehen davon aus, dass jedes System, unabhängig von der Technologie, in der Lage ist, Grundvoraussetzungen des Produkts in Bezug auf Funktionalität, Skalierbarkeit und Input-Methode zu erfüllen. Diese Produkteigenschaften sind in der Recommind Produktliteratur genauer erläutert. Von diesen Fähigkeiten ausgehend sollte die vorhergehende Diskussion jedoch einige klare Trends aufgezeigt haben. Es ist nicht überraschend, dass jüngere Entwicklungen im Maschine Learning und anderen Bereichen der Informatik einen theoretischen Ausgangspunkt für die Entwicklung von Suchmaschinen- und Klassifizierungstechnologie haben. Besonders jüngste Fortschritte bei den statistischen Methoden (PLSA) und anderen mathematischen Werkzeugen (SVMs) haben eine Ergebnisqualität auf Durchbruchsniveau erreicht. Dazu kommt noch die Flexibilität in der Anwendung durch Selbsttraining und Kategorienerkennen von PLSA-Systemen, wie auch eine neue Generation von vorher unerreichten Produktivitätsverbesserungen.
  10. Dahlberg, I.: ¬Die Pilotstudie DB-Thesaurus (1980) 0.00
    0.0041475273 = product of:
      0.029032689 = sum of:
        0.029032689 = product of:
          0.058065377 = sum of:
            0.058065377 = weight(_text_:anwendung in 3155) [ClassicSimilarity], result of:
              0.058065377 = score(doc=3155,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.3209477 = fieldWeight in 3155, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3155)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.00
    0.003616363 = product of:
      0.02531454 = sum of:
        0.02531454 = product of:
          0.05062908 = sum of:
            0.05062908 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.05062908 = score(doc=5576,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    13.12.2017 14:17:22
  12. Wolters, C.: GOS Thesaurus-Handbuch : zum Projekt: Sammlungsmanagement für kulturgeschichtliche Museen in den neuen Bundesländern (1997) 0.00
    0.0034562727 = product of:
      0.024193907 = sum of:
        0.024193907 = product of:
          0.048387814 = sum of:
            0.048387814 = weight(_text_:anwendung in 4009) [ClassicSimilarity], result of:
              0.048387814 = score(doc=4009,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.2674564 = fieldWeight in 4009, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4009)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  13. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.00
    0.0028930905 = product of:
      0.020251632 = sum of:
        0.020251632 = product of:
          0.040503263 = sum of:
            0.040503263 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.040503263 = score(doc=1484,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    13. 9.2014 14:45:22
  14. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.00
    0.002765018 = product of:
      0.019355126 = sum of:
        0.019355126 = product of:
          0.03871025 = sum of:
            0.03871025 = weight(_text_:anwendung in 1076) [ClassicSimilarity], result of:
              0.03871025 = score(doc=1076,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.21396513 = fieldWeight in 1076, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1076)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
  15. Dzeyk, W.: Effektiv und nutzerfreundlich : Einsatz von semantischen Technologien und Usability-Methoden zur Verbesserung der medizinischen Literatursuche (2010) 0.00
    0.0024193907 = product of:
      0.016935734 = sum of:
        0.016935734 = product of:
          0.03387147 = sum of:
            0.03387147 = weight(_text_:anwendung in 4416) [ClassicSimilarity], result of:
              0.03387147 = score(doc=4416,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.18721949 = fieldWeight in 4416, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4416)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    In der vorliegenden Arbeit werden die Ergebnisse des MorphoSaurus-Projekts der Deutschen Zentralbibliothek für Medizin (ZB MED) vorgestellt. Ziel des Forschungsprojekts war die substanzielle Verbesserung des Information-Retrievals der medizinischen Suchmaschine MEDPILOT mithilfe computerlinguistischer Ansätze sowie die Optimierung der Gebrauchstauglichkeit (Usability) der Suchmaschinenoberfläche. Das Projekt wurde in Kooperation mit der Averbis GmbH aus Freiburg im Zeitraum von Juni 2007 bis Dezember 2008 an der ZB MED in Köln durchgeführt. Ermöglicht wurde die Realisierung des Projekts durch eine Förderung des Paktes für Forschung und Innovation. Während Averbis die MorphoSaurus-Technologie zur Verarbeitung problematischer Sprachaspekte von Suchanfragen einbrachte und wesentliche Datenbanken der ZB MED in ein Testsystem mit moderner Suchmaschinentechnologie implementierte, evaluierte ein Team der ZB MED das Potenzial dieser Technologie. Neben einem Vergleich der Leistungsfähigkeit zwischen der bisherigen MEDPILOT-Suche und der neuen Sucharchitektur wurde ein Benchmarking mit konkurrierenden Suchmaschinen wie PubMed, Scirus, Google und Google Scholar sowie GoPubMed durchgeführt. Für die Evaluation wurden verschiedene Testkollektionen erstellt, deren Items bzw. Suchphrasen aus einer Inhaltsanalyse realer Suchanfragen des MEDPILOT-Systems gewonnen wurden. Eine Überprüfung der Relevanz der Treffer der Testsuchmaschine als wesentliches Kriterium für die Qualität der Suche zeigte folgendes Ergebnis: Durch die Anwendung der MorphoSaurus-Technologie ist eine im hohen Maße unabhängige Verarbeitung fremdsprachlicher medizinischer Inhalte möglich geworden. Darüber hinaus zeigt die neue Technik insbesondere dort ihre Stärken, wo es um die gleichwertige Verarbeitung von Laien- und Expertensprache, die Analyse von Komposita, Synonymen und grammatikalischen Varianten geht. Zudem sind Module zur Erkennung von Rechtschreibfehlern und zur Auflösung von Akronymen und medizinischen Abkürzungen implementiert worden, die eine weitere Leistungssteigerung des Systems versprechen. Ein Vergleich auf der Basis von MEDLINE-Daten zeigte: Den Suchmaschinen MED-PILOT, PubMed, GoPubMed und Scirus war die Averbis-Testsuchumgebung klar überlegen. Die Trefferrelevanz war größer, es wurden insgesamt mehr Treffer gefunden und die Anzahl der Null-Treffer-Meldungen war im Vergleich zu den anderen Suchmaschinen am geringsten.
  16. Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur (2011) 0.00
    0.0018081815 = product of:
      0.01265727 = sum of:
        0.01265727 = product of:
          0.02531454 = sum of:
            0.02531454 = weight(_text_:22 in 4291) [ClassicSimilarity], result of:
              0.02531454 = score(doc=4291,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.19345059 = fieldWeight in 4291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4291)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    7. 2.2011 19:52:22
  17. Förderung von Informationsinfrastrukturen für die Wissenschaft : Ein Positionspapier der Deutschen Forschungsgemeinschaft (2018) 0.00
    0.0018081815 = product of:
      0.01265727 = sum of:
        0.01265727 = product of:
          0.02531454 = sum of:
            0.02531454 = weight(_text_:22 in 4178) [ClassicSimilarity], result of:
              0.02531454 = score(doc=4178,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.19345059 = fieldWeight in 4178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4178)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 3.2018 17:30:43
  18. Wehling, E.: Framing-Manual : Unser gemeinsamer freier Rundfunk ARD (2019) 0.00
    0.0018081815 = product of:
      0.01265727 = sum of:
        0.01265727 = product of:
          0.02531454 = sum of:
            0.02531454 = weight(_text_:22 in 4997) [ClassicSimilarity], result of:
              0.02531454 = score(doc=4997,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.19345059 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 2.2019 9:26:20