Search (40 results, page 1 of 2)

  • × language_ss:"d"
  • × type_ss:"el"
  • × year_i:[2000 TO 2010}
  1. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.05
    0.046286035 = product of:
      0.18514414 = sum of:
        0.17482133 = weight(_text_:ontologie in 4324) [ClassicSimilarity], result of:
          0.17482133 = score(doc=4324,freq=4.0), product of:
            0.22845532 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.032653235 = queryNorm
            0.765232 = fieldWeight in 4324, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.010322813 = product of:
          0.030968437 = sum of:
            0.030968437 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.030968437 = score(doc=4324,freq=2.0), product of:
                0.114346065 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032653235 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  2. Gödert, W.: Semantik und Strukturierung von Wissen als Aufgabe des Wissensmanagements (2001) 0.03
    0.028570754 = product of:
      0.22856604 = sum of:
        0.22856604 = weight(_text_:semantik in 4574) [ClassicSimilarity], result of:
          0.22856604 = score(doc=4574,freq=2.0), product of:
            0.21966073 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.032653235 = queryNorm
            1.0405412 = fieldWeight in 4574, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.109375 = fieldNorm(doc=4574)
      0.125 = coord(1/8)
    
  3. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.02
    0.019117102 = product of:
      0.15293682 = sum of:
        0.15293682 = weight(_text_:ontologie in 4497) [ClassicSimilarity], result of:
          0.15293682 = score(doc=4497,freq=6.0), product of:
            0.22845532 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.032653235 = queryNorm
            0.6694386 = fieldWeight in 4497, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
      0.125 = coord(1/8)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  4. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.02
    0.018730856 = product of:
      0.14984685 = sum of:
        0.14984685 = weight(_text_:ontologie in 4322) [ClassicSimilarity], result of:
          0.14984685 = score(doc=4322,freq=4.0), product of:
            0.22845532 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.032653235 = queryNorm
            0.6559132 = fieldWeight in 4322, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.125 = coord(1/8)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  5. Wachsmann, L.: Entwurf und Implementierung eines Modells zur Visualisierung von OWL-Properties als Protégé-PlugIn mit Layoutalgorithmen aus Graphviz (2008) 0.02
    0.017659621 = product of:
      0.14127697 = sum of:
        0.14127697 = weight(_text_:ontologie in 4173) [ClassicSimilarity], result of:
          0.14127697 = score(doc=4173,freq=2.0), product of:
            0.22845532 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.032653235 = queryNorm
            0.6184009 = fieldWeight in 4173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.0625 = fieldNorm(doc=4173)
      0.125 = coord(1/8)
    
    Abstract
    Diese Diplomarbeit beschäftigt sich mit der Erstellung eines PlugIns für den Ontologie-Editor Protégé. Das PlugIn visualisiert Objekt-Properties als Verknüpfungen zwischen zwei OWL-Klassen. Als Ausgangspunkt für die Entwicklung dient das PlugIn OWLViz, das Vererbungshierarchien von OWL-Klassen als Graphen darstellt. Die Platzierung der Knoten und Kanten des Graphen wird von Algorithmen der Programmbibliothek Graphviz vorgenommen.
  6. Metzler Lexikon Sprache (2004) 0.01
    0.014285377 = product of:
      0.11428302 = sum of:
        0.11428302 = weight(_text_:semantik in 2818) [ClassicSimilarity], result of:
          0.11428302 = score(doc=2818,freq=2.0), product of:
            0.21966073 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.032653235 = queryNorm
            0.5202706 = fieldWeight in 2818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2818)
      0.125 = coord(1/8)
    
    Abstract
    Das als Gemeinschaftswerk von fast 80 Fachwissenschaftlern erarbeitete »Metzler Lexikon Sprache« informiert in etwa 6.000 Einträgen über das Gesamtgebiet der Linguistik und gibt einen Überblick über die Sprachfamilien, Sprachgruppen und Einzelsprachen der Welt. Den Schwerpunkt bilden Begriffe aus der verschiedenen Disziplinen der Sprachwissenschaft wie Phonetik, Phonologie, Lexikologie, Morphologie Syntax, Semantik, Rhetorik, Stilistik und Pragmatik. Das Lexikon erfasst zudem die relevante Terminologie der historischen Sprachwissenschaft, der traditionellen und der heute maßgeblichen Richtungen de Linguistik, z.B. der generativen Grammatik oder der Valenzgrammatik. In großem Umfang sind auchBegriffe aus interdisziplinären Arbeitsfeldern wie Spracherwerbsforschung, Sprachdidaktik, Spracherziehung, Dialektforschung, Soziolinguistik, Sprachphilosophie, Textlinguistik und Computerlinguist aufgenommen.
  7. Köstlbacher, A. (Übers.): OWL Web Ontology Language Überblick (2004) 0.01
    0.012244609 = product of:
      0.09795687 = sum of:
        0.09795687 = weight(_text_:semantik in 4681) [ClassicSimilarity], result of:
          0.09795687 = score(doc=4681,freq=2.0), product of:
            0.21966073 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.032653235 = queryNorm
            0.44594622 = fieldWeight in 4681, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.046875 = fieldNorm(doc=4681)
      0.125 = coord(1/8)
    
    Abstract
    Die OWL Web Ontology Language wurde entwickelt, um es Anwendungen zu ermöglichen den Inhalt von Informationen zu verarbeiten anstatt die Informationen dem Anwender nur zu präsentieren. OWL erleichtert durch zusätzliches Vokabular in Verbindung mit formaler Semantik stärkere Interpretationsmöglichkeiten von Web Inhalten als dies XML, RDF und RDFS ermöglichen. OWL besteht aus drei Untersprachen mit steigender Ausdrucksmächtigkeit: OWL Lite, OWL DL and OWL Full. Dieses Dokument wurde für Leser erstellt, die einen ersten Eindruck von den Möglichkeiten bekommen möchten, die OWL bietet. Es stellt eine Einführung in OWL anhand der Beschreibung der Merkmale der drei Untersprachen von OWL dar. Kenntnisse von RDF Schema sind hilfreich für das Verständnis, aber nicht unbedingt erforderlich. Nach der Lektüre dieses Dokuments können sich interessierte Leser für detailliertere Beschreibungen und ausführliche Beispiele der Merkmale von OWL dem OWL Guide zuwenden. Die normative formale Definition von OWL findet sich unter OWL Semantics and Abstract Syntax.
  8. Weller, K.: Ontologien: Stand und Entwicklung der Semantik für WorldWideWeb (2009) 0.01
    0.010203841 = product of:
      0.08163073 = sum of:
        0.08163073 = weight(_text_:semantik in 4425) [ClassicSimilarity], result of:
          0.08163073 = score(doc=4425,freq=2.0), product of:
            0.21966073 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.032653235 = queryNorm
            0.37162185 = fieldWeight in 4425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
      0.125 = coord(1/8)
    
  9. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.01
    0.008829811 = product of:
      0.070638485 = sum of:
        0.070638485 = weight(_text_:ontologie in 4250) [ClassicSimilarity], result of:
          0.070638485 = score(doc=4250,freq=2.0), product of:
            0.22845532 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.032653235 = queryNorm
            0.30920044 = fieldWeight in 4250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.125 = coord(1/8)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  10. Hierarchisch strukturiertes Fachwortverzeichnis : Thesaurus Technik und Management (2005) 0.01
    0.008829811 = product of:
      0.070638485 = sum of:
        0.070638485 = weight(_text_:ontologie in 2252) [ClassicSimilarity], result of:
          0.070638485 = score(doc=2252,freq=2.0), product of:
            0.22845532 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.032653235 = queryNorm
            0.30920044 = fieldWeight in 2252, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.03125 = fieldNorm(doc=2252)
      0.125 = coord(1/8)
    
    Content
    Fortsetzung als WTI-Thesaurus: "Mit dem Thesaurus Technik und Management (TEMA) bietet wir Ihnen die umfangreichste strukturierte Sammlung des aktuellen Fachwortschatzes zur Technik und zum produktionsorientierten Management in deutscher und englischer Sprache. Der Thesaurus TEMA bietet Ihnen eine Verschlagwortung innerhalb unserer Datenbanken. Zudem können Sie dieses effiziente Hilfsmittel für Ihre Recherchen in großen Informationsbasen anderer Anbieter und Unternehmen einsetzen. Bereits Ihr Einstieg in die Informationssuche wird wesentlich leichter. Lassen Sie sich über den Thesaurus relevante Suchbegriffe sowie unter- und übergeordnete Begriffe komfortabel anzeigen. Mit den hinterlegten Synonymen erweitern und vervollständigen Sie Ihre Suche qualifiziert. Darüber hinaus bietet Ihnen dieses geniale Werkzeug weiteren Mehrwert. Der Thesaurus macht Sie über Verweise auf Begriffe aufmerksam, die direkten Bezug zu Ihrem Recherchethema haben. Angesichts der zunehmenden Informationsflut, die Sie in Unternehmen heute zu bewältigen haben, spielt der Einsatz klar strukturierter Terminologien in Verbindung mit Datenbanken, Information Management und Document Management Systemen für das interne Wissensmanagement eine immer größere Rolle. Zugleich können Sie auf dieser Grundlage interne und externe Informationen besser integrieren. Der Thesaurus TEMA wird von WTI fortlaufend gepflegt und in einem Gemeinschaftsprojekt mit der Technischen Informationsbibliothek Hannover (TIB) zu einer Ontologie "Technik" weiterentwickelt. WTI bietet Ihnen den Thesaurus TEMA oder einzelne Fachteile daraus zum Kauf an und unterstützt Sie bei seiner Einbindung in Ihre firmeninternen Informationssysteme. Vgl.: http://www.wti-frankfurt.de/de/thesaurus.
  11. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.01
    0.0061223046 = product of:
      0.048978437 = sum of:
        0.048978437 = weight(_text_:semantik in 3385) [ClassicSimilarity], result of:
          0.048978437 = score(doc=3385,freq=2.0), product of:
            0.21966073 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.032653235 = queryNorm
            0.22297311 = fieldWeight in 3385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
      0.125 = coord(1/8)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
  12. ws: ¬Das Große Wissen.de Lexikon 2004 (2003) 0.00
    0.0029627613 = product of:
      0.02370209 = sum of:
        0.02370209 = product of:
          0.035553135 = sum of:
            0.017856885 = weight(_text_:29 in 1079) [ClassicSimilarity], result of:
              0.017856885 = score(doc=1079,freq=2.0), product of:
                0.11486387 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032653235 = queryNorm
                0.15546128 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1079)
            0.01769625 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.01769625 = score(doc=1079,freq=2.0), product of:
                0.114346065 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032653235 = queryNorm
                0.15476047 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1079)
          0.6666667 = coord(2/3)
      0.125 = coord(1/8)
    
    Date
    20. 3.2004 12:58:22
    Footnote
    Rez. u.d.T. "Die Welt ist eine Scheibe" in: CD-Info. 2004, H.1, S.29 (ws): "Das Lexikon entspricht mit seinen 117.000 Stichworten vom Umfang etwa einem ca. 24-bändigen gedruckten Lexikon und vereint aktuelle Inhalte mit einer Vielzahl von Multimedia-Elementen wie Tondokumenten, Bildern und Videos. Dank ausgeklügelter Suchfunktionen, einem Online Update-Service und ergänzenden Links ins Internet, ist das Lexikon sowohl zum Nachschlagen als auch zum Stöbern geeignet. Neben dem Lexikon enthält die DVD noch ein Fremdwörterlexikon, ein viersprachiges Wörterbuch (E, F, I, E) sowie einen aktuellen Weltatlas. Mit Hilfe der übersichtlichen Benutzeroberfläche stehen dem Benutzer mehrere Einstiegsmöglichkeiten zur Verfügung: "Wissen A - Z" beinhaltet eine Stichwort- und Volltextsuche, "Timeline" liefert die Geschichte der Menschheit von den alten Ägyptern bis zum Fall Bagdads auf einem Zeitstrahl. "Themenreisen" stellt besondere Themengebiete wie beispielsweise "Aufstieg und Fall der Sowjetunion" kompakt mit allen zugehörigen Lexika-Einträgen und Internet-Links dar. Und in der "Mediengalerie" erschließen sich dem Benutzer die über 16.000 enthaltenen Medienelemente übersichtlich sortiert nach Themengebiet oder Medientyp."
  13. Frerichs, S.: Grundlagen des erkenntnistheoretischen Konstruktivismus : eine allgemein verständliche Einführung für Laien (2000) 0.00
    0.0026305676 = product of:
      0.021044541 = sum of:
        0.021044541 = product of:
          0.06313362 = sum of:
            0.06313362 = weight(_text_:29 in 4395) [ClassicSimilarity], result of:
              0.06313362 = score(doc=4395,freq=4.0), product of:
                0.11486387 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032653235 = queryNorm
                0.5496386 = fieldWeight in 4395, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4395)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    9. 8.2018 11:29:29
  14. Hinkelmann, K.: Ontopia Omnigator : ein Werkzeug zur Einführung in Topic Maps (20xx) 0.00
    0.002604129 = product of:
      0.020833032 = sum of:
        0.020833032 = product of:
          0.062499095 = sum of:
            0.062499095 = weight(_text_:29 in 3162) [ClassicSimilarity], result of:
              0.062499095 = score(doc=3162,freq=2.0), product of:
                0.11486387 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032653235 = queryNorm
                0.5441145 = fieldWeight in 3162, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3162)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    4. 9.2011 12:29:09
  15. Remler, A.: Lässt sich wissenschaftliche Leistung messen? : Wer zitiert wird, liegt vorne - in den USA berechnet man Forschungsleistung nach einem Zitat-Index (2000) 0.00
    0.002604129 = product of:
      0.020833032 = sum of:
        0.020833032 = product of:
          0.062499095 = sum of:
            0.062499095 = weight(_text_:29 in 5392) [ClassicSimilarity], result of:
              0.062499095 = score(doc=5392,freq=2.0), product of:
                0.11486387 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032653235 = queryNorm
                0.5441145 = fieldWeight in 5392, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5392)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    30.10.2000 17:47:29
  16. Duden : Das große Wörterbuch der deutschen Sprache (2000) 0.00
    0.0022321106 = product of:
      0.017856885 = sum of:
        0.017856885 = product of:
          0.053570654 = sum of:
            0.053570654 = weight(_text_:29 in 50) [ClassicSimilarity], result of:
              0.053570654 = score(doc=50,freq=2.0), product of:
                0.11486387 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032653235 = queryNorm
                0.46638384 = fieldWeight in 50, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=50)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    9. 6.2001 13:29:33
  17. Lange, H.: Wissensdatenbanken im Netz : Internetrecherche für das Projekt EFIL (2000) 0.00
    0.0022321106 = product of:
      0.017856885 = sum of:
        0.017856885 = product of:
          0.053570654 = sum of:
            0.053570654 = weight(_text_:29 in 6475) [ClassicSimilarity], result of:
              0.053570654 = score(doc=6475,freq=2.0), product of:
                0.11486387 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032653235 = queryNorm
                0.46638384 = fieldWeight in 6475, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6475)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    15. 8.2001 10:29:54
  18. Bourdon, F.: Funktionale Anforderungen an bibliographische Datensätze und ein internationales Nummernsystem für Normdaten : wie weit kann Normierung durch Technik unterstützt werden? (2001) 0.00
    0.0022120313 = product of:
      0.01769625 = sum of:
        0.01769625 = product of:
          0.053088747 = sum of:
            0.053088747 = weight(_text_:22 in 6888) [ClassicSimilarity], result of:
              0.053088747 = score(doc=6888,freq=2.0), product of:
                0.114346065 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032653235 = queryNorm
                0.46428138 = fieldWeight in 6888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6888)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    26.12.2011 12:30:22
  19. Pika, J.: ¬Die Sacherschliessung an der ETH-Bibliothek Zürich (2003) 0.00
    0.0018600923 = product of:
      0.014880738 = sum of:
        0.014880738 = product of:
          0.044642214 = sum of:
            0.044642214 = weight(_text_:29 in 2281) [ClassicSimilarity], result of:
              0.044642214 = score(doc=2281,freq=2.0), product of:
                0.11486387 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032653235 = queryNorm
                0.38865322 = fieldWeight in 2281, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2281)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    21. 6.2004 14:29:25
  20. Poggendorff, J.C.: Biographisch-literarisches Handwörterbuch der exakten Naturwissenschaften (2000) 0.00
    0.0018433596 = product of:
      0.014746876 = sum of:
        0.014746876 = product of:
          0.044240627 = sum of:
            0.044240627 = weight(_text_:22 in 6882) [ClassicSimilarity], result of:
              0.044240627 = score(doc=6882,freq=2.0), product of:
                0.114346065 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032653235 = queryNorm
                0.38690117 = fieldWeight in 6882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6882)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    3. 4.1996 15:41:22