Search (52 results, page 3 of 3)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.00
    0.0013740517 = product of:
      0.004122155 = sum of:
        0.004122155 = weight(_text_:e in 548) [ClassicSimilarity], result of:
          0.004122155 = score(doc=548,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.063523374 = fieldWeight in 548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
      0.33333334 = coord(1/3)
    
    Content
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
  2. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.00
    0.0013740517 = product of:
      0.004122155 = sum of:
        0.004122155 = weight(_text_:e in 865) [ClassicSimilarity], result of:
          0.004122155 = score(doc=865,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.063523374 = fieldWeight in 865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
      0.33333334 = coord(1/3)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
  3. Schwarz, K.: Domain model enhanced search : a comparison of taxonomy, thesaurus and ontology (2005) 0.00
    0.0013740517 = product of:
      0.004122155 = sum of:
        0.004122155 = weight(_text_:e in 4569) [ClassicSimilarity], result of:
          0.004122155 = score(doc=4569,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.063523374 = fieldWeight in 4569, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=4569)
      0.33333334 = coord(1/3)
    
    Language
    e
  4. Mao, M.: Ontology mapping : towards semantic interoperability in distributed and heterogeneous environments (2008) 0.00
    0.0013740517 = product of:
      0.004122155 = sum of:
        0.004122155 = weight(_text_:e in 4659) [ClassicSimilarity], result of:
          0.004122155 = score(doc=4659,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.063523374 = fieldWeight in 4659, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=4659)
      0.33333334 = coord(1/3)
    
    Language
    e
  5. Styltsvig, H.B.: Ontology-based information retrieval (2006) 0.00
    0.0013740517 = product of:
      0.004122155 = sum of:
        0.004122155 = weight(_text_:e in 1154) [ClassicSimilarity], result of:
          0.004122155 = score(doc=1154,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.063523374 = fieldWeight in 1154, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=1154)
      0.33333334 = coord(1/3)
    
    Language
    e
  6. Slavic-Overfield, A.: Classification management and use in a networked environment : the case of the Universal Decimal Classification (2005) 0.00
    0.0013740517 = product of:
      0.004122155 = sum of:
        0.004122155 = weight(_text_:e in 2191) [ClassicSimilarity], result of:
          0.004122155 = score(doc=2191,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.063523374 = fieldWeight in 2191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=2191)
      0.33333334 = coord(1/3)
    
    Language
    e
  7. Tzitzikas, Y.: Collaborative ontology-based information indexing and retrieval (2002) 0.00
    0.0013740517 = product of:
      0.004122155 = sum of:
        0.004122155 = weight(_text_:e in 2281) [ClassicSimilarity], result of:
          0.004122155 = score(doc=2281,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.063523374 = fieldWeight in 2281, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=2281)
      0.33333334 = coord(1/3)
    
    Language
    e
  8. Haveliwala, T.: Context-Sensitive Web search (2005) 0.00
    0.0013740517 = product of:
      0.004122155 = sum of:
        0.004122155 = weight(_text_:e in 2567) [ClassicSimilarity], result of:
          0.004122155 = score(doc=2567,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.063523374 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=2567)
      0.33333334 = coord(1/3)
    
    Language
    e
  9. Markó, K.G.: Foundation, implementation and evaluation of the MorphoSaurus system (2008) 0.00
    0.0012022951 = product of:
      0.0036068852 = sum of:
        0.0036068852 = weight(_text_:e in 4415) [ClassicSimilarity], result of:
          0.0036068852 = score(doc=4415,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.05558295 = fieldWeight in 4415, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4415)
      0.33333334 = coord(1/3)
    
    Language
    e
  10. Witschel, H.F.: Global and local resources for peer-to-peer text retrieval (2008) 0.00
    0.0012022951 = product of:
      0.0036068852 = sum of:
        0.0036068852 = weight(_text_:e in 127) [ClassicSimilarity], result of:
          0.0036068852 = score(doc=127,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.05558295 = fieldWeight in 127, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02734375 = fieldNorm(doc=127)
      0.33333334 = coord(1/3)
    
    Abstract
    This thesis is organised as follows: Chapter 2 gives a general introduction to the field of information retrieval, covering its most important aspects. Further, the tasks of distributed and peer-to-peer information retrieval (P2PIR) are introduced, motivating their application and characterising the special challenges that they involve, including a review of existing architectures and search protocols in P2PIR. Finally, chapter 2 presents approaches to evaluating the e ectiveness of both traditional and peer-to-peer IR systems. Chapter 3 contains a detailed account of state-of-the-art information retrieval models and algorithms. This encompasses models for matching queries against document representations, term weighting algorithms, approaches to feedback and associative retrieval as well as distributed retrieval. It thus defines important terminology for the following chapters. The notion of "multi-level association graphs" (MLAGs) is introduced in chapter 4. An MLAG is a simple, graph-based framework that allows to model most of the theoretical and practical approaches to IR presented in chapter 3. Moreover, it provides an easy-to-grasp way of defining and including new entities into IR modeling, such as paragraphs or peers, dividing them conceptually while at the same time connecting them to each other in a meaningful way. This allows for a unified view on many IR tasks, including that of distributed and peer-to-peer search. Starting from related work and a formal defiition of the framework, the possibilities of modeling that it provides are discussed in detail, followed by an experimental section that shows how new insights gained from modeling inside the framework can lead to novel combinations of principles and eventually to improved retrieval effectiveness.
  11. Frommeyer, J.: Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken : eine Analyse von RSWK, LCSH und RAMEAU sowie Entwicklung eines theoretischen Modells für ein Zeitretrieval (2003) 0.00
    8.5878227E-4 = product of:
      0.0025763467 = sum of:
        0.0025763467 = weight(_text_:e in 2203) [ClassicSimilarity], result of:
          0.0025763467 = score(doc=2203,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.03970211 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2203)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: ZfBB 50(2003) H.5, S.295-297 (E. Scheven):"In ihrem Buch »Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken« entwickelt die Autorin ein theoretisches Modell für ein Zeitretrieval in allgemeinbibliografischen Datenbanken. Dafür untersucht sie die Verwendung von Zeitbegriffen (Epochenbezeichnungen, historiografischen Begriffen) und Zeitcodierungen (Jahreszahlen, Datumsangaben) bei der Indexierung von Dokumenten in allgemeinbibliografischen Datenbanken und deren Retrievalmöglichkeiten. Durch Globalisierung und Internet ist der Zugang zu den Katalogen unterschiedlichster lnstitutionen weit überdie Landesgrenzen hinaus möglich geworden. Dadurch ist der Zwang zur Standardisierung der bibliothekarischen Regeln weltweit verschärft, um Daten-Interoperabilität zu gewährleisten. Hauptziel der Sacherschließung muss immer die optimale Befriedigung der Benutzerbedürfnisse sein. - Kompetente Einführung - Nach einer kurzen geschichtlichen Darstellung der Zeitrechnung an sich und der bibliothekarischen Regelentwicklung wendet sich die Autorin den wichtigsten Sacherschließungswerkzeugen der westlichen WeIt zu, zum einen den beiden internationalen Universalklassifikationen, DDC und UDK, und zum anderen den drei Schlagwortsystemen LCSH, Rameau und SWD,wobei sieden Schwerpunkt auf die verbalen Sacherschließungssysteme legt. LCSH, Rameau und SWD mit RSWK werden kompetent und ausführlich in 164 von 316 Seiten mit ihrer Entwicklungsgeschichte und ihren Unterschieden dargestellt. Jutta Frommeyer ist hier eine gute vergleichende Einführung in die großen verbalen Sacherschließungssysteme gelungen und zwar nicht nur für Anfänger, sondern auch für praxis-erfahrene Sacherschließer. Die Darstellung von Zeitaspekten nach LCSH kann nach sechs verschiedenen Varianten erfolgen. Es gibt keine allgemeinen subdivisions für Zeitangaben. Rameau stimmt in seiner Struktur mit den LCSH überein, weicht aber bei der Indexierung bezüglich der subdivisions von den LCSH ab. Rameau hat eine allgemein zu verwendende Liste (subdivision) mit ca. 40 Unterteilungen für den Zeitaspekt. Nach RSWK wird der Zeitaspekt durch so genannte Zeitschlagwörter wiedergegeben, die wie auch bestimmte Formalschlagwörter durch Jahreszahlen erweitert werden können. Der im Dokument behandelte Zeitabschnitt wird für die Beschlagwortung herangezogen. Vorgegebene Zeituntergliederungen für bestimmte Themenbereiche wie bei LCSH und Rameau gibt es bei RSWK nicht. Zwischen den Schlagwortsystemen gibt es unterschiedliche Indexierungsregeln, wann ein Zeitschlagwort benutzt werden soll oder nicht.
  12. Haslhofer, B.: ¬A Web-based mapping technique for establishing metadata interoperability (2008) 0.00
    8.5878227E-4 = product of:
      0.0025763467 = sum of:
        0.0025763467 = weight(_text_:e in 3173) [ClassicSimilarity], result of:
          0.0025763467 = score(doc=3173,freq=2.0), product of:
            0.064891934 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0451463 = queryNorm
            0.03970211 = fieldWeight in 3173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3173)
      0.33333334 = coord(1/3)
    
    Language
    e

Languages

  • d 30
  • e 19
  • f 2
  • More… Less…

Types