Search (28 results, page 2 of 2)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Porth, R.: Betrachtung des Formatumstiegs von MAB2 zu MARC 21 : Potentielle Mehrwerte bei der Internationalisierung eines bibliographischen Formats (2009) 0.01
    0.006899878 = product of:
      0.013799756 = sum of:
        0.013799756 = product of:
          0.027599512 = sum of:
            0.027599512 = weight(_text_:r in 4036) [ClassicSimilarity], result of:
              0.027599512 = score(doc=4036,freq=2.0), product of:
                0.15092614 = queryWeight, product of:
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.045593463 = queryNorm
                0.18286766 = fieldWeight in 4036, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4036)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  2. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.01
    0.0055199023 = product of:
      0.011039805 = sum of:
        0.011039805 = product of:
          0.02207961 = sum of:
            0.02207961 = weight(_text_:r in 1076) [ClassicSimilarity], result of:
              0.02207961 = score(doc=1076,freq=2.0), product of:
                0.15092614 = queryWeight, product of:
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.045593463 = queryNorm
                0.14629413 = fieldWeight in 1076, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1076)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Type
    r
  3. Hoffmann, R.: Entwicklung einer benutzerunterstützten automatisierten Klassifikation von Web - Dokumenten : Untersuchung gegenwärtiger Methoden zur automatisierten Dokumentklassifikation und Implementierung eines Prototyps zum verbesserten Information Retrieval für das xFIND System (2002) 0.01
    0.0055199023 = product of:
      0.011039805 = sum of:
        0.011039805 = product of:
          0.02207961 = sum of:
            0.02207961 = weight(_text_:r in 4197) [ClassicSimilarity], result of:
              0.02207961 = score(doc=4197,freq=2.0), product of:
                0.15092614 = queryWeight, product of:
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.045593463 = queryNorm
                0.14629413 = fieldWeight in 4197, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4197)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  4. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.01
    0.0055199023 = product of:
      0.011039805 = sum of:
        0.011039805 = product of:
          0.02207961 = sum of:
            0.02207961 = weight(_text_:r in 865) [ClassicSimilarity], result of:
              0.02207961 = score(doc=865,freq=2.0), product of:
                0.15092614 = queryWeight, product of:
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.045593463 = queryNorm
                0.14629413 = fieldWeight in 865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.03125 = fieldNorm(doc=865)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
  5. Riebe, U.: John R. Searles Position zum Leib-Seele-Problem (2008) 0.01
    0.0055199023 = product of:
      0.011039805 = sum of:
        0.011039805 = product of:
          0.02207961 = sum of:
            0.02207961 = weight(_text_:r in 4567) [ClassicSimilarity], result of:
              0.02207961 = score(doc=4567,freq=2.0), product of:
                0.15092614 = queryWeight, product of:
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.045593463 = queryNorm
                0.14629413 = fieldWeight in 4567, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4567)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  6. Nikolai, R.: Thesaurusföderationen : Ein Rahmenwerk für die flexible Integration von heterogenen, autonomen Thesauri (2002) 0.00
    0.0041399268 = product of:
      0.0082798535 = sum of:
        0.0082798535 = product of:
          0.016559707 = sum of:
            0.016559707 = weight(_text_:r in 165) [ClassicSimilarity], result of:
              0.016559707 = score(doc=165,freq=2.0), product of:
                0.15092614 = queryWeight, product of:
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.045593463 = queryNorm
                0.1097206 = fieldWeight in 165, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=165)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  7. Frommeyer, J.: Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken : eine Analyse von RSWK, LCSH und RAMEAU sowie Entwicklung eines theoretischen Modells für ein Zeitretrieval (2003) 0.00
    0.003449939 = product of:
      0.006899878 = sum of:
        0.006899878 = product of:
          0.013799756 = sum of:
            0.013799756 = weight(_text_:r in 2203) [ClassicSimilarity], result of:
              0.013799756 = score(doc=2203,freq=2.0), product of:
                0.15092614 = queryWeight, product of:
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.045593463 = queryNorm
                0.09143383 = fieldWeight in 2203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2203)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Zugleich: Diss., Humboldt-Universität, Berlin 2002; Betreuer: W. Umstätter, K. Umlauf, R. Wagner-Döbler
  8. Schwartz, D.: Einsatz und Leitbilder der Datenverarbeitung in Bibliotheken : dargestellt an ausgewählten Projekten der Deutschen Forschungsgemeinschaft (2004) 0.00
    0.0027599512 = product of:
      0.0055199023 = sum of:
        0.0055199023 = product of:
          0.011039805 = sum of:
            0.011039805 = weight(_text_:r in 1447) [ClassicSimilarity], result of:
              0.011039805 = score(doc=1447,freq=2.0), product of:
                0.15092614 = queryWeight, product of:
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.045593463 = queryNorm
                0.073147066 = fieldWeight in 1447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3102584 = idf(docFreq=4387, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1447)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: ZfBB 52(2005) H.2, S.105-107 (R. Altenhöner):"In seiner 2003 am Institut für Bibliothekswissenschaft der Humboldt-Universität zu Berlin erstellten und angenommenen Dissertation untersucht Dieter Schwartz 30 Jahre Einsatz der Datenverarbeitung in Bibliotheken. Dabei interessieren ihn erklärtermaßen besonders die Leitbilder, die im historischen Rückblick auf die Zeit zwischen 1965 und 1995 zum Tragen kamen. Zugrunde gelegt hat er für dieses Unterfangen im Wesentlichen Projekte, die im Rahmen des Förderprogramms Modernisierung und Rationalisierung der Deutschen Forschungsgemeinschaft in diesem Zeitraum durchgeführt wurden. Inhalt und Vorgehen der Arbeit lassen sich wie folgt zusammenfassen: In einem ersten Teil wird nach einer sechsseitigen Einführung auf knapp 25 Seiten ein geschichtlicher Abriss der Datenverarbeitung gegeben, der sich im Wesentlichen auf allgemeine Grundlagenliteratur und einführende Handbücher stützt. Die folgenden rund 5o Seiten widmen sich dann dem eigentlichen Untersuchungsgegenstand: Schwartz zählt diverse Projekte aus der Laufzeit des Programms auf und bemüht sich darum,jede wertende Betrachtung zu unterlassen. Der Vorbereitung der eigentlichen kritischen Analyse dient das nächste Kapitel: Hierzu werden - auf wiederum knapp 25 Seiten ausgeführt - die Elemente »DFG, Projekte, Modernisierung und Rationalisierung sowie Innovation und Technik« herausgearbeitet und beschrieben, die Schwartz zu »geeigneten Betrachtungsgrößen« erklärt (S. 99). Das folgende Kapitel, »Kritische und vergleichende Betrachtung der beschriebenen Bibliotheksprojekte« stellt mit seinen 65 Seiten somit das eigentliche Herzstück der Arbeit dar. Hier sind die versprochenen Erkenntnisse aus dem Einleitungskapitel, nämlich »gegenwärtigen und zukünftigen Projekten der Datenverarbeitung die Ursprünge aufzuzeigen« (S. XI f) zu erwarten, da »das Studium der Vergangenheit ... der Gegenwart dienen und eine ergebnisreiche Zukunft vorbereiten« solle. Schwartz bietet außerdem als Dreingabe auf gut 25 Seiten eine zusammenfassende Betrachtung inklusive Ausblick auf die aktuellen Diskussionen, um abschließend nochmals eine Zusammenfassung auf nun einer Seite folgen zu lassen. Weitere rund 70 Seiten füllt der Anhang, der u.a. Förderrichtlinien der DFG, den DFG-Leitfaden für Antragsteller aus dem WWW übernimmt und abdruckt, einige aus sekundären Quellen übernommene Übersichten, ferner eine Auflistung der behandelten Projekte, einen Abschnitt mit Begriffsklärungen im Kontext von Bewertungsgrößen und Leistungsparametern und schließlich - neben dem ausführlichen Abkürzungs- und Literaturverzeichnis, das eine bunte und erkennbar höchst unterschiedlich intensiv in die Arbeit eingegangene Sammlung enthält - The-menvorschläge für weitere Arbeiten, auf die noch einmal zurückzukommen sein wird (S. 222 f). Ein Register fehlt bedauerlicherweise.

Languages

  • d 26
  • e 2

Types