Search (714 results, page 36 of 36)

  • × language_ss:"d"
  • × type_ss:"m"
  • × year_i:[2000 TO 2010}
  1. Skulschus, M.; Wiederstein, M.: XSLT und XPath (2005) 0.00
    4.309524E-4 = product of:
      8.619048E-4 = sum of:
        8.619048E-4 = product of:
          0.0017238096 = sum of:
            0.0017238096 = weight(_text_:s in 3665) [ClassicSimilarity], result of:
              0.0017238096 = score(doc=3665,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.04204337 = fieldWeight in 3665, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3665)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    303 S
  2. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.00
    4.309524E-4 = product of:
      8.619048E-4 = sum of:
        8.619048E-4 = product of:
          0.0017238096 = sum of:
            0.0017238096 = weight(_text_:s in 494) [ClassicSimilarity], result of:
              0.0017238096 = score(doc=494,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.04204337 = fieldWeight in 494, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=494)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    109 S
  3. Foucault, M.: ¬Die Ordnung der Dinge : eine Archäologie der Humanwissenschaften (2002) 0.00
    4.309524E-4 = product of:
      8.619048E-4 = sum of:
        8.619048E-4 = product of:
          0.0017238096 = sum of:
            0.0017238096 = weight(_text_:s in 708) [ClassicSimilarity], result of:
              0.0017238096 = score(doc=708,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.04204337 = fieldWeight in 708, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=708)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    469 S
  4. Farkas, V.: Mythos Informationsgesellschaft : was wir aus den Medien nicht erfahren (2005) 0.00
    4.309524E-4 = product of:
      8.619048E-4 = sum of:
        8.619048E-4 = product of:
          0.0017238096 = sum of:
            0.0017238096 = weight(_text_:s in 3181) [ClassicSimilarity], result of:
              0.0017238096 = score(doc=3181,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.04204337 = fieldWeight in 3181, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3181)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    335 S
  5. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.00
    4.2653232E-4 = product of:
      8.5306464E-4 = sum of:
        8.5306464E-4 = product of:
          0.0017061293 = sum of:
            0.0017061293 = weight(_text_:s in 3635) [ClassicSimilarity], result of:
              0.0017061293 = score(doc=3635,freq=6.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.04161215 = fieldWeight in 3635, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
    Weitere Rez. in: Mitt. VÖB 58(2005) H.4, S.116-119 (O. Oberhauser)
    Pages
    248 S
  6. Seckel, A.: Optische Illusionen (2004) 0.00
    3.693878E-4 = product of:
      7.387756E-4 = sum of:
        7.387756E-4 = product of:
          0.0014775512 = sum of:
            0.0014775512 = weight(_text_:s in 2168) [ClassicSimilarity], result of:
              0.0014775512 = score(doc=2168,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.036037173 = fieldWeight in 2168, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2168)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    160 S
  7. Jackenkroll, M.: Cross Media Publishing mittels XML : Die Enzyklopädie als Beispiel (2003) 0.00
    3.693878E-4 = product of:
      7.387756E-4 = sum of:
        7.387756E-4 = product of:
          0.0014775512 = sum of:
            0.0014775512 = weight(_text_:s in 2311) [ClassicSimilarity], result of:
              0.0014775512 = score(doc=2311,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.036037173 = fieldWeight in 2311, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2311)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    140 S
  8. Lochmann, D.: Vom Wesen der Information : eine allgemeinverständliche Betrachtung über Information in der Gesellschaft, in der Natur und in der Informationstheorie (2004) 0.00
    3.693878E-4 = product of:
      7.387756E-4 = sum of:
        7.387756E-4 = product of:
          0.0014775512 = sum of:
            0.0014775512 = weight(_text_:s in 1581) [ClassicSimilarity], result of:
              0.0014775512 = score(doc=1581,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.036037173 = fieldWeight in 1581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1581)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    363 S
  9. Social Semantic Web : Web 2.0, was nun? (2009) 0.00
    3.693878E-4 = product of:
      7.387756E-4 = sum of:
        7.387756E-4 = product of:
          0.0014775512 = sum of:
            0.0014775512 = weight(_text_:s in 4854) [ClassicSimilarity], result of:
              0.0014775512 = score(doc=4854,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.036037173 = fieldWeight in 4854, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4854)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    XV, 509 S
  10. Günther, G.: ¬Das Bewußtsein der Maschinen : Sammlung ; eine Metaphysik der Kybernetik (2002) 0.00
    3.693878E-4 = product of:
      7.387756E-4 = sum of:
        7.387756E-4 = product of:
          0.0014775512 = sum of:
            0.0014775512 = weight(_text_:s in 474) [ClassicSimilarity], result of:
              0.0014775512 = score(doc=474,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.036037173 = fieldWeight in 474, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=474)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    344 S
  11. Mandl, T.: Tolerantes Information Retrieval : Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche (2001) 0.00
    3.4826217E-4 = product of:
      6.9652434E-4 = sum of:
        6.9652434E-4 = product of:
          0.0013930487 = sum of:
            0.0013930487 = weight(_text_:s in 5965) [ClassicSimilarity], result of:
              0.0013930487 = score(doc=5965,freq=4.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.033976175 = fieldWeight in 5965, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.015625 = fieldNorm(doc=5965)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.379-380 (U. Thiel): "Kannte G. Salton bei der Entwicklung des Vektorraummodells die kybernetisch orientierten Versuche mit assoziativen Speicherstrukturen? An diese und ähnliche Vermutungen, die ich vor einigen Jahren mit Reginald Ferber und anderen Kollegen diskutierte, erinnerte mich die Thematik des vorliegenden Buches. Immerhin lässt sich feststellen, dass die Vektorrepräsentation eine genial einfache Darstellung sowohl der im Information Retrieval (IR) als grundlegende Datenstruktur benutzten "inverted files" als auch der assoziativen Speichermatrizen darstellt, die sich im Laufe der Zeit Über Perzeptrons zu Neuronalen Netzen (NN) weiterentwickelten. Dieser formale Zusammenhang stimulierte in der Folge eine Reihe von Ansätzen, die Netzwerke im Retrieval zu verwenden, wobei sich, wie auch im vorliegenden Band, hybride Ansätze, die Methoden aus beiden Disziplinen kombinieren, als sehr geeignet erweisen. Aber der Reihe nach... Das Buch wurde vom Autor als Dissertation beim Fachbereich IV "Sprachen und Technik" der Universität Hildesheim eingereicht und resultiert aus einer Folge von Forschungsbeiträgen zu mehreren Projekten, an denen der Autor in der Zeit von 1995 bis 2000 an verschiedenen Standorten beteiligt war. Dies erklärt die ungewohnte Breite der Anwendungen, Szenarien und Domänen, in denen die Ergebnisse gewonnen wurden. So wird das in der Arbeit entwickelte COSIMIR Modell (COgnitive SIMilarity learning in Information Retrieval) nicht nur anhand der klassischen Cranfield-Kollektion evaluiert, sondern auch im WING-Projekt der Universität Regensburg im Faktenretrieval aus einer Werkstoffdatenbank eingesetzt. Weitere Versuche mit der als "Transformations-Netzwerk" bezeichneten Komponente, deren Aufgabe die Abbildung von Gewichtungsfunktionen zwischen zwei Termräumen ist, runden das Spektrum der Experimente ab. Aber nicht nur die vorgestellten Resultate sind vielfältig, auch der dem Leser angebotene "State-of-the-Art"-Überblick fasst in hoch informativer Breite Wesentliches aus den Gebieten IR und NN zusammen und beleuchtet die Schnittpunkte der beiden Bereiche. So werden neben den Grundlagen des Text- und Faktenretrieval die Ansätze zur Verbesserung der Adaptivität und zur Beherrschung von Heterogenität vorgestellt, während als Grundlagen Neuronaler Netze neben einer allgemeinen Einführung in die Grundbegriffe u.a. das Backpropagation-Modell, KohonenNetze und die Adaptive Resonance Theory (ART) geschildert werden. Einweiteres Kapitel stellt die bisherigen NN-orientierten Ansätze im IR vor und rundet den Abriss der relevanten Forschungslandschaft ab. Als Vorbereitung der Präsentation des COSIMIR-Modells schiebt der Autor an dieser Stelle ein diskursives Kapitel zum Thema Heterogenität im IR ein, wodurch die Ziele und Grundannahmen der Arbeit noch einmal reflektiert werden. Als Dimensionen der Heterogenität werden der Objekttyp, die Qualität der Objekte und ihrer Erschließung und die Mehrsprachigkeit genannt. Wenn auch diese Systematik im Wesentlichen die Akzente auf Probleme aus den hier tangierten Projekten legt, und weniger eine umfassende Aufbereitung z.B. der Literatur zum Problem der Relevanz anstrebt, ist sie dennoch hilfreich zum Verständnis der in den nachfolgenden Kapitel oft nur implizit angesprochenen Designentscheidungen bei der Konzeption der entwickelten Prototypen. Der Ansatz, Heterogenität durch Transformationen zu behandeln, wird im speziellen Kontext der NN konkretisiert, wobei andere Möglichkeiten, die z.B. Instrumente der Logik und Probabilistik einzusetzen, nur kurz diskutiert werden. Eine weitergehende Analyse hätte wohl auch den Rahmen der Arbeit zu weit gespannt,
    Pages
    IX, 283 S
  12. Ferber, R.: Information Retrieval : Data Mining-Verfahren für Textsammlungen und das Web (2003) 0.00
    3.0782315E-4 = product of:
      6.156463E-4 = sum of:
        6.156463E-4 = product of:
          0.0012312926 = sum of:
            0.0012312926 = weight(_text_:s in 1848) [ClassicSimilarity], result of:
              0.0012312926 = score(doc=1848,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.030030979 = fieldWeight in 1848, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1848)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in nfd - Information 54(2003) H.6, S.380-381 (M. Hauer): "Wer unter Amazon.de nach aktueller Fachliteratur zum Thema Information Retrieval sucht, kommt mit gutem Grund auf Reginald Ferber. Er kommt von der mathematischen Modellierung zum Information Retrieval und hat im Rahmen seiner Forschung und Lehre das Feld breit ausgeleuchtet. Sein Buch bezeichnet sich als Einführungswerk für Informatiker, Informationswissenschaftler, Bibliothekare, Dokumentare und Studierende. Gewiss, es ist ein Einführungswerk, weil es darum bemüht ist, das Feld komplett auszuleuchten. Vergleicht man dieses gegen die rund 38o Titel zum Feld Information Retrieval aus dem Springer Verlag dem großen Nachbarn in Heidelberg, so trifft diese Einschätzung zu, denn dort werden primär einzelne Ansätze beleuchtet. Sehr systematisch erarbeitet Ferber die grundlegenden Modelle und Methoden des Information Retrieval, Data Mining und deren Umfeld. Dennoch ist es in weiten Teilen ohne einige Semester Mathematik und ohne gute Informatik-Grundlagen nicht verständlich. Ferber überzeugt schon im ersten von vier Kapiteln über "Grundlagen und klassische IR-Methoden" mit einer guten Kenntnis der Retrieval-Praxis und Problematik. Einführend grenzt er Fakten- und Information Retrieval, Hypertext, Expertensysteme, Management-Informationssysteme, Data Mining, Kategorisierung, assoziative Regeln und Wissensgewinnung ab. Im Kapitel Grundlagen definiert er Information Retrieval letztlich in Übereinstimmung mit der Gesellschaft für Informatik, die eine Fachgruppe dazu unterhält. Vagheit, Unschärfe und Unsicherheit prägen letztlich die Aufgabe des Information Retrieval als eine Gruppe von Verfahren mit dem Ziel des Austauschs von Wissen zwischen Menschen. Im Dialog zwischen Informatik und Kognitionswissenschaften sieht er noch viele offene Fragen. Einfach gesagt: Wenn jemand bei Google ein Suchwort eintippt, woher soll der Rechner dann wissen, welche Antwort für diesen Menschen in dieser Situation gerade die beste ist? Auf rund 70 Seiten erarbeitet er alle wesentlichen Retrieval-Ansätze bis zum Vektorraum-Modell und TREC, dem jährlichen wissenschaftlichen Wettkampf der Systeme. Es geht um boolesche Techniken und ihre Schwächen, um Klassifikationsund Thesauruskonzepte, linguistische Verfahren, Gewichtungsverfahren, Relevance Feedback, Vektorraum und die Messverfahren für Retrievalqualität. Auf den nächsten 70 Seiten führt er die Grundlagen der statistischen Verfahren ein, die heute als Data-Mining oder TextMining bezeichnet werden. Hier geht es um maschinelles Lernen, Kategorisierung, Clustering und assoziative Regeln. Spätestens hier wird der gewöhnliche Dokumentar oder Bibliothekar stöhnen was nicht gegen das Buch spricht, nur gegen deren traditionelle Ausbildung. Deutlich wird dabei, dass mit mathematischen Verfahren die klassischen Verfahren im Ergebnis erreicht werden sollen: Kategorisierung (wenige Hauptschlagworte), Clustering (Klassen) oder eben thesaurusähnliche Termpaarbildungen. Das Ziel ist weitgehend gleich doch die Zielerreichung grundlegend verschieden. Genau diese mathematischen Verfahren werden im dritten Kapitel weiter vertieft. Insbesondere die korpusbasierten Verfahren sind hier wichtig, wie kann man in einer ganzen großen Menge sinnvolle Termpaare oder gar Termnetze finden, also Kookurrenzen, Begriffe, die signifikant häufig gemeinsam vorkommen. Solche Verfahren sind auch im multilingualen Retrieval interessant, um automatisch sinnvolle Übersetzungen zu finden, indem Texte, die in mehreren Sprachen vorliegen jeweils auf Paare untersucht werden. Solche Netze können teils mit Lehrer trainiert, nachträglich korrigiert oder ohne Aufsicht entstehen. Ferber zeigt sachlich neutral die Verfahren auf, eine klare Entscheidung des Autors für das eine oder andere Verfahren ist nicht zu erkennen. Diese Position ist durch die TRECErgebnisse begründet, denn bislang konnte sich noch keines der Verfahren weit vom Durchschnitt entfernen. Und stets hängt die Eignung auch stark am Textkorpus und Einsatzzweck.
  13. Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006) 0.00
    3.0782315E-4 = product of:
      6.156463E-4 = sum of:
        6.156463E-4 = product of:
          0.0012312926 = sum of:
            0.0012312926 = weight(_text_:s in 5956) [ClassicSimilarity], result of:
              0.0012312926 = score(doc=5956,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.030030979 = fieldWeight in 5956, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5956)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    360 S
  14. Krajewski, M.: Zettelwirtschaft : Die Geburt der Kartei aus dem Geiste der Bibliothek (2002) 0.00
    2.154762E-4 = product of:
      4.309524E-4 = sum of:
        4.309524E-4 = product of:
          8.619048E-4 = sum of:
            8.619048E-4 = weight(_text_:s in 621) [ClassicSimilarity], result of:
              8.619048E-4 = score(doc=621,freq=2.0), product of:
                0.04100075 = queryWeight, product of:
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.03771094 = queryNorm
                0.021021685 = fieldWeight in 621, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.0872376 = idf(docFreq=40523, maxDocs=44218)
                  0.013671875 = fieldNorm(doc=621)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    255 S

Languages

  • e 15
  • m 2

Types

  • s 139
  • i 19
  • el 12
  • x 11
  • b 1
  • fi 1
  • n 1
  • r 1
  • More… Less…

Themes

Subjects

Classifications