Search (7 results, page 1 of 1)

  • × author_ss:"Ferber, R."
  1. Ferber, R.: Vorhersage der Suchwortwahl von professionellen Rechercheuren in Literaturdatenbanken durch assoziative Netze (1992) 0.02
    0.017217223 = product of:
      0.12912916 = sum of:
        0.018872911 = weight(_text_:und in 8833) [ClassicSimilarity], result of:
          0.018872911 = score(doc=8833,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29385152 = fieldWeight in 8833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=8833)
        0.11025624 = weight(_text_:informationswissenschaft in 8833) [ClassicSimilarity], result of:
          0.11025624 = score(doc=8833,freq=4.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.84463215 = fieldWeight in 8833, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.09375 = fieldNorm(doc=8833)
      0.13333334 = coord(2/15)
    
    Series
    Schriften zur Informationswissenschaft; Bd.7
    Source
    Mensch und Maschine: Informationelle Schnittstellen der Kommunikation. Proc. des 3. Int. Symposiums für Informationswissenschaft (ISI'92), 5.-7.11.1992 in Saarbrücken. Hrsg.: H.H. Zimmermann, H.-D. Luckhardt u. A. Schulz
  2. Ferber, R.: Information Retrieval : Data Mining-Verfahren für Textsammlungen und das Web (2003) 0.01
    0.014796647 = product of:
      0.07398324 = sum of:
        0.045777448 = weight(_text_:buch in 1848) [ClassicSimilarity], result of:
          0.045777448 = score(doc=1848,freq=14.0), product of:
            0.13472971 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028978055 = queryNorm
            0.33977246 = fieldWeight in 1848, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1848)
        0.023591138 = weight(_text_:und in 1848) [ClassicSimilarity], result of:
          0.023591138 = score(doc=1848,freq=72.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.3673144 = fieldWeight in 1848, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1848)
        0.004614653 = product of:
          0.009229306 = sum of:
            0.009229306 = weight(_text_:information in 1848) [ClassicSimilarity], result of:
              0.009229306 = score(doc=1848,freq=28.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.18142805 = fieldWeight in 1848, product of:
                  5.2915025 = tf(freq=28.0), with freq of:
                    28.0 = termFreq=28.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1848)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Die inhaltliche Suche nach Textdokumenten - das Information Retrieval -spielte sich bis vor einigen Jahren vornehmlich in Bibliotheken und Archiven ab. Durch das WWW sind zunehmend auch Privatpersonen und Firmen mit dieser Aufgabe konfrontiert. Dieses Buch vermittelt die grundlegenden Modelle und Methoden des Information Retrieval, beschreibt an Beispielen aktuelle Entwicklungen - insbesondere im Bereich der Websuche - und' stellt sie in einen theoretischen Zusammenhang. Einführend werden klassische Ansätze wie hierarchische Klassifikationen, boolesche Suche, das Vektorraummodell und Bewertungsmethoden für Suchverfahren erläutert. Es folgt eine Einführung in Methoden des Data Mining, die zur Unterstützung der Suche dienen können. Anschließend werden unterschiedliche Retrieval-Modelle und konkrete Systeme vorgestellt. In einem eigenen Schwerpunkt widmet sich das Buch dem WWW und behandelt aus der Perspektive des Information Retrieval die Web-Auszeichnungssprachen XML und HTML, Metadatensysteme wie Dublin Core sowie die Beschreibungssprache RDF. Schließlich werden die Rahmenbedingungen der Web-Suche und verschiedene Verfahren wie der PageRank-Algorithmus von Google und die ODP-Klassifikation beschrieben. Das Buch richtet sich an Studierende und Praktiker, die sich die Grundlagen des modernen Information Retrieval aneignen wollen.
    Footnote
    Rez. in nfd - Information 54(2003) H.6, S.380-381 (M. Hauer): "Wer unter Amazon.de nach aktueller Fachliteratur zum Thema Information Retrieval sucht, kommt mit gutem Grund auf Reginald Ferber. Er kommt von der mathematischen Modellierung zum Information Retrieval und hat im Rahmen seiner Forschung und Lehre das Feld breit ausgeleuchtet. Sein Buch bezeichnet sich als Einführungswerk für Informatiker, Informationswissenschaftler, Bibliothekare, Dokumentare und Studierende. Gewiss, es ist ein Einführungswerk, weil es darum bemüht ist, das Feld komplett auszuleuchten. Vergleicht man dieses gegen die rund 38o Titel zum Feld Information Retrieval aus dem Springer Verlag dem großen Nachbarn in Heidelberg, so trifft diese Einschätzung zu, denn dort werden primär einzelne Ansätze beleuchtet. Sehr systematisch erarbeitet Ferber die grundlegenden Modelle und Methoden des Information Retrieval, Data Mining und deren Umfeld. Dennoch ist es in weiten Teilen ohne einige Semester Mathematik und ohne gute Informatik-Grundlagen nicht verständlich. Ferber überzeugt schon im ersten von vier Kapiteln über "Grundlagen und klassische IR-Methoden" mit einer guten Kenntnis der Retrieval-Praxis und Problematik. Einführend grenzt er Fakten- und Information Retrieval, Hypertext, Expertensysteme, Management-Informationssysteme, Data Mining, Kategorisierung, assoziative Regeln und Wissensgewinnung ab. Im Kapitel Grundlagen definiert er Information Retrieval letztlich in Übereinstimmung mit der Gesellschaft für Informatik, die eine Fachgruppe dazu unterhält. Vagheit, Unschärfe und Unsicherheit prägen letztlich die Aufgabe des Information Retrieval als eine Gruppe von Verfahren mit dem Ziel des Austauschs von Wissen zwischen Menschen. Im Dialog zwischen Informatik und Kognitionswissenschaften sieht er noch viele offene Fragen. Einfach gesagt: Wenn jemand bei Google ein Suchwort eintippt, woher soll der Rechner dann wissen, welche Antwort für diesen Menschen in dieser Situation gerade die beste ist? Auf rund 70 Seiten erarbeitet er alle wesentlichen Retrieval-Ansätze bis zum Vektorraum-Modell und TREC, dem jährlichen wissenschaftlichen Wettkampf der Systeme. Es geht um boolesche Techniken und ihre Schwächen, um Klassifikationsund Thesauruskonzepte, linguistische Verfahren, Gewichtungsverfahren, Relevance Feedback, Vektorraum und die Messverfahren für Retrievalqualität. Auf den nächsten 70 Seiten führt er die Grundlagen der statistischen Verfahren ein, die heute als Data-Mining oder TextMining bezeichnet werden. Hier geht es um maschinelles Lernen, Kategorisierung, Clustering und assoziative Regeln. Spätestens hier wird der gewöhnliche Dokumentar oder Bibliothekar stöhnen was nicht gegen das Buch spricht, nur gegen deren traditionelle Ausbildung. Deutlich wird dabei, dass mit mathematischen Verfahren die klassischen Verfahren im Ergebnis erreicht werden sollen: Kategorisierung (wenige Hauptschlagworte), Clustering (Klassen) oder eben thesaurusähnliche Termpaarbildungen. Das Ziel ist weitgehend gleich doch die Zielerreichung grundlegend verschieden. Genau diese mathematischen Verfahren werden im dritten Kapitel weiter vertieft. Insbesondere die korpusbasierten Verfahren sind hier wichtig, wie kann man in einer ganzen großen Menge sinnvolle Termpaare oder gar Termnetze finden, also Kookurrenzen, Begriffe, die signifikant häufig gemeinsam vorkommen. Solche Verfahren sind auch im multilingualen Retrieval interessant, um automatisch sinnvolle Übersetzungen zu finden, indem Texte, die in mehreren Sprachen vorliegen jeweils auf Paare untersucht werden. Solche Netze können teils mit Lehrer trainiert, nachträglich korrigiert oder ohne Aufsicht entstehen. Ferber zeigt sachlich neutral die Verfahren auf, eine klare Entscheidung des Autors für das eine oder andere Verfahren ist nicht zu erkennen. Diese Position ist durch die TRECErgebnisse begründet, denn bislang konnte sich noch keines der Verfahren weit vom Durchschnitt entfernen. Und stets hängt die Eignung auch stark am Textkorpus und Einsatzzweck.
    Das vierte Kapitel widmet sich Information Retrieval aus der Perspektive des Internets. Bei aller raffinierten Retrieval Technik mit Linguistik oder Statistik spielt Faktenretrieval aufgrund von strukturierten Dokumenten unverändert und eher zunehmend eine Rolle. Er führt zunächst in SGML und XML ein, Sprachen zur Markierung von Dokumentinhalten. Anwendungen davon sind Metadaten-Ansätze wie Dublin Core oder RDF. Aufgrund seiner langen Erfahrung zweifelt er aber an der flächendeckenden Durchsetzung solcher Strukturierungsansätze, was deren Nutzen aber prinzipiell nicht schmälert. Ein Unterkapitel Topic Maps wäre noch sinnvoll gewesen. Dieses Kapitel ist sinnvoll, um ein besseres Verständnis all der herumschwirrenden Namen und Ansätze zu erhalten, die alle wieder einmal an alten Problemen arbeiten. Denkbar wäre noch ein Kapitel zum Bild-, Musik- oder Video-Retrieval (also Objekte ohne Text) gewesen, doch mit über 300 Seiten ist das Buch schon dick genug. Das Buch erfüllt für die Zielgruppen das Ziel der Einführung gut und vermittelt ein umfassendes Verständnis - doch angesichts von so viel Mathematik bleibt ein klarer Rest von Vagheit, Unschärfe und Unsicherheit wohl bei den meisten Lesern. Nur wer selbst solche Systeme baut, wird die Algorithmen implementieren und auf seine Weise diskutieren können.
  3. Koschinsky, G.; Ferber, R.: Kommunikationswege beim E-Learning : eine empirische Untersuchung an der Hochschule Darmstadt (2007) 0.00
    0.002425875 = product of:
      0.018194063 = sum of:
        0.015727427 = weight(_text_:und in 1319) [ClassicSimilarity], result of:
          0.015727427 = score(doc=1319,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.24487628 = fieldWeight in 1319, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1319)
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 1319) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=1319,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 1319, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1319)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Mit dem Stichwort E-Learning wird ein breites Spektrum von Lehr- und Lernformen bezeichnet, die in der einen oder anderen Weise durch Rechner unterstützt werden. In vielen dieser Formen spielt der Austausch zwischen den Beteiligten eine wichtige Rolle. Daher werden E-Learning-Umgebungen häufig mit Kommunikationskomponenten wie Chats oder Foren versehen. Neben diesen Kommunikationswegen steht den Studierenden im Allgemeinen noch eine Vielzahl anderer Kommunikationsmittel zur Verfügung. In einer Befragung an der Hochschule Darmstadt (ehemals Fachhochschule) wurde untersucht, welche Kommunikationswege von den Teilnehmern und Teilnehmerinnen eines E-Learning-Kurses genutzt und bevorzugt werden. Ausgangspunkt war dabei die Beobachtung, dass die von der Lernplattform angebotenen Kommunikationsmittel im Vergleich mit anderen Kommunikationswegen nur wenig genutzt wurden. Die Ergebnisse zeigen, dass alle zehn untersuchten Kommunikationswege (vom persönlichen Gespräch über EMail oder Voice-over-IP bis zu den Kommunikationsmitteln der Lernumgebung) für den Austausch zur Online-Lehrveranstaltung genutzt wurden. Die Intensität der Nutzung variierte allerdings stark: So gaben über 90 Prozent der Befragten an, sich durch direkte Gespräche oder E-Mails ausgetauscht zu haben, wogegen nur ca. zehn Prozent die Kommunikationsmittel der E-Learning-Plattform verwendeten. Der Hauptanteil der Kommunikation fand also nicht über die von der Lernplattform angebotenen Werkzeuge statt. Die Studierenden bevorzugten die Kommunikationswege, die sie auch sonst im Alltag benutzen.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.1, S.7-14
  4. Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993) 0.00
    0.0016775922 = product of:
      0.025163881 = sum of:
        0.025163881 = weight(_text_:und in 2140) [ClassicSimilarity], result of:
          0.025163881 = score(doc=2140,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.39180204 = fieldWeight in 2140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=2140)
      0.06666667 = coord(1/15)
    
  5. Ferber, R.: Dokumentsuche und Dokumenterschließung (1999) 0.00
    0.0012581941 = product of:
      0.018872911 = sum of:
        0.018872911 = weight(_text_:und in 4145) [ClassicSimilarity], result of:
          0.018872911 = score(doc=4145,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29385152 = fieldWeight in 4145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4145)
      0.06666667 = coord(1/15)
    
  6. Ferber, R.; Wettler, M.; Rapp, R.: ¬An associative model of word selection in the generation of search queries (1995) 0.00
    2.3255666E-4 = product of:
      0.0034883497 = sum of:
        0.0034883497 = product of:
          0.0069766995 = sum of:
            0.0069766995 = weight(_text_:information in 3177) [ClassicSimilarity], result of:
              0.0069766995 = score(doc=3177,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.13714671 = fieldWeight in 3177, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3177)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    To generate a search query based on an end user request, a database searcher has to select appropriate search terms. These terms can either be taken from the request, or they can be added by the searcher. This selection process is simulated by an associative lexical net; the nodes of the net are the terms used in 94 records of written requests to a psychological information agency and the respective online searches. The weights connecting the nodes are calculated from the co-occurrences of these terms in the abstracts of the database PsycLit. To simulate the term selection process of a query, the nodes of all terms used in the written requests are activated, and 1 or more spreading activation cycles are performed. The result of the simulation is a ranking of the terms according to the activities of their nodes. Simulations for all 94 records show a low mean activity rank for the terms selected from the request; the mean activity rank for new terms added by the searcher is lower than the mean activity rank for thode terms of the request that were not used in the query
    Source
    Journal of the American Society for Information Science. 46(1995) no.9, S.685-689
  7. Ferber, R.: Automated indexing with thesaurus descriptors : a co-occurence based approach to multilingual retrieval (1997) 0.00
    1.6444239E-4 = product of:
      0.0024666358 = sum of:
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 4144) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=4144,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 4144, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4144)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Indexing documents with descriptors from a multilingual thesaurus is an approach to multilingual information retrieval. However, manual indexing is expensive. Automazed indexing methods in general use terms found in the document. Thesaurus descriptors are complex terms that are often not used in documents or have specific meanings within the thesaurus; therefore most weighting schemes of automated indexing methods are not suited to select thesaurus descriptors. In this paper a linear associative system is described that uses similarity values extracted from a large corpus of manually indexed documents to construct a rank ordering of the descriptors for a given document title. The system is adaptive and has to be tuned with a training sample of records for the specific task. The system was tested on a corpus of some 80.000 bibliographic records. The results show a high variability with changing parameter values. This indicated that it is very important to empirically adapt the model to the specific situation it is used in. The overall median of the manually assigned descriptors in the automatically generated ranked list of all 3.631 descriptors is 14 for the set used to adapt the system and 11 for a test set not used in the optimization process. This result shows that the optimization is not a fitting to a specific training set but a real adaptation of the model to the setting