Search (14 results, page 1 of 1)

  • × classification_ss:"TVV (DU)"
  1. Schweibenz, W.; Thissen, F.: Qualität im Web : Benutzerfreundliche Webseiten durch Usability Evaluation (2003) 0.05
    0.046608813 = product of:
      0.069913216 = sum of:
        0.0029855857 = weight(_text_:s in 767) [ClassicSimilarity], result of:
          0.0029855857 = score(doc=767,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.060061958 = fieldWeight in 767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=767)
        0.06692763 = sum of:
          0.035955522 = weight(_text_:von in 767) [ClassicSimilarity], result of:
            0.035955522 = score(doc=767,freq=8.0), product of:
              0.12197845 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045719936 = queryNorm
              0.29476947 = fieldWeight in 767, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0390625 = fieldNorm(doc=767)
          0.0309721 = weight(_text_:22 in 767) [ClassicSimilarity], result of:
            0.0309721 = score(doc=767,freq=2.0), product of:
              0.16010343 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045719936 = queryNorm
              0.19345059 = fieldWeight in 767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=767)
      0.6666667 = coord(2/3)
    
    Abstract
    Für Webseiten ist, wie für alle interaktiven Anwendungen vom einfachen Automaten bis zur komplexen Software, die Benutzerfreundlichkeit von zentraler Bedeutung. Allerdings wird eine sinnvolle Benutzung von Informationsangeboten im World Wide Web häufig durch "cooles Design" unnötig erschwert, weil zentrale Punkte der Benutzerfreundlichkeit (Usability) vernachlässigt werden. Durch Usability Evaluation kann die Benutzerfreundlichkeit von Webseiten und damit auch die Akzeptanz bei den Benutzern verbessert werden. Ziel ist die Gestaltung von ansprechenden benutzerfreundlichen Webangeboten, die den Benutzern einen effektiven und effizienten Dialog ermöglichen. Das Buch bietet eine praxisorientierte Einführung in die Web Usability Evaluation und beschreibt die Anwendung ihrer verschiedenen Methoden.
    Date
    22. 3.2008 14:24:08
    Pages
    224 S
  2. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.02
    0.016669173 = product of:
      0.025003757 = sum of:
        0.0029855857 = weight(_text_:s in 4325) [ClassicSimilarity], result of:
          0.0029855857 = score(doc=4325,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.060061958 = fieldWeight in 4325, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4325)
        0.022018172 = product of:
          0.044036344 = sum of:
            0.044036344 = weight(_text_:von in 4325) [ClassicSimilarity], result of:
              0.044036344 = score(doc=4325,freq=12.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.3610174 = fieldWeight in 4325, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4325)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
    Pages
    264 S
  3. Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2004) 0.02
    0.016669173 = product of:
      0.025003757 = sum of:
        0.0029855857 = weight(_text_:s in 4385) [ClassicSimilarity], result of:
          0.0029855857 = score(doc=4385,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.060061958 = fieldWeight in 4385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4385)
        0.022018172 = product of:
          0.044036344 = sum of:
            0.044036344 = weight(_text_:von in 4385) [ClassicSimilarity], result of:
              0.044036344 = score(doc=4385,freq=12.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.3610174 = fieldWeight in 4385, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4385)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Kostengünstige Massenspeicher und die zunehmende Vernetzung von Rechnern haben die Anzahl der Dokumente, auf die ein einzelnes Individuum zugreifen kann (bspw. Webseiten) oder die auf das Individuum einströmen (bspw. E-Mails), in den letzten Jahren rapide ansteigen lassen. In immer mehr Bereichen der Wirtschaft, Wissenschaft und Verwaltung nimmt der Bedarf an hochwertigen Information-Filtering und -Retrieval Werkzeugen zur Beherrschung der Informationsflut zu. Zur computergestützten Lösung dieser Problemstellung sind Modelle zur Repräsentation natürlichsprachlicher Dokumente erforderlich, um formale Kriterien für die automatisierte Auswahl relevanter Dokumente definieren zu können. Dominik Kuropka gibt in seiner Arbeit eine umfassende Übersicht über den Themenbereich der Suche und Filterung von natürlichsprachlichen Dokumenten. Es wird eine Vielzahl von Modellen aus Forschung und Praxis vorgestellt und evaluiert. Auf den Ergebnissen aufbauend wird das Potenzial von Ontologien in diesem Zusammenhang eruiert und es wird ein neues, ontologie-basiertes Modell für das Information-Filtering und -Retrieval erarbeitet, welches anhand von Text- und Code-Beispielen ausführlich erläutert wird. Das Buch richtet sich an Dozenten und Studenten der Informatik, Wirtschaftsinformatik und (Computer-)Linguistik sowie an Systemdesigner und Entwickler von dokumentenorientierten Anwendungssystemen und Werkzeugen.
    Pages
    IX, 242 S
  4. Dreyfus, H.L.: ¬Die Grenzen künstlicher Intelligenz : was Computer nicht können (1985) 0.01
    0.008807424 = product of:
      0.013211137 = sum of:
        0.0042222557 = weight(_text_:s in 4332) [ClassicSimilarity], result of:
          0.0042222557 = score(doc=4332,freq=4.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.08494043 = fieldWeight in 4332, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4332)
        0.008988881 = product of:
          0.017977761 = sum of:
            0.017977761 = weight(_text_:von in 4332) [ClassicSimilarity], result of:
              0.017977761 = score(doc=4332,freq=2.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.14738473 = fieldWeight in 4332, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4332)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Vgl. auch die Standpunkte in: Collins, H.M.: A review of Hubert Dreyfus' What computers still can't do in: Artificial intelligence 80(1996) no.1, S.99-191.
    Issue
    Aus dem Amerikan. von Robin Cacket u.a.
    Pages
    372 S
  5. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.01
    0.008372151 = product of:
      0.0125582265 = sum of:
        0.0023884687 = weight(_text_:s in 1735) [ClassicSimilarity], result of:
          0.0023884687 = score(doc=1735,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.048049565 = fieldWeight in 1735, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
        0.0101697575 = product of:
          0.020339515 = sum of:
            0.020339515 = weight(_text_:von in 1735) [ClassicSimilarity], result of:
              0.020339515 = score(doc=1735,freq=4.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.1667468 = fieldWeight in 1735, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1735)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen, der Graphentheorie, den statistischen Verfahren sowie der Texttechnologie beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik und Phonologie, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Die drei letzten Teile des Buchs geben Überblicke über die verwendeten sprachtechnologischen Informationsquellen, die vielfältigen Anwendungen in der Praxis sowie über Evaluationsverfahren für sprachverarbeitende Systeme. Anhand konkreter Fragestellungen - von der Entwicklung von Korrekturprogrammen über das Informationsmanagement bis zur Maschinellen Übersetzung - wird das Zusammenwirken der einzelnen Methoden aufgezeigt. Für die dritte Auflage wurden sämtliche Kapitel überarbeitet und aktualisiert sowie zum Teil zu eigenständigen, neuen Kapiteln zusammengeführt. Insbesondere trägt die dritte Auflage der rasanten Entwicklung in der Computerlinguistik und Sprachtechnologie durch eine stärkere Fokussierung auf statistische Grundlagen und Methoden Rechnung. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand." [Manfred Pinkal]
    Pages
    XVI, 736 S
  6. Barnsley, M.F.; Hurd, L.P.: Bildkompression mit Fraktalen (1996) 0.01
    0.007982978 = product of:
      0.011974466 = sum of:
        0.0029855857 = weight(_text_:s in 1547) [ClassicSimilarity], result of:
          0.0029855857 = score(doc=1547,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.060061958 = fieldWeight in 1547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1547)
        0.008988881 = product of:
          0.017977761 = sum of:
            0.017977761 = weight(_text_:von in 1547) [ClassicSimilarity], result of:
              0.017977761 = score(doc=1547,freq=2.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.14738473 = fieldWeight in 1547, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1547)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Issue
    Übers. und bearb. von Gisbert W. Selke und Harald Selke.
    Pages
    VIII, 232 S
  7. Tufte, E.R.: Envisioning information (1990) 0.00
    0.002068475 = product of:
      0.006205424 = sum of:
        0.006205424 = weight(_text_:s in 3733) [ClassicSimilarity], result of:
          0.006205424 = score(doc=3733,freq=6.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.124836445 = fieldWeight in 3733, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=3733)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: College & research libraries 52(1991) S.382-383 (P. Wilson); Knowledge organization 20(1993) no.1, S.61-62 (M. Giesecke)
    Pages
    126 S
  8. Jacquemin, C.: Spotting and discovering terms through natural language processing (2001) 0.00
    0.0014074186 = product of:
      0.0042222557 = sum of:
        0.0042222557 = weight(_text_:s in 119) [ClassicSimilarity], result of:
          0.0042222557 = score(doc=119,freq=4.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.08494043 = fieldWeight in 119, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=119)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: KO 28(2001) no.3, S.152-154 (L. Da Sylva)
    Pages
    VIII, 378 S
  9. Barnsley, M.F.; Hurd, L.P.: Fractal image compression (1993) 0.00
    0.0011942344 = product of:
      0.003582703 = sum of:
        0.003582703 = weight(_text_:s in 1546) [ClassicSimilarity], result of:
          0.003582703 = score(doc=1546,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.072074346 = fieldWeight in 1546, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=1546)
      0.33333334 = coord(1/3)
    
    Pages
    XI, 244 S
  10. Hutchins, W.J.; Somers, H.L.: ¬An introduction to machine translation (1992) 0.00
    9.951952E-4 = product of:
      0.0029855857 = sum of:
        0.0029855857 = weight(_text_:s in 4512) [ClassicSimilarity], result of:
          0.0029855857 = score(doc=4512,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.060061958 = fieldWeight in 4512, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4512)
      0.33333334 = coord(1/3)
    
    Pages
    XXI,362 S
  11. Jurafsky, D.; Martin, J.H.: Speech and language processing : ani ntroduction to natural language processing, computational linguistics and speech recognition (2009) 0.00
    9.951952E-4 = product of:
      0.0029855857 = sum of:
        0.0029855857 = weight(_text_:s in 1081) [ClassicSimilarity], result of:
          0.0029855857 = score(doc=1081,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.060061958 = fieldWeight in 1081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
      0.33333334 = coord(1/3)
    
    Pages
    1024 S
  12. Spinning the Semantic Web : bringing the World Wide Web to its full potential (2003) 0.00
    9.851932E-4 = product of:
      0.0029555794 = sum of:
        0.0029555794 = weight(_text_:s in 1981) [ClassicSimilarity], result of:
          0.0029555794 = score(doc=1981,freq=4.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.059458308 = fieldWeight in 1981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1981)
      0.33333334 = coord(1/3)
    
    Pages
    XXII1, 479 S
    Type
    s
  13. Towards the Semantic Web : ontology-driven knowledge management (2004) 0.00
    8.4445125E-4 = product of:
      0.0025333536 = sum of:
        0.0025333536 = weight(_text_:s in 4401) [ClassicSimilarity], result of:
          0.0025333536 = score(doc=4401,freq=4.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.050964262 = fieldWeight in 4401, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4401)
      0.33333334 = coord(1/3)
    
    Pages
    XX, 288 S
    Type
    s
  14. Kuhlthau, C.C: Seeking meaning : a process approach to library and information services (2004) 0.00
    7.037093E-4 = product of:
      0.0021111278 = sum of:
        0.0021111278 = weight(_text_:s in 3347) [ClassicSimilarity], result of:
          0.0021111278 = score(doc=3347,freq=4.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.042470217 = fieldWeight in 3347, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3347)
      0.33333334 = coord(1/3)
    
    Footnote
    It is important to understand the origins of Kuhlthau's ideas in the work of the educational theorists, Dewey, Kelly and Bruner. Putting the matter in a rather simplistic manner, Dewey identified stages of cognition, Kelly attached the idea of feelings being associated with cognitive stages, and Bruner added the notion of actions associated with both. We can see this framework underlying Kuhlthau's research in her description of the actions undertaken at different stages in the search process and the associated feelings. Central to the transfer of these ideas to practice is the notion of the 'Zone of Intervention' or the point at which an information seeker can proceed more effectively with assistance than without. Kuhlthau identifies five intervention zones, the first of which involves intervention by the information seeker him/herself. The remaining four involve interventions of different kinds, which the author distinguishes according to the level of mediation required: zone 2 involves the librarian as 'locater', i.e., providing the quick reference response; zone 3, as 'identifier', i.e., discovering potentially useful information resources, but taking no further interest in the user; zone 4 as 'advisor', i.e., not only identifying possibly helpful resources, but guiding the user through them, and zone 5 as 'counsellor', which might be seen as a more intensive version of the advisor, guiding not simply on the sources, but also on the overall process, through a continuing interaction with the user. Clearly, these processes can be used in workshops, conference presentations and the classroom to sensitise the practioner and the student to the range of helping strategies that ought to be made available to the information seeker. However, the author goes further, identifying a further set of strategies for intervening in the search process, which she describes as 'collaborating', 'continuing', 'choosing', 'charting', 'conversing' and 'composing'. 'Collaboration' clearly involves the participation of others - fellow students, work peers, fellow researchers, or whatever, in the search process; 'continuing' intervention is associated with information seeking that involves a succession of actions - the intermediary 'stays with' the searcher throughout the process, available as needed to support him/her; 'choosing', that is, enabling the information seeker to identify the available choices in any given situation; 'charting' involves presenting a graphic illustration of the overall process and locating the information seeker in that chart; 'conversing' is the encouragement of discussion about the problem(s), and 'composing' involves the librarian as counsellor in encouraging the information seeker to document his/her experience, perhaps by keeping a diary of the process.
    Pages
    XVII, 247 S

Years

Languages

Types

  • m 14
  • s 2

Subjects

Classifications