Search (433 results, page 22 of 22)

  • × language_ss:"d"
  • × type_ss:"m"
  1. Brennscheidt, A.: AskA-Services : Nicht-bibliothekarische Informationsdienstleister im Internet (2003) 0.00
    0.00318161 = product of:
      0.00636322 = sum of:
        0.00636322 = product of:
          0.01272644 = sum of:
            0.01272644 = weight(_text_:j in 4615) [ClassicSimilarity], result of:
              0.01272644 = score(doc=4615,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.08776677 = fieldWeight in 4615, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4615)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: B.I.T. online 6(2003) H.3, S.298 (J. Plieninger): "Elektronische Auskunftsdienste befinden sich gerade in der Entwicklung, und so ist es verdienstvoll von der FH Köln, in ihrer Institutsreihe einen Text über private Online-Auskunftsdienste zu veröffentlichen, welcher uns daran erinnert, dass die Konkurrenz nicht schläft, ja vielmehr schon länger am Markt tätig ist! Die Autorin deutet am Schluss zu Recht darauf hin, dass man analysieren müsse, warum die Kunden dieser Dienste nicht einen von Bibliotheken angebotenen Informationsdienst konsultieren. Vielleicht, weil Bibliotheken noch keine virtuelle Auskunft anbieten? Dann wird es Zeit, dies in Angriff zu nehmen! Am Anfang des Textes stehen Begriffsklärungen. Die Autorin schlägt vor, "Digital Reference" für Auskunftsdienste von Bibliotheken im Netz zu verwenden und "AskA"-Services (kommt von "Ask an expert") für die private Sphäre, seien es kommerzielle oder nichtkommerzielle Dienste. Bei diesen meist unentgeltlich zu nutzenden Diensten beantworten Experten frei gestellte Fragen. Die Autorin trennt solche Dienste von anderen, welche reine Foren darstellen (wie z.B. Newsgroups oder Chats), nur zu Zwecken von Firmen dienen, Meinungen transportieren oder Schlichtweg kostenpflichtig sind. Danach wird die Entwicklung solcher Dienste in den USA und hierzulande dargestellt. Solche Dienste gibt es seit 1995 und sie haben sich seitdem, wie das Netz selbst, fortwährend gewandelt, wie z.B. der angelsächsische Dienst AskJeeves oder das deutsche Auskunftsportal MeoMe, das mittlerweile in Freenet eingegliedert wurde. Danach wird eine Typologie der Dienste erstellt, einerseits nach der Intention der Betreiber und andererseits nach der Kommunikationsart. Hier sind zwei Aspekte bedeutsam: - manche Dienste sind unentgeltlich zu nutzen, aber nicht kostenlos, insofern man Werbung oder Public Relations zu ertragen hat und - die Crux bei solchen Diensten ist auch die Frage nach den "Experten", die antworten. Manche Dienste schulen ihre Mitarbeiter, aber dennoch ist die Frage zu stellen, in wie weit die Experten wirklich als solche anzusehen sind. Letzteres wird noch deutlicher bei der Lektüre der nun folgenden, mit Screenshots versehenen Besprechung einzelner Dienste (Askjeeves.com, Webhelp.com, MAD Scientist Network, Werweiss-was.de und Google Answers). Mehrere dieser Dienste arbeiten mit Archiven schon bisher gestellter Fragen und Antworten, was für bibliothekarische Digitale Auskunft eventuell auch eine attraktive Sache sein könnte. Bei der Lektüre der strukturiert angebotenen Besprechung wird klar, dass auch die private Konkurrenz noch nicht das Patentrezept gefunden hat: Askjeeves vertraut auf techisch ausgefuchste Lösungen und automatische Einbeziehung von Suchmaschinenergebnissen, bei Webhelp.com sind die Experten einerseits mit Fragezeichen zu betrachten, andererseits immer noch so teuer, dass ein Teil des Services kostenpflichtig wird, MAD Scientist Network bietet anerkannt gute Auskunft im naturwissenschaftlichen Bereich, verweist viele Fragenden auf das Archiv und hat ansonsten keine schnellen Reaktionszeiten, Wer-weiss-was vertraut auf selbsternannte Experten, es gibt also keine Qualitätssicherung, und Googles Auskunftsdienst ist kostenpflichtig und noch in der beta-Phase. Alles in allem eine Arbeit, die man zur Kenntnis nehmen sollte, um die Lösungen der Konkurrenz zu studieren, wenn man eine Online-Auskunft einführen möchte."
  2. Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006) 0.00
    0.00318161 = product of:
      0.00636322 = sum of:
        0.00636322 = product of:
          0.01272644 = sum of:
            0.01272644 = weight(_text_:j in 5956) [ClassicSimilarity], result of:
              0.01272644 = score(doc=5956,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.08776677 = fieldWeight in 5956, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5956)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  3. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.00
    0.00318161 = product of:
      0.00636322 = sum of:
        0.00636322 = product of:
          0.01272644 = sum of:
            0.01272644 = weight(_text_:j in 38) [ClassicSimilarity], result of:
              0.01272644 = score(doc=38,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.08776677 = fieldWeight in 38, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=38)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
  4. Fugmann, R.: ¬Das Buchregister : Methodische Grundlagen und praktische Anwendung (2006) 0.00
    0.00318161 = product of:
      0.00636322 = sum of:
        0.00636322 = product of:
          0.01272644 = sum of:
            0.01272644 = weight(_text_:j in 665) [ClassicSimilarity], result of:
              0.01272644 = score(doc=665,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.08776677 = fieldWeight in 665, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=665)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.186 (J. Bertram): "Bei aller Kritik: Das Buch gemahnt eindrücklich daran, dass ein gutes Register sowohl den Anforderungen einer Entdeckungsrecherche als auch denen einer Erinnerungsrecherche dienlich sein sollte, um es mit Fugmanns Worten auszudrücken. Heißt: Es soll nicht nur denen zugute kommen, die das Buch gelesen haben, sondern eben gerade auch denjenigen, die es nicht gelesen haben. Nicht nur erinnerte Wortlaute sollen mit ihm wieder auffindbar sein, vielmehr soll das Register auch schnelle Antworten auf die Frage ermöglichen, ob ein Buch zum interessierenden Thema Ergiebiges enthält. Und dass für das zweite Anliegen ein Aufwand zu betreiben ist, der über ein reines Stichwortregister hinausgeht, wird von Fugmann anschaulich und überzeugend dargestellt. Auch seinem Wunsch, dass bei der Rezension vor Büchern Vorhandensein und Qualität des Registers (stärkere) Berücksichtigung finden mögen, ist uneingeschränkt zuzustimmen. Dass das vor ihm produzierte Register des Guten zu viel tut, steht auf einem anderen Blatt."
  5. Bauer, J.: Warum ich fühle, was du fühlst : Intuitive Kommunikation und das Geheimnis der Spiegelneurone (2005) 0.00
    0.00318161 = product of:
      0.00636322 = sum of:
        0.00636322 = product of:
          0.01272644 = sum of:
            0.01272644 = weight(_text_:j in 1430) [ClassicSimilarity], result of:
              0.01272644 = score(doc=1430,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.08776677 = fieldWeight in 1430, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1430)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  6. Schmeh, K.: ¬Die WeIt der geheimen Zeichen : die faszinierende Geschichte der Verschlüsselung (2004) 0.00
    0.00318161 = product of:
      0.00636322 = sum of:
        0.00636322 = product of:
          0.01272644 = sum of:
            0.01272644 = weight(_text_:j in 1445) [ClassicSimilarity], result of:
              0.01272644 = score(doc=1445,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.08776677 = fieldWeight in 1445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1445)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in Spektrum der Wissenschaft 2005, H.3, S.104-106 (J. Müller-Quade) "Schon nach 30 Seiten kann kein Leser mehr ernsthaft an der Wichtigkeit der Kryptografie zweifeln. Geheimschriften waren schon im 19. Jahrhundert kriegsentscheidend, und das Entschlüsseln geheimer Botschaften hat sogar geholfen, ein Rätsel der Geschichtswissenschaften zu lösen. Das Buch gliedert 3500 Jahre Kryptografiegeschichte in drei Epochen. Deren erste, die Zeit der Verschlüsselung von Hand, überspannt den längsten Zeitraum, von der Antike bis zum Ersten Weltkrieg, nimmt aber in dem Buch den geringsten Platz ein, denn außer ein paar spannenden Geschichten gibt es zum Fortschritt der Kryptografie aus dieser Zeit nicht viel zu berichten. In der zweiten Epoche, dem Zeitalter der Verschlüsselungsmaschinen, überschlagen sich dagegen die Ereignisse. Eine Hauptrolle spielt dabei die legendäre deutsche Chiffriermaschine »Enigma«, die im Zweiten Weltkrieg von den Briten entschlüsselt wurde. Nach allgemein akzeptierter Meinung haben die Deutschen an der Sicherheit der Enigma nie gezweifelt, weswegen dreißig Jahre später die Nachricht von der Entschlüsselung sie wie ein Schock traf (Spektrum der Wissenschaft 6/1999, S. 26). Umso eindrucksvoller ist der Abschnitt »Hitlers letzte Maschinen« in Schmehs Buch, demzufolge diese Meinung in ihrer Allgemeinheit wahrscheinlich falsch ist. Die Epoche der Verschlüsselungsmaschinen zieht sich mit einigen spannenden Episoden bis in den Kalten Krieg hinein. Die dritte Epoche ist die der Verschlüsselung mit dem Computer und einer ihrer Höhepunkte die Lösung des Schlüsselaustauschproblems, etwa durch die scheinbar paradoxe Kryptografie mit veröffentlichtem Schlüssel (public key cryptography). Das Public-Key-Verfahren RSA dient als Beispiel für eine Funktion, deren Umkehrung nur mit einer »Falltür« (einer geheimen Zusatzinformation) möglich ist. Allerdings wird es in dieser Rohform heute nicht mehr angewandt. Vielmehr werden Nachrichten geschickt mit Zufallsdaten aufgefüllt, damit nicht gleiche Klartexte deterministisch immer auf denselben Chiffretext abgebildet werden. Selbst wenn der Angreifer schon einmal ein verschlüsseltes »ja« am Anfang eines Textes gesehen hat, kann er dasselbe Wort an derselben Stelle nicht wiedererkennen. Eine kleine Unstimmigkeit bei dem Zahlenbeispiel in der Box stört die Erklärung nicht. In einigen Kapiteln geht das Buch auch über das eigentliche Thema Verschlüsselungsverfahren hinaus. So ist die digitale Unterschrift eine völlig neue Anwendung der altehrwürdigen Kryptografie. Schmeh bringt an dieser Stelle nicht nur die technischen Aspekte, sondern auch die interessanten rechtlichen und politischen Konsequenzen der digitalen Signatur. Beim gesellschaftlichen Aspekt der Kryptografie bespricht das Buch so aktuelle Ereignisse, dass die geschichtliche Darstellung in den Hintergrund tritt.
  7. Machate, J.; Burmester, M.: User-Interface-Tunig : Benutzungsschnittstellen menschlich gestalten (2003) 0.00
    0.00318161 = product of:
      0.00636322 = sum of:
        0.00636322 = product of:
          0.01272644 = sum of:
            0.01272644 = weight(_text_:j in 1793) [ClassicSimilarity], result of:
              0.01272644 = score(doc=1793,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.08776677 = fieldWeight in 1793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1793)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  8. Lorenz, B.: Handbuch zur Regensburger Verbundklassifikation (2002) 0.00
    0.00318161 = product of:
      0.00636322 = sum of:
        0.00636322 = product of:
          0.01272644 = sum of:
            0.01272644 = weight(_text_:j in 2927) [ClassicSimilarity], result of:
              0.01272644 = score(doc=2927,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.08776677 = fieldWeight in 2927, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2927)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    - HistorischerKontext - Den größten Umfang des Handbuchs nehmen die Kurzpräsentationen der 34 einzelnen Fachsystematiken ein, aus denen die Regensburger Aufstellungsordnung sich zusammensetzt. Jede dieser Präsentationen besteht aus dem Inhaltsverzeichnis mit der Gliederung in Untergruppen, Hinweisen aufwichtige Etappen in der Redaktionsgeschichte der Einzelsystematik sowie Benutzungshinweisen zur Anwendung von Schlüsseln und anderen polyhierarchischen Gliederungsmomenten. Das Studium der Einzelpräsentationen offenbart, dass der Differenzierungsgrad sehr unterschiedlich ist und dass die an sich monohierarchische Struktur der RVK j e nach Umfang von Schlüsselungen beträchtlich relativiert werden kann. Die »Regeln für die Signaturvergabe« in der Fassung vom Dezember 2002, deren Schwerpunkt auf der formalen Seite, der Individualisierung durch CSN (Cutter-Sanborn-Notation) und gegebenenfalls Auflagen-, Bandund Exemplarbezeichnungen, liegt, beschließen das Handbuch. Technische Errungenschaften jüngeren Datums - hier vor allem die Schaffung der »RVK online« - werden nur am Rande gestreift. Diese würden jedoch eine ausführlichere Würdigung im Rahmen eines solchen Handbuchs verdienen, erleichtern und unterstützen sie doch wesentlich die Kodifizierung und die Umsetzung beschlossener Optimierungen in der Regensburger Koordinierungsstelle und in den einzelnen Anwenderbibliotheken. Bernd Lorenz betont, dass eine Aufstellungssystematik wie die Regensburger Verbundklassifikation nicht »den Zusammenhang der Dinge selbst« (Seite 42) spiegelt, sondern lediglich eine sinnvolle bibliothekarische Anordnung der Bestände anstrebt. Die im Handbuch ausführlich referierte Geschichte der jüngsten Revision der Einzelsystematik Theologie/Religionswissenschaften anlässlich der Übernahme der RVK in den neuen Bundesländern mit starken evangelisch-theologischen Fakultäten (Seite 76 ff.) zeigt einmal mehr, dass Systematiken einen tieferen Sitz im (akademischen) Leben haben als von Bibliothekaren beabsichtigt.
  9. Stock, W.G.; Stock, M.: Wissensrepräsentation : Informationen auswerten und bereitstellen (2008) 0.00
    0.00318161 = product of:
      0.00636322 = sum of:
        0.00636322 = product of:
          0.01272644 = sum of:
            0.01272644 = weight(_text_:j in 4039) [ClassicSimilarity], result of:
              0.01272644 = score(doc=4039,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.08776677 = fieldWeight in 4039, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4039)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Weitere Rez. in: ZfBB 56(2009) H.2, S.131-133 (J. Bertram): "Alles in allem gelingt es den Autoren aber, ein facettenreiches, umfassendes und detailliertes Bild der Wissensorganisation und -repräsentation zu zeichnen, das durch eine Fülle von Literatur fundiert und zugleich praxisorientiert ist. Die behandelten Inhalte gehen über Grundlagen erheblich hinaus. Dies ist einerseits eine Schwäche des Buchs, zugleich aber auch seine Stärke. Als Novize mag man mit ihm zu kämpfen haben, als Experte wird man viele wertvolle Anregungen finden und noch die eine oder andere Wissenslücke schließen können. Entlastendes bieten die Autoren zudem all denjenigen, die von der Wichtigkeit der von einigen bereits als Anachronismus abgeschriebenen Hierarchierelation überzeugt sind, geben sie dieser doch den ihr gebührenden Raum." Weitere Rez. in: IWP 60(2009) H.5, S.300 (R. Ferber); KO 36(2009) no.1, S.63-65 (V. Petras)
  10. Information und Wissen : global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011 (2010) 0.00
    0.00318161 = product of:
      0.00636322 = sum of:
        0.00636322 = product of:
          0.01272644 = sum of:
            0.01272644 = weight(_text_:j in 5190) [ClassicSimilarity], result of:
              0.01272644 = score(doc=5190,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.08776677 = fieldWeight in 5190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5190)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Editor
    Griesbaum, J., T. Mandl u. C. Womser-Hacker
  11. Information und Sprache : Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen (2006) 0.00
    0.002545288 = product of:
      0.005090576 = sum of:
        0.005090576 = product of:
          0.010181152 = sum of:
            0.010181152 = weight(_text_:j in 91) [ClassicSimilarity], result of:
              0.010181152 = score(doc=91,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.070213415 = fieldWeight in 91, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.015625 = fieldNorm(doc=91)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Mit automatischer Indexierung beschäftigen sich auch zwei weitere Beiträge. Indexieren mit AUTINDEX von H.-D. Mass (Saarbrücken) ist leider knapp und ohne didaktische Ambition verfasst, sodass man sich nicht wirklich vorstellen kann, wie dieses System funktioniert. Übersichtlicher stellt sich der Werkstattbericht Automatische Indexierung des Reallexikons zur deutschen Kunstgeschichte von K. Lepsky (Köln) dar, der zeigt, welche Probleme und Schritte bei der Digitalisierung, Indexierung und Web-Präsentation der Volltexte eines grossen fachlichen Nachschlagewerkes anfallen. Weitere interessante Beiträge befassen sich z.B. mit Summarizing-Leistungen im Rahmen eines e-Learning-Projektes (R. Kuhlen), mit dem Schalenmodell und dem Semantischen Web (J. Krause; aus nicht näher dargelegten Gründen in englischer Sprache) und mit der Akkreditierung/ Evaluierung von Hochschullehre und -forschung in Großbritannien (T. Seeger). In Summe liegt hier eine würdige Festschrift vor, über die sich der Gefeierte sicherlich gefreut haben wird. Für informationswissenschaftliche Spezialsammlungen und größere Bibliotheken ist der Band allemal eine Bereicherung. Ein Wermutstropfen aber doch: Obzwar mit Information und Sprache ein optisch ansprechend gestaltetes Buch produziert wurde, enthüllt eine nähere Betrachtung leider allzu viele Druckfehler, mangelhafte Worttrennungen, unkorrigierte grammatikalische Fehler, sowie auch Inkonsistenzen bei Kursivdruck und Satzzeichen. Lektoren und Korrektoren sind, so muss man wieder einmal schmerzlich zur Kenntnis nehmen, ein aussterbender Berufsstand."
  12. Bertram, J.: Einführung in die inhaltliche Erschließung : Grundlagen - Methoden - Instrumente (2005) 0.00
    0.002545288 = product of:
      0.005090576 = sum of:
        0.005090576 = product of:
          0.010181152 = sum of:
            0.010181152 = weight(_text_:j in 210) [ClassicSimilarity], result of:
              0.010181152 = score(doc=210,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.070213415 = fieldWeight in 210, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.015625 = fieldNorm(doc=210)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  13. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.00
    0.002545288 = product of:
      0.005090576 = sum of:
        0.005090576 = product of:
          0.010181152 = sum of:
            0.010181152 = weight(_text_:j in 3635) [ClassicSimilarity], result of:
              0.010181152 = score(doc=3635,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.070213415 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "

Authors

Types

  • s 76
  • i 20
  • el 5
  • x 5
  • d 4
  • h 1
  • n 1
  • u 1
  • More… Less…

Subjects

Classifications