Search (189 results, page 3 of 10)

  • × type_ss:"m"
  • × year_i:[2000 TO 2010}
  1. International encyclopedia of information and library science (2003) 0.01
    0.014095521 = product of:
      0.028191041 = sum of:
        0.028191041 = product of:
          0.056382082 = sum of:
            0.056382082 = weight(_text_:z in 1293) [ClassicSimilarity], result of:
              0.056382082 = score(doc=1293,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.23587814 = fieldWeight in 1293, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1293)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    The International Encyclopedia of Information and Library Science was first published in 1997, and has become the major reference work in its field. This thoroughly revised and updated edition takes full account of the radical changes which have taken place since it was originally conceived. With almost 600 A-Z entries, written by a global team of over 180 contributors, the subject matter ranges from mobile library services provided by camel and donkey transport to search engines, portals and the World Wide Web. The entries fall into four categories: - Conceptual entries explore and explicate all the major issues, theories and activities in information and library science, such as the economics of information and information management. Key features of this edition include a wholly new entry an information systems, and enhanced entries an the information professions and the information society. - Topical entries deal with more specific subjects, such as collection management and information services for minority groups. New or completely revised entries include a group of entries an information law, and a collection of entries an the Internet, the World Wide Web and the theory and application of information systems. - Terminological entries define key terms in the field: from 'almanac' to 'workstation', 'information architecture' to 'spam'. - Biographical entries examine the life and work of key figures for information and library science - such as Turing, Gadamer, Gutenberg, Leibniz and Dewey - many of whom have become synonymous with the contributions which they have made to the discipline. All the longer entries are fully supported by references and suggestions for further reading. And with its comprehensive index and substantial cross-referencing, this new edition of the International Encyclopedia of Information and Library Science is destined to remain an invaluable tool both for reference and as a starting point for more in-depth study.
  2. Russell, B.: ¬Die Analyse des Geistes (2006) 0.01
    0.014095521 = product of:
      0.028191041 = sum of:
        0.028191041 = product of:
          0.056382082 = sum of:
            0.056382082 = weight(_text_:z in 66) [ClassicSimilarity], result of:
              0.056382082 = score(doc=66,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.23587814 = fieldWeight in 66, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=66)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieses Buch ist erwachsen aus dem Versuch, zwei Tendenzen zu vereinigen, mit denen ich gleichermaßen sympathisiere, obwohl sie auf den ersten Blick unvereinbar erscheinen. Die eine macht sich in der modernen Psychologie geltend, während die andere in der Physik herrscht. Auf der einen Seite zeigt sich bei vielen Psychologen, besonders bei denen der "Behavioristenschule"), eine ihrem Wesen nach materialistische Tendenz, wenigstens in der Methode, wenn nicht in ihrer Metaphysik. Bei ihnen gerät die Psychologie in wachsende Abhängigkeit von der Physiologie und von der äußeren Beobachtung und sie sind geneigt, sich unter der Materie etwas weit Festeres und Unbezweifelbareres vorzustellen als unter dem Geist. Unterdessen verliert unter den Händen der Physiker, insbesondere Einsteins und anderer Vertreter der Relativitätstheorie, die "Materie" immer mehr ihren materiellen Charakter. Ihre Welt besteht aus "Ereignissen", aus denen die "Materie" als logische Konstruktion abgeleitet wird. Wer z. B. Prof. Eddingtons "Raum, Zeit und Schwerkraft" (Cambridge, University Press 1920) liest, wird bemerken, daß ein Materialismus alten Stils von der modernen Physik keine Unterstützung zu erwarten hat. Was nach meiner Ansicht an dem Standpunkt der "Behavioristen" dauernden Wert hat, ist das Gefühl, daß die Physik die fundamentalste unter den gegenwärtig existierenden Wissenschaften ist. Jedoch kann man diesen Standpunkt nicht materialistisch nennen, sofern die Physik, wie es der Fall zu sein scheint, gar nicht die Existenz von Materie behauptet. Es gibt eine Ansicht, die, wie mir scheint, die materialistische Tendenz der Psychologen mit der antimaterialistischen der Physiker vereinigt. Diese Ansicht ist die von William James und den amerikanischen Neurealisten. Nach ihr ist nämlich der "Stoff", woraus die Welt besteht, weder geistig noch materiell sondern ein "neutraler Stoff", aus dem beide, Geist und Materie, aufgebaut sind. Ich habe in dem vorliegenden Buch versucht, diese Ansicht in ihren Einzelheiten zu entwickeln, soweit es sich um die Erscheinungen handelt, mit denen sich die Psychologie befaßt.
  3. Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004) 0.01
    0.014095521 = product of:
      0.028191041 = sum of:
        0.028191041 = product of:
          0.056382082 = sum of:
            0.056382082 = weight(_text_:z in 100) [ClassicSimilarity], result of:
              0.056382082 = score(doc=100,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.23587814 = fieldWeight in 100, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=100)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
  4. Ranganathan, S.R.: Colon Classification (Sixth Edition) (2007) 0.01
    0.014095521 = product of:
      0.028191041 = sum of:
        0.028191041 = product of:
          0.056382082 = sum of:
            0.056382082 = weight(_text_:z in 1474) [ClassicSimilarity], result of:
              0.056382082 = score(doc=1474,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.23587814 = fieldWeight in 1474, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1474)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Inhalt: Preface to edition to 6 Chap 00 Introduction Chap 01 Call Number Chap 02 Class Number Chap 03 Book Number Chap 04 Collection Number Chap 05 Focus and Facet Chap 06 Contractions Chap 07 Canons of Classification Chap 08 Principles and Postulates Chap 1 Main Class Chap 2. Common Isolate Chap 3. Time Isolate Chap 4. Space Isolate Chap 5. Language Isolate Chap 6. Phase and Intra- Facet Relation Chap 7. Classic Chap 9z Generalia Chap 92 Library Science Chap B. Mathematics Chap C. Physics Chap D. Engineering Chap E. Chemistry Chap F. Technology Chap G. Biology Chap H. Geology Chap HZ. Mining Chap I. Botany Chap J. Agriculture Chap K. Zoology Chap KZ. Animal Husbandry Chap L. Medicine Chap LZ. Pharmacognosy Chap M. Useful Arts Chap ^ Spiritual Experience and Mysticism Chap N. Fine Arts Chap O Literature Chap P. Linguistics Chap Q. Religion Chap R. Philosophy Chap S. Psychology Chap T. Education Chap U. Geography Chap V. History Chap W. Political Science Chap X. Economics Chap Y Sociology Chap Z. Law Index Schedules of Classics and Sacred Books
  5. Phänomenales Bewusstsein : Rückkehr zur Identitätstheorie? (2002) 0.01
    0.014095521 = product of:
      0.028191041 = sum of:
        0.028191041 = product of:
          0.056382082 = sum of:
            0.056382082 = weight(_text_:z in 2538) [ClassicSimilarity], result of:
              0.056382082 = score(doc=2538,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.23587814 = fieldWeight in 2538, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2538)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Phänomenale Bewußtsein ist seit Jahren Gegenstand von zentralen Auseinandersetzungen in der Philosophie des Geistes: Ist es möglich, die konkreten Qualitäten z. B. von Schmerzzuständen oder Farbempfindungen naturwissenschaftlich adäquat zu erklären, oder wird hier auf Dauer eine "Erklärungslücke" bleiben? Besonders gute Voraussetzungen für eine Lösung dieses Problems scheint die Identitätstheorie zu bieten, die nicht zuletzt aus diesem Grunde neuerdings wieder an Bedeutung gewonnen hat. Die vorliegende Sammlung gibt zunächst anhand mittlerweile klassischer Aufsätze von U. T. Place, Kripke und Levine einen kurzen Überblick über die Vorgeschichte der gegenwärtigen Auseinandersetzung. Der Hauptteil enthält dann aktuelle Originalbeiträge von Ansgar Beckermann, Dieter Birnbacher, Michael Heidelberger, Chris Hill, Jaegwon Kim, Joseph Levine, Ulrich Majer, Brian McLaughlin, Martine Nida-Rümelin, David Papineau, Michael Pauen, Jürgen Schröder, Achim Stephan und Robert van Gulick. Der Leser gewinnt damit einen umfassenden Überblick über den aktuellen Stand der Diskussion zu Problemen von Identität und Phänomenalem Bewußtsein.
  6. Peters, I.: Folksonomies : indexing and retrieval in Web 2.0 (2009) 0.01
    0.014095521 = product of:
      0.028191041 = sum of:
        0.028191041 = product of:
          0.056382082 = sum of:
            0.056382082 = weight(_text_:z in 4203) [ClassicSimilarity], result of:
              0.056382082 = score(doc=4203,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.23587814 = fieldWeight in 4203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4203)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Zugl.: Düsseldorf, Univ., Diss., 2009 u.d.T.: Peters, Isabella: Folksonomies in Wissensrepräsentation und Information Retrieval Rez. in: IWP - Information Wissenschaft & Praxis, 61(2010) Heft 8, S.469-470 (U. Spree): "... Nachdem sich die Rezensentin durch 418 Seiten Text hindurch gelesen hat, bleibt sie unentschieden, wie der auffällige Einsatz langer Zitate (im Durchschnitt drei Zitate, die länger als vier kleingedruckte Zeilen sind, pro Seite) zu bewerten ist, zumal die Zitate nicht selten rein illustrativen Charakter haben bzw. Isabella Peters noch einmal zitiert, was sie bereits in eigenen Worten ausgedrückt hat. Redundanz und Verlängerung der Lesezeit halten sich hier die Waage mit der Möglichkeit, dass sich die Leserin einen unmittelbaren Eindruck von Sprache und Duktus der zitierten Literatur verschaffen kann. Eindeutig unschön ist das Beenden eines Gedankens oder einer Argumentation durch ein Zitat (z. B. S. 170). Im deutschen Original entstehen auf diese Weise die für deutsche wissenschaftliche Qualifikationsarbeiten typischen denglischen Texte. Für alle, die sich für Wissensrepräsentation, Information Retrieval und kollaborative Informationsdienste interessieren, ist "Folksonomies : Indexing and Retrieval in Web 2.0" trotz der angeführten kleinen Mängel zur Lektüre und Anschaffung - wegen seines beinahe enzyklopädischen Charakters auch als Nachschlage- oder Referenzwerk geeignet - unbedingt zu empfehlen. Abschließend möchte ich mich in einem Punkt der Produktinfo von de Gruyter uneingeschränkt anschließen: ein "Grundlagenwerk für Folksonomies".
  7. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.01
    0.012458798 = product of:
      0.024917595 = sum of:
        0.024917595 = product of:
          0.04983519 = sum of:
            0.04983519 = weight(_text_:z in 38) [ClassicSimilarity], result of:
              0.04983519 = score(doc=38,freq=4.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.20848879 = fieldWeight in 38, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=38)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.102-104 (R.F. Müller); ZfBB 53(2006) H.5, S.282-283 (L. Svensson): "Das Sammeln und Verzeichnen elektronischer Ressourcen gehört in wissenschaftlichen Bibliotheken längst zum Alltag. Parallel dazu kündigt sich ein Paradigmenwechsel bei den Findmitteln an: Um einen effizienten und benutzerorientierten Zugang zu den gemischten Kollektionen bieten zu können, experimentieren einige bibliothekarische Diensteanbieter wie z. B. das hbz (http://suchen.hbz-nrw.de/dreilaender/), die Bibliothek der North Carolina State University (www.lib.ncsu.edu/) und demnächst vascoda (www.vascoda.de/) und der Librarians-Internet Index (www.lii.org/) zunehmend mit Suchmaschinentechnologie. Dabei wird angestrebt, nicht nur einen vollinvertierten Suchindex anzubieten, sondern auch das Browsing durch eine hierarchisch geordnete Klassifikation. Von den Daten in den deutschen Verbunddatenbanken ist jedoch nur ein kleiner Teil schon klassifikatorisch erschlossen. Fremddaten aus dem angloamerikanischen Bereich sind oft mit LCC und/oder DDC erschlossen, wobei die Library of Congress sich bei der DDCErschließung auf Titel, die hauptsächlich für die Public Libraries interessant sind, konzentriert. Die Deutsche Nationalbibliothek wird ab 2007 Printmedien und Hochschulschriften flächendeckend mit DDC erschließen. Es ist aber schon offensichtlich, dass v. a. im Bereich der elektronischen Publikationen die anfallenden Dokumentenmengen mit immer knapperen Personalressourcen nicht intellektuell erschlossen werden können, sondern dass neue Verfahren entwickelt werden müssen. Hier kommt Oberhausers Buch gerade richtig. Seit Anfang der 1990er Jahre sind mehrere Projekte zum Thema automatisches Klassifizieren durchgeführt worden. Wer sich in diese Thematik einarbeiten wollte oder sich für die Ergebnisse der größeren Projekte interessierte, konnte bislang auf keine Überblicksdarstellung zurückgreifen, sondern war auf eine Vielzahl von Einzeluntersuchungen sowie die Projektdokumentationen angewiesen. Oberhausers Darstellung, die auf einer Fülle von publizierter und grauer Literatur fußt, schließt diese Lücke. Das selbst gesetzte Ziel, einen guten Überblick über den momentanen Kenntnisstand und die Ergebnisse der einschlägigen Projekte verständlich zu vermitteln, erfüllt der Autor mit Bravour. Dabei ist anzumerken, dass er ein bibliothekarisches Grundwissen und mindestens grundlegende Kenntnisse über informationswissenschaftliche Grundbegriffe und Fragestellungen voraussetzt, wobei hier für den Einsteiger einige Hinweise auf einführende Darstellungen wünschenswert gewesen wären.
    Zum Inhalt Auf einen kurzen einleitenden Abschnitt folgt eine Einführung in die grundlegende Methodik des automatischen Klassifizierens. Oberhauser erklärt hier Begriffe wie Einfach- und Mehrfachklassifizierung, Klassen- und Dokumentzentrierung, und geht danach auf die hauptsächlichen Anwendungen der automatischen Klassifikation von Textdokumenten, maschinelle Lernverfahren und Techniken der Dimensionsreduktion bei der Indexierung ein. Zwei weitere Unterkapitel sind der Erstellung von Klassifikatoren und den Methoden für deren Auswertung gewidmet. Das Kapitel wird abgerundet von einer kurzen Auflistung einiger Softwareprodukte für automatisches Klassifizieren, die sowohl kommerzielle Software, als auch Projekte aus dem Open-Source-Bereich umfasst. Der Hauptteil des Buches ist den großen Projekten zur automatischen Erschließung von Webdokumenten gewidmet, die von OCLC (Scorpion) sowie an den Universitäten Lund (Nordic WAIS/WWW, DESIRE II), Wolverhampton (WWLib-TOS, WWLib-TNG, Old ACE, ACE) und Oldenburg (GERHARD, GERHARD II) durchgeführt worden sind. Der Autor beschreibt hier sehr detailliert - wobei der Detailliertheitsgrad unterschiedlich ist, je nachdem, was aus der Projektdokumentation geschlossen werden kann - die jeweilige Zielsetzung des Projektes, die verwendete Klassifikation, die methodische Vorgehensweise sowie die Evaluierungsmethoden und -ergebnisse. Sofern Querverweise zu anderen Projekten bestehen, werden auch diese besprochen. Der Verfasser geht hier sehr genau auf wichtige Aspekte wie Vokabularbildung, Textaufbereitung und Gewichtung ein, so dass der Leser eine gute Vorstellung von den Ansätzen und der möglichen Weiterentwicklung des Projektes bekommt. In einem weiteren Kapitel wird auf einige kleinere Projekte eingegangen, die dem für Bibliotheken besonders interessanten Thema des automatischen Klassifizierens von Büchern sowie den Bereichen Patentliteratur, Mediendokumentation und dem Einsatz bei Informationsdiensten gewidmet sind. Die Darstellung wird ergänzt von einem Literaturverzeichnis mit über 250 Titeln zu den konkreten Projekten sowie einem Abkürzungs- und einem Abbildungsverzeichnis. In der abschließenden Diskussion der beschriebenen Projekte wird einerseits auf die Bedeutung der einzelnen Projekte für den methodischen Fortschritt eingegangen, andererseits aber auch einiges an Kritik geäußert, v. a. bezüglich der mangelnden Auswertung der Projektergebnisse und des Fehlens an brauchbarer Dokumentation. So waren z. B. die Projektseiten des Projekts GERHARD (www.gerhard.de/) auf den Stand von 1998 eingefroren, zurzeit [11.07.06] sind sie überhaupt nicht mehr erreichbar. Mit einigem Erstaunen stellt Oberhauser auch fest, dass - abgesehen von der fast 15 Jahre alten Untersuchung von Larsen - »keine signifikanten Studien oder Anwendungen aus dem Bibliotheksbereich vorliegen« (S. 139). Wie der Autor aber selbst ergänzend ausführt, dürfte dies daran liegen, dass sich bibliografische Metadaten wegen des geringen Textumfangs sehr schlecht für automatische Klassifikation eignen, und dass - wie frühere Ergebnisse gezeigt haben - das übliche TF/IDF-Verfahren nicht für Katalogisate geeignet ist (ibd.).
  8. Usability praktisch umsetzen : Handbuch für Software, Web, Mobile Devices und andere interaktive Produkte (2003) 0.01
    0.012333581 = product of:
      0.024667162 = sum of:
        0.024667162 = product of:
          0.049334325 = sum of:
            0.049334325 = weight(_text_:z in 2017) [ClassicSimilarity], result of:
              0.049334325 = score(doc=2017,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.20639338 = fieldWeight in 2017, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2017)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.499 (W. Schweibenz): "Usability ist zu einem Trendthema geworden. Trotzdem gibt es nur relativ wenig deutschspra-chige Literatur zu diesem Thema, die einen umfassenden Überblick über die verschiedenen Aspekte der Thematik gibt. Mit Usability praktisch umsetzen ist eine umfassende, praxisorientierte Einführung in das Fachgebiet der Benutzerfreundlichkeit erschienen. In 18 Kapiteln behandeln Usability-Fachleute mit unterschiedlichen professionellen Hintergründen von Psychologie bis Informatik viele relevante Aspekte des Themas. Nach der Besprechung grundlegender Fragen und Aspekte wie Überzeugungsarbeit für Usability, Usability als Investition und der Rolle von Usability im Unternehmen und im Entwicklungsprozess, werden Fragen der Normung und Zertifizierung behandelt. Weiterhin werden verschiedene Methoden vorgestellt (z. B. Task-Analyse, Expertenevaluation, Fokusgruppen, Aufmerksamkeitsanalyse, Fragebogen) sowie handwerkliche und technische Aspekte (Einrichtung und Benutzung eines Usability-Labors, Rekrutierung von Testpersonen, Präsentieren von Ergebnissen, Usability for mobile Anwendungen und industrielle Applikationen) behandelt. Bei allen Beiträgen steht der praktische Bezug im Vordergrund; damit macht das Buch seinem Titel alle Ehre. Übersichtsblöcke, Praxistipps, Checklisten, Tabellen, die klare und übersichtliche Gliederung in kurze Kapitel und Unterkapitel sowie ein verständlicher Stil machen das Buch leicht lesbar und gut verständlich. Das Buch eignet sich sowohl für Einsteiger, die sich einen Überblick über das Fachgebiet verschaffen wollen, als auch für Fortgeschrittene, die ihr Wissen bezüglich einzelner Methoden oder Themenfelder vertiefen wollen. An einigen Stellen konnten Themen nur angerissen werden, zu denen sich interessierte Leser noch weitergehende Informationen erwartet hätten. Dies wird durch Literaturverweise und Zusatzhinweise auf der Website zum Buch teilweise kompensiert. Einige Kapitel werden stellvertretend vorgestellt, um einen weitergehenden Eindruck zu den 18 Beiträgen zu vermitteln. Im Kapitel 4 Usability im Unternehmen wird das komplexe Geflecht dargestellt, in dem der Usability-Spezialist im Unternehmen agiert und wie schwierig sich der tägliche Kampf mit Entwicklung, Produktmanagement und Marketing gestalten kann. Weiterhin wird das Tätigkeitsfeld des Usability-Experten dargestellt und die Aufgabenverteilung in einem Usability-Team. Ein Überblick über die Organisation von Projektteams und die Arbeit in international operierenden Firmen geben einen Eindruck von der praktischen Arbeit. Das Kapitel 5 Fachkollegen treffen gibt einen Überblick über die noch junge Usability-Gemeinschaft in Deutschland. Vorgestellt werden der deutsche UsabilityVerband, der Fachverband Mensch-Computer-Interaktion der Gesellschaft für Informatik sowie andere Verbände. Außerdem wird auf Stammtische und lokale Treffpunkte der Usability-Szene verwiesen und ein Überblick über die Fachkongresse gegeben. Eine kurze Beschreibung der relevanten Mailinglisten rundet das Kapitel ab. Im Kapitel 11 Aufmerksamkeitsanalyse das Verfahren der Blickmessung (Eye-Tracking) vorgestellt und sein Nutzen für die Praxis beschrieben. Ausgehend von der menschlichen Aufmerksamkeit und dem Wahrnehmungsapparat werden die Vorteile, aber auch die Nachteile und praktischen Probleme des Verfahrens anschaulich erklärt. Praxisbeispiele wie Blickmessung bei der Suche im Web oder bei der Arbeit mit Pull-Down-Menüs geben einen guten Eindruck von der Anwendung des Verfahrens. Gleichzeitig wird betont, dass das Verfahren relativ komplex ist und deshalb eher eine Marktnische für spezielle Anwendungsfelder darstellt. Dies mag dazu beitragen, den verbreiteten Hype um das Eye-Tracking zu relativieren."
  9. Schweibenz, W.: Vom traditionellen zum virtuellen Museum : die Erweiterung des Museums in den digitalen Raum des Internet (2008) 0.01
    0.012333581 = product of:
      0.024667162 = sum of:
        0.024667162 = product of:
          0.049334325 = sum of:
            0.049334325 = weight(_text_:z in 2773) [ClassicSimilarity], result of:
              0.049334325 = score(doc=2773,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.20639338 = fieldWeight in 2773, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2773)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: IWP 60(2009) H.2, S.118-118 (R. Scheffel): In seinem Werk beschäftigt sich Werner Schweibenz mit einem Themenfeld, das die Museen zunehmend umtreibt: ihre Repräsentanz im Internet und die Richtung, in die sie fortentwickelt werden sollte. Die Antwort von Schweibenz ist die Weiterentwicklung des traditionellen zum virtuellen Museum, das "auf der Basis von publikumsbezogen aufbereiteter digitaler Museumsinformation Ideen und Bedeutungen an heterogene Benutzergruppen" (S. 156) vermittelt. Durch Vermittlungsformen, die "eine selbstgesteuerte Bedeutungsproduktion" (S. 157) ermöglichen (wie z. B. das "digital story telling"), sollen die virtuellen Besucher "eigenständige Erfahrungen" (S. 156) machen können, indem sie nicht nur rezipieren, sondern selbst aktiv werden. Mit diesem (als Arbeitsdefinition formulierten) Ansatz sind die Museen, nach Schweibenz, gut aufgestellt, um sich in der Informationsgesellschaft als besondere Einrichtungen zu positionieren: Indem sie sich der neuen Formen für die Vermittlung kultureller Inhalte im Internet bedienen (Schweibenz meidet die Bezeichnung 'Web 2.0'), können sie anderen Konkurrenten auf dem Freizeitmarkt etwas substantiell Anderes entgegenstellen und durch eine konsequente Weiterentwicklung der Besucher- und Serviceorientierung neue Interessentengruppen für sich gewinnen. Auf dem Weg zum virtuellen Museum kann man unterschiedliche Entwicklungsstadien der Museumsrepräsentanzen im Internet unterscheiden, für die Schweibenz deduktiv Kategorien entwickelt hat: das "Broschürenmuseum", das "Inhaltsmuseum", das "Lernmuseum", das "Online-Museum" sowie die "Gedächtnisinstitution" (ohne den Zusatz 'virtuell' ist diese Bezeichnung allerdings ungeeignet, da sie traditionell bereits anders belegt ist). In der "Gedächtnisinstitution entfaltet sich nach Schweibenz das Potential des virtuellen Museums im Internet voll, indem digitale Sammlungen von Museen, Archiven und Bibliotheken in virtuelle Angebote integriert werden, die heutige Ansätze zu Domänen übergreifenden Portalen an Intensität der Vernetzung und Einladung zum explorativen Erkunden um ein Vielfaches übertreffen werden. Die Übergänge zwischen diesen Stufen beschreibt er in einem Kontinuummodell mit der Zunahme digitaler Inhalte, zunehmender Vernetzung und Virtualität (vgl. S. 164).
  10. Weinberger, D.: Everything is miscellaneous : the power of the new digital disorder (2007) 0.01
    0.012333581 = product of:
      0.024667162 = sum of:
        0.024667162 = product of:
          0.049334325 = sum of:
            0.049334325 = weight(_text_:z in 2862) [ClassicSimilarity], result of:
              0.049334325 = score(doc=2862,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.20639338 = fieldWeight in 2862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2862)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Human beings are information omnivores: we are constantly collecting, labeling, and organizing data. But today, the shift from the physical to the digital is mixing, burning, and ripping our lives apart. In the past, everything had its one place--the physical world demanded it--but now everything has its places: multiple categories, multiple shelves. Simply put, everything is suddenly miscellaneous. In Everything Is Miscellaneous, David Weinberger charts the new principles of digital order that are remaking business, education, politics, science, and culture. In his rollicking tour of the rise of the miscellaneous, he examines why the Dewey decimal system is stretched to the breaking point, how Rand McNally decides what information not to include in a physical map (and why Google Earth is winning that battle), how Staples stores emulate online shopping to increase sales, why your children's teachers will stop having them memorize facts, and how the shift to digital music stands as the model for the future in virtually every industry. Finally, he shows how by "going miscellaneous," anyone can reap rewards from the deluge of information in modern work and life. From A to Z, Everything Is Miscellaneous will completely reshape the way you think--and what you know--about the world.
  11. Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009) 0.01
    0.012333581 = product of:
      0.024667162 = sum of:
        0.024667162 = product of:
          0.049334325 = sum of:
            0.049334325 = weight(_text_:z in 3586) [ClassicSimilarity], result of:
              0.049334325 = score(doc=3586,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.20639338 = fieldWeight in 3586, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3586)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Web Analytics bezeichnet die Sammlung, Analyse und Auswertung von Daten der Website-Nutzung mit dem Ziel, diese Informationen zum besseren Verständnis des Besucherverhaltens sowie zur Optimierung der Website zu nutzen. Je nach Ziel der eigenen Website - z.B. die Vermittlung eines Markenwerts oder die Vermehrung von Kontaktanfragen, Bestellungen oder Newsletter-Abonnements - können Sie anhand von Web Analytics herausfinden, wo sich Schwachstellen Ihrer Website befinden und wie Sie Ihre eigenen Ziele durch entsprechende Optimierungen besser erreichen. Dabei ist Web Analytics nicht nur für Website-Betreiber und IT-Abteilungen interessant, sondern wird insbesondere auch mehr und mehr für Marketing und Management nutzbar. Mit diesem Buch lernen Sie, wie Sie die Nutzung Ihrer Website analysieren. Sie können z. B. untersuchen, welche Traffic-Quelle am meisten Umsatz bringt oder welche Bereiche der Website besonders häufig genutzt werden und vieles mehr. Auf diese Weise werden Sie Ihre Besucher, ihr Verhalten und ihre Motivation besser kennen lernen, Ihre Website darauf abstimmen und somit Ihren Erfolg steigern können. Um aus Web Analytics einen wirklichen Mehrwert ziehen zu können, benötigen Sie fundiertes Wissen. Marco Hassler gibt Ihnen in seinem Buch einen umfassenden Einblick in Web Analytics. Er zeigt Ihnen detailliert, wie das Verhalten der Besucher analysiert wird und welche Metriken Sie wann sinnvoll anwenden können. Im letzten Teil des Buches zeigt Ihnen der Autor, wie Sie Ihre Auswertungsergebnisse dafür nutzen, über Conversion-Messungen die Website auf ihre Ziele hin zu optimieren. Ziel dieses Buches ist es, konkrete Web-Analytics-Kenntnisse zu vermitteln und wertvolle praxisorientierte Tipps zu geben. Dazu schlägt das Buch die Brücke zu tangierenden Themenbereichen wie Usability, User-Centered-Design, Online Branding, Online-Marketing oder Suchmaschinenoptimierung. Marco Hassler gibt Ihnen klare Hinweise und Anleitungen, wie Sie Ihre Ziele erreichen.
  12. Calvin, W.H.: ¬Der Sprache des Gehirns : Wie in unserem Bewußtsein Gedanken entstehen (2002) 0.01
    0.012135447 = product of:
      0.024270894 = sum of:
        0.024270894 = product of:
          0.048541788 = sum of:
            0.048541788 = weight(_text_:22 in 1161) [ClassicSimilarity], result of:
              0.048541788 = score(doc=1161,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.30952093 = fieldWeight in 1161, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1161)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    11.11.2002 14:30:22
  13. Henrich, A.: Information Retrieval : Grundlagen, Modelle und Anwendungen (2008) 0.01
    0.012135447 = product of:
      0.024270894 = sum of:
        0.024270894 = product of:
          0.048541788 = sum of:
            0.048541788 = weight(_text_:22 in 1525) [ClassicSimilarity], result of:
              0.048541788 = score(doc=1525,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.30952093 = fieldWeight in 1525, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1525)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 8.2015 21:23:08
  14. Traiser, W.: SWD-Sachgruppen : Leitfaden zu ihrer Vergabe (2000) 0.01
    0.012135447 = product of:
      0.024270894 = sum of:
        0.024270894 = product of:
          0.048541788 = sum of:
            0.048541788 = weight(_text_:22 in 2280) [ClassicSimilarity], result of:
              0.048541788 = score(doc=2280,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.30952093 = fieldWeight in 2280, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2280)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 3.2008 18:09:52
  15. ¬The Eleventh Text Retrieval Conference, TREC 2002 (2003) 0.01
    0.012135447 = product of:
      0.024270894 = sum of:
        0.024270894 = product of:
          0.048541788 = sum of:
            0.048541788 = weight(_text_:22 in 4049) [ClassicSimilarity], result of:
              0.048541788 = score(doc=4049,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.30952093 = fieldWeight in 4049, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4049)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Proceedings of the llth TREC-conference held in Gaithersburg, Maryland (USA), November 19-22, 2002. Aim of the conference was discussion an retrieval and related information-seeking tasks for large test collection. 93 research groups used different techniques, for information retrieval from the same large database. This procedure makes it possible to compare the results. The tasks are: Cross-language searching, filtering, interactive searching, searching for novelty, question answering, searching for video shots, and Web searching.
  16. Alex, H.; Betz, A.; Heiner-Freiling, M.; Jackenkroll, M.; Mengel, T.; Preuss, M.: Dewey-Dezimalklassifikation : DDC 22 Deutsch. Übersichten (2005) 0.01
    0.012135447 = product of:
      0.024270894 = sum of:
        0.024270894 = product of:
          0.048541788 = sum of:
            0.048541788 = weight(_text_:22 in 4554) [ClassicSimilarity], result of:
              0.048541788 = score(doc=4554,freq=8.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.30952093 = fieldWeight in 4554, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4554)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Dewey-Dezimalklassifikation (DDC) ist Ende 2003 in der 22. Ausgabe der Standard Edition auf Englisch erschienen und wird genau zwei Jahre später nun auch auf Deutsch veröffentlicht. Nach Übersetzungen ins Französische, Italienische, Russische und Spanische ist unter Beteiligung der drei deutschsprachigen Länder und mit Unterstützung durch die Deutsche Forschungsgemeinschaft die Voraussetzung dafür geschaffen worden, dass diese international weit verbreitete Klassifikation auch in Deutschland, Österreich und der Schweiz heimisch werden kann. Die hier vorgelegten Übersichten, die die drei obersten Ebenen oder 1 000 Klassen der DDC umfassen, ermöglichen einen Einblick in die Gliederung der gesamten Klassifikation und sind in dieser Form für Bibliotheken und wissenschaftliche Einrichtungen frei verfügbar, während die tieferen Ebenen der DDC durch das Urheberrecht geschützt sind. Die vollständige Ausgabe der DDC 22 Deutsch erscheint 2005 im Verlag K. G. Saur. Mit dem Webservice Melvil bietet Die Deutsche Bibliothek ab Januar 2006 eine deutsche Version von WebDewey an, ergänzt um ein Recherchetool für das Retrieval DDC-erschlossener Daten. Die DDC 22 ist von einer an der Fachhochschule Köln angesiedelten Arbeitsgruppe ins Deutsche übersetzt worden, unterstützt von einemTeam von Fachreferentinnen und Fachreferenten an zahlreichen Bibliotheken des deutschen Sprachraums und fachlich beraten von der Expertengruppe DDC Deutsch. Die organisatorische Leitung des Projekts DDC Deutsch lag bei Der Deutschen Bibliothek als federführendem Mitglied des Konsortiums DDC Deutsch. Ab 2006 wird die Deutsche Nationalbibliografie vollständige DDC-Notationen mitliefern, bereits seit Bibliografiejahrgang 2004 folgen die Sachgruppen der Deutschen Nationalbibliografie einer auf den beiden obersten Ebenen der DDC basierenden Gliederung. Die hier vorgelegte Übersetzung der DDC wurde mit der Herausgeberin der DDC, Joan Mitchell (OCLC, Dublin/Ohio) und ihren Mitherausgebern an der Library of Congress abgestimmt, denen wir für ihre Unterstützung und Beratung herzlich danken. Die kurze Einführung in die Dewey-Dezimalklassifikation, die hier folgt, stellt das gesamte System der DDC vor, das mit seinen Haupt- und Hilfstafeln mehr als 60 000 Klassen umfasst. Die Möglichkeiten zur Erschließung differenzierterThemen gehen daher weit über die hier vorgelegten obersten Klassen der DDC hinaus und berücksichtigen viele moderne Teildisziplinen, die man in den Übersichten vielleicht vermisst. Bei der Verwendung der Übersichten ist zu beachten, dass aus drucktechnischen Gründen in einigen Fällen Klassen nur verkürzt wiedergegeben werden können und nur durch ihre Position innerhalb einer Folge von Klassen genau zu verstehen sind. Daher sollten für die Erschließung auch die vollständigen Klassenbenennungen herangezogen werden, die unter www.ddc-deutsch.de im Netz zur Verfügung stehen.
  17. Rawls, J.: Gerechtigkeit als Fairneß : ein Neuentwurf (2006) 0.01
    0.012135447 = product of:
      0.024270894 = sum of:
        0.024270894 = product of:
          0.048541788 = sum of:
            0.048541788 = weight(_text_:22 in 3585) [ClassicSimilarity], result of:
              0.048541788 = score(doc=3585,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.30952093 = fieldWeight in 3585, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3585)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 4.2017 13:20:17
  18. Kleinwächter, W.: Macht und Geld im Cyberspace : wie der Weltgipfel zur Informationsgesellschaft (WSIS) die Weichen für die Zukunft stellt (2004) 0.01
    0.0107263215 = product of:
      0.021452643 = sum of:
        0.021452643 = product of:
          0.042905286 = sum of:
            0.042905286 = weight(_text_:22 in 145) [ClassicSimilarity], result of:
              0.042905286 = score(doc=145,freq=4.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.27358043 = fieldWeight in 145, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=145)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    20.12.2006 18:22:32
    Isbn
    3-936931-22-4
  19. Sehgal, R.L.: ¬An introduction to Dewey Decimal Classification (2005) 0.01
    0.0107263215 = product of:
      0.021452643 = sum of:
        0.021452643 = product of:
          0.042905286 = sum of:
            0.042905286 = weight(_text_:22 in 1467) [ClassicSimilarity], result of:
              0.042905286 = score(doc=1467,freq=4.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.27358043 = fieldWeight in 1467, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1467)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    28. 2.2008 17:22:52
    Object
    DDC-22
  20. Fensel, D.: Ontologies : a silver bullet for knowledge management and electronic commerce (2004) 0.01
    0.0107263215 = product of:
      0.021452643 = sum of:
        0.021452643 = product of:
          0.042905286 = sum of:
            0.042905286 = weight(_text_:22 in 1949) [ClassicSimilarity], result of:
              0.042905286 = score(doc=1949,freq=4.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.27358043 = fieldWeight in 1949, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1949)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Classification
    004.67/8 22
    DDC
    004.67/8 22

Languages

  • d 110
  • e 75
  • m 1
  • More… Less…

Types

  • s 60
  • i 5
  • el 2
  • n 1
  • x 1
  • More… Less…

Subjects

Classifications