Search (596 results, page 30 of 30)

  • × type_ss:"m"
  • × year_i:[2000 TO 2010}
  1. Ingwersen, P.; Järvelin, K.: ¬The turn : integration of information seeking and retrieval in context (2005) 0.00
    0.0012860838 = product of:
      0.0025721677 = sum of:
        0.0025721677 = product of:
          0.007716503 = sum of:
            0.007716503 = weight(_text_:h in 1323) [ClassicSimilarity], result of:
              0.007716503 = score(doc=1323,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.06862386 = fieldWeight in 1323, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1323)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2, S.81-83 (O. Oberhauser): "Mit diesem Band haben zwei herausragende Vertreter der europäischen Informationswissenschaft, die Professoren Peter Ingwersen (Kopenhagen) und Kalervo Järvelin (Tampere) ein Werk vorgelegt, das man vielleicht dereinst als ihr opus magnum bezeichnen wird. Mich würde dies nicht überraschen, denn die Autoren unternehmen hier den ambitionierten Versuch, zwei informations wissenschaftliche Forschungstraditionen, die einander bisher in eher geringem Ausmass begegneten, unter einem gesamtheitlichen kognitiven Ansatz zu vereinen - das primär im sozialwissenschaftlichen Bereich verankerte Forschungsgebiet "Information Seeking and Retrieval" (IS&R) und das vorwiegend im Informatikbereich angesiedelte "Information Retrieval" (IR). Dabei geht es ihnen auch darum, den seit etlichen Jahren zwar dominierenden, aber auch als zu individualistisch kritisierten kognitiven Ansatz so zu erweitern, dass technologische, verhaltensbezogene und kooperative Aspekte in kohärenter Weise berücksichtigt werden. Dies geschieht auf folgende Weise in neun Kapiteln: - Zunächst werden die beiden "Lager" - die an Systemen und Laborexperimenten orientierte IR-Tradition und die an Benutzerfragen orientierte IS&R-Fraktion - einander gegenübergestellt und einige zentrale Begriffe geklärt. - Im zweiten Kapitel erfolgt eine ausführliche Darstellung der kognitiven Richtung der Informationswissenschaft, insbesondere hinsichtlich des Informationsbegriffes. - Daran schliesst sich ein Überblick über die bisherige Forschung zu "Information Seeking" (IS) - eine äusserst brauchbare Einführung in die Forschungsfragen und Modelle, die Forschungsmethodik sowie die in diesem Bereich offenen Fragen, z.B. die aufgrund der einseitigen Ausrichtung des Blickwinkels auf den Benutzer mangelnde Betrachtung der Benutzer-System-Interaktion. - In analoger Weise wird im vierten Kapitel die systemorientierte IRForschung in einem konzentrierten Überblick vorgestellt, in dem es sowohl um das "Labormodell" als auch Ansätze wie die Verarbeitung natürlicher Sprache und Expertensysteme geht. Aspekte wie Relevanz, Anfragemodifikation und Performanzmessung werden ebenso angesprochen wie die Methodik - von den ersten Laborexperimenten bis zu TREC und darüber hinaus.
  2. Wissensgesellschaft : Neue Medien und ihre Konsequenzen (2004) 0.00
    0.0012860838 = product of:
      0.0025721677 = sum of:
        0.0025721677 = product of:
          0.007716503 = sum of:
            0.007716503 = weight(_text_:h in 3988) [ClassicSimilarity], result of:
              0.007716503 = score(doc=3988,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.06862386 = fieldWeight in 3988, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3988)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Editor
    Kübler, H.-D. u. E. Elling
  3. McCorduck, P.: Machines who think : a personal inquiry into the history and prospects of artificial intelligence (2004) 0.00
    0.0012860838 = product of:
      0.0025721677 = sum of:
        0.0025721677 = product of:
          0.007716503 = sum of:
            0.007716503 = weight(_text_:h in 4335) [ClassicSimilarity], result of:
              0.007716503 = score(doc=4335,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.06862386 = fieldWeight in 4335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4335)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in. Spektrum der Wissenschaft. 2005, H.4, S.106-108 (A. Leßmöllmann): "Bereits im Titel steckt Stoff für ein paar grüblerische Nachmittage: »Maschinen, die denken«, provokant mit dem englischen Relativpronomen »who« formuliert, das doch für Belebtes, sogar Vernunftbegabtes reserviert ist. Denken Maschinen denn? Ja, sagt Pamela McCorduck in ihrer Nacherzählung der Geschichte der künstlichen Intelligenz (KI). Fußball spielende Roboter, Schach spielende Computerprogramme, »Such-Bots«, die auf kluge Weise Datenbanken durchstöbern - das sind alles Denker. Allerdings nutzen sie ihre künstlichen Hirne auf eigene Art. Maschinendenken kann ganz anders ablaufen als Menschendenken und trotzdem Denken sein, so das Credo der Autorin. Um das zu zeigen, entfacht sie ein DenkmaschinenFeuerwerk: Sie hat klug beobachtet, kennt die KI-Szene (zumindest in den USA) und nimmt uns mit auf eine unterhaltsame Reise durch die Geschichte der KI-Tüftelei. Eine Reise, die für sie mit der alten Frage verknüpft ist, wie wir Wissen sammeln, mit Maschinen spielen, denkende Maschinen zu unseren Gefährten machen: Bereits der hinkende Schmied und Zeussohn Hephaistos hatte intelligente Blasebälge, die ihm aufs Wort gehorchten. McCorduck berichtet vom Enthusiasmus der Pioniere wie des Kybernetikers Norbert Wiener (1894-1964) und des Mathematikers John von Neumann (1903-1957), auf den die Idee eines gespeicherten Computerprogramms zurückgeht; beide sahen sich durchaus in der Tradition eines Rabbi Löw (1520-1609), der im frühneuzeitlichen Prag den Golem erschuf. Sie erzählt von der folgenschweren Dartmouth-Konferenz 1956, bei der Marvin Minsky und andere, auch heute noch aktive Wortführer entschieden: Ein künstliches Hirn kann wie ein menschliches arbeiten, ohne notwendigerweise wie ein solches gebaut zu sein. Künstliches Denken kann also auf algorithmischem Weg funktionieren - indem ein Programm Befehle ausführt, genauer: Symbole verarbeitet. Nebenbei erklärt McCorduck auch dem technisch unwilligen Leser, wie das legendäre »Psychotherapie«-Programm Eliza (das zwar unintelligent, aber überraschend wirkungsvoll plapperte) und all die anderen Maschinchen im Inneren ticken. Auch die Kritiker lässt sie zu Wort kommen, Joseph Weizenbaum beispielsweise, den schon der Erfolg seiner Eliza ängstigte: Offenbar seien Menschen viel zu schnell bereit, in Maschinen Intelligenz - sogar Gefühl! - zu vermuten, und deswegen sollten wir lieber die Finger von der KI lassen, um uns nicht selbst eine Falle zu stellen. Das ist alles wunderbar durchdacht und mit Herzblut berichtet. Allerdings nicht neu: Der größte Teil des Buchs er schien bereits 1981, wurde in den USA ein Bestseller und in viele Sprachen übersetzt, auch ins Deutsche (»Denkmaschinen«).
  4. Bunge, M.; Mahner, M.: Über die Natur der Dinge : Materialismus und Wissenschaft (2004) 0.00
    0.0012860838 = product of:
      0.0025721677 = sum of:
        0.0025721677 = product of:
          0.007716503 = sum of:
            0.007716503 = weight(_text_:h in 4437) [ClassicSimilarity], result of:
              0.007716503 = score(doc=4437,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.06862386 = fieldWeight in 4437, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4437)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2006, H.2, S.100-101 (O. Walkenhorst): "Um seinen Zeitgenossen die Furcht vor den Göttern und dem Tod zu nehmen, verfasste der römische Dichter und Philosoph Lukrez (97-55 v. Chr.) sein von der materialistischen Atomlehre der griechischen Antike geprägtes Lehrgedicht "De rerum natura" (»Über die Natur der Dinge«) - und wurde so zu einem einflussreichen Popularisierer eines aufgeklärten wissenschaftlichen Weltbildes. Mit dem respektvoll von Lukrez entlehnten Titel erinnern der argentinische Physiker und Philosoph Mario Bunge und der Biologe Martin Mahner an diese alte materialistische Tradition. In erster Linie aber wollen sie einen breiten Leserkreis vom modernen Materialismus überzeugen. Warum ist ihnen das wichtig? Erstens versuchen sie zu zeigen, dass nur der Materialismus konsistente philosophische Voraussetzungen für die Realwissen schaften schaffen kann, obwohl deren Vertreter sich nicht einmütig zu ihm bekennen und manchmal sogar glauben, ganz ohne Philosophie auskommen zu können. Zweitens wollen sie das emanzipatorische Potenzial des Materialismus konsequent nutzbar machen und so Argumente gegen Pseudowissenschaft, Religion und Esoterik liefern. Seit der Antike stehen sieh mit dem Idealismus und dem Materialismus zwei radikal verschiedene philosophische Weltbilder gegenüber. Dabei geht es grob gesprochen um die Frage, ob ausschließlich das Geistig-Ideelle oder ausschließlich das Materielle real existiert. Als Materialisten vertreten Bunge und Mahner den zweiten Standpunkt; aber auch der Materialismus kennt noch zahlreiche Spielarten. Die Autoren grenzen sich insbesondere vom Physikalismus und vorn Dialektischen Materialismus ab: An Ersterem kritisieren sie die reduktionistische These, die Welt könne allein von der Physik her erklärt werden; bei Letzterem nehmen sie Anstoß an einigen der so genannten Gesetze der Dialektik. Ein Objekt ist nach Bunge und Mahner genau dann materiell - und damit real existent -, wenn es veränderbar ist, das heißt, wenn der Wert mindestens einer Eigenschaft des Objekts sich im Lauf der Zeit ändern kann. Dieses Kriterium ist brauchbarer als andere häufig verwendete Kriterien wie sinnliche Wahrnehmbarkeit, Massehaltigkeit oder raumzeitliche Lokalisierbarkeit. Auf diese Weise können nämlich unter anderem auch elektromagnetische Felder als materiell angesehen werden. Energie gilt nicht als immateriell, da sie als Eigenschaft materieller Objekte interpretiert wird. Die von Bunge und Mahner vertretene Form des Materialismus heißt »emergentistisch« und ist charakterisiert durch eine starke Betonung des Systemgedankens: Jedes Ding ist ein System oder Bestandteil eines Systems. Und Systeme haben emergente Eigenschaften, das sind solche, die keiner der Bestandteile des Systems besitzt. Als Paradebeispiele gelten die Flüssigkeit von Wasser (einzelne Moleküle sind nicht flüssig) oder die Lebendigkeit einer Zelle (einzelne Moleküle sind nicht lebendig). Die Existenzweise des Geistig-Ideellen, also abstrakter Objekte wie Zahlen oder mythologischer Personen, ist für Materialisten meist eine harte Nuss. Die Autoren verstehen abstrakte Objekte als Äquivalenzklassen von möglichen Gedanken, das heißt als das, was ähnlichen Gedanken, die in verschiedenen Gehirnen gedacht werden können, gemeinsam ist. Abstrakten Objekten kommt daher bloß der Status der fiktiven Existenz zu, die gleichsam zeitlos ist, da sich in Wirklichkeit immer nur die denkenden Gehirne verändern. Gemäß dieser Auflassung gibt es keine Gedanken ohne denkende Gehirne und somit auch keine Ideen im Sinne Platons, die in einem »idealen Begriffs-Steinbruch« abgebaut werden könnten. In diesem Zusammenhang lehnen die Autoren auch die bei Naturwissenschaftlern und Hobbyphilosophen beliebte Drei-Welten-Lehre von Popper als »Monster traditioneller Metaphysik« ab.
  5. Web intelligence: research and development : First Asia-Pacific Conference, WI 2001, Maebashi City, Japan, Oct. 23-26, 2001, Proceedings (2003) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 1832) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=1832,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 1832, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1832)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.378-379 (T. Mandl): "Im Oktober 2001 fand erstmals eine Tagung mit dem Titel "Web Intelligence" statt. Ist dies nun eine neue Disziplin oder der Versuch analog zu "Artificial Intelligence" und "Computational Intelligence" ein neues Modewort zu kreieren? Geht es um den Einsatz sogenannter intelligenter Verfahren, um mit dem Internet umgehen zu können oder erscheint das Internet als "emerging global brain" (Goertzel 2002), also als eine unerschöpfliche Quelle von Wissen, die nur geschickt ausgebeutet werden muss? Kommt also die Intelligenz aus dem Web oder dient die Intelligenz als Werkzeug für das Web? Der Tagungsband ist seit Anfang 2003 verfügbar und bietet nun den Anlass, diesen Begriff anhand der darin präsentierten Inhalte zu bewerten. Die Herausgeber führen in ihrem einleitenden Artikel gleich die Abkürzung WI ein und versuchen tatsächlich "Web Intelligence" als neue Sub-Disziplin der Informatik zu etablieren. Zu diesem Zweck greifen sie auch auf die Anzahl der Nachweise für diese Phrase in Suchmaschinen zu. Zwar lieferten die Systeme angeblich Zahlen von über einer Million (S. 4), aber dies überzeugt sicher noch niemanden, das Studium der WI aufzunehmen. Allerdings weist dieses Vorgehen schon auf einen Kern der WI hin: man versucht, aus dem im Web gespeicherten Wissen neues Wissen zu generieren. Damit wäre man sehr nahe am Data oder eben Web-Mining, jedoch geht die Definition der Autoren darüber hinaus. Sie wollen WI verstanden wissen als die Anwendung von Künstlicher Intelligenz sowie Informationstechnologie im Internet (S. 2). Da nun Künstliche Intelligenz bei allen Meinungsverschiedenheiten sicherlich nicht ohne Informationstechnologie denkbar ist, wirkt die Definition nicht ganz überzeugend. Allerdings beschwichtigen die Autoren im gleichen Atemzug und versichern, diese Definition solle ohnehin keine Forschungsrichtung ausschließen. Somit bietet sich eher eine Umfangsdefinition an. Diese solle die wichtigsten Stoßrichtungen des Buchs und damit auch der Tagung umfassen. Als Ausgangspunkt dient dazu auch eine Liste der Herausgeber (S. 7f.), die hier aber etwas modifiziert wird: - Grundlagen von Web Informationssystemen (Protokolle, Technologien, Standards) - Web Information Retrieval, WebMining und Farming - Informationsmanagement unter WebBedingungen - Mensch-Maschine Interaktion unter Web-Bedingungen (hier "HumanMedia Engineering" S. XII) Eine grobe Einteilung wie diese ist zwar übersichtlich, führt aber zwangsläufig zu Ouerschnittsthemen. In diesem Fall zählt dazu das Semantic Web, an dem momentan sehr intensiv geforscht wird. Das Semantic Web will das Unbehagen mit der Anarchie im Netz und daraus folgenden Problemen für die Suchmaschinen überwinden, indem das gesamte Wissen im Web auch explizit als solches gekennzeichnet wird. Tauchen auf einer WebSeite zwei Namen auf und einer ist der des Autors und der andere der eines Sponsors, so erlauben neue Technologien, diese auch als solche zu bezeichnen. Noch wichtiger, wie in einer Datenbank sollen nun Abfragen möglich sein, welche andere Seiten aus dem Web liefen, die z.B. den gleichen Sponsor, aber einen anderen Autor haben. Dieser Thematik widmen sich etwa Hendler & Feigenbaum. Das Semantic Web stellt ein Ouerschnittsthema dar, da dafür neue Technologien (Mizoguchi) und ein neuartiges Informationsmanagement erforderlich sind (z.B. Stuckenschmidt & van Harmelen), die Suchverfahren angepasst werden und natürlich auch auf die Benutzer neue Herausforderungen zukommen. Diesem Aspekt, inwieweit Benutzer solche Anfragen überhaupt stellen werden, widmet sich in diesem Band übrigens niemand ernsthaft. Im Folgenden sollen die einzelnen Themengebiete anhand der im Band enthaltenen Inhalte näher bestimmt werden, bevor abschließend der Versuch eines Resümees erfolgt.
  6. Booth, P.F.: Indexing : the manual of good practice (2001) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 1968) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=1968,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 1968, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1968)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
  7. Pace, A.K.: ¬The ultimate digital library : where the new information players meet (2003) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 3198) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=3198,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 3198, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3198)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez.: ZfBB 52(2005) H.1, S.52-53 (N. Lossau: "Service-Gedanke Digitale Bibliotheken gehören heute bereits zum selbstverständlichen Vokabular von Bibliothekaren und es gibt wohl kaum einen Internetauftritt von Bibliotheken, der nicht eine Digitale Bibliothek beinhaltet. Fast ebenso vielfältig wie die Vorkommen sind auch die Ausprägungen und Definitionen von Digitalen Bibliotheken, weshalb man mit einer Mischung aus Interesse und Skepsis das vorliegende Buch in die Hand nimmt. »The ultimate digital library«, ein ambitionierter Titel, vom Autor und der American Library Association, in deren Reihe die Publikation erschienen ist, wohl nicht zuletzt aus Marketinggründen wohlbedacht gewählt, suggeriert dem Leser, dass hier die vollendete, perfekte Form einer Digitalen Bibliothek beschrieben wird, die sich seit den goer Jahren mit rasantem Tempo entwickelt hat. Es dauert eine ganze Weile, bis der Leser auf die Definition von Pace stößt, die sich als roter Faden durch sein Werk zieht: »The digital library - a comprehensive definition will not be attempted here - encompasses not only collections in digital form, but digital services that continue to define the library as a place.« (S.73) Pace konzentriert sich auf den ServiceAspekt von Digitalen Bibliotheken und zielt damit auf eine Entwicklung ab, die in der Tat als zukunftsweisend für Bibliotheken und Digitale Bibliotheken zu gelten hat. Zu lange haben Bibliotheken sich schwerpunktmäßig auf die digitalen Sammlungen und ihre Produktion (durch Digitalisierung) oder Kauf und Lizenzierung konzentriert, wie Pace zu Recht an der gleichen Stelle beklagt. Die Zukunft mussfür Bibliotheken in der Entwicklung und Bereitstellung von digitalen Services liegen, die den Endnutzern einen echten Mehrwert zu bieten haben. Darin liegt sein Verständnis einer ultimativen Digitalen Bibliothek begründet, ohne dass er die Definition ausführlicher thematisiert. Pace räumt in diesem Zusammenhang auch mit einem Mythos auf, der die Digitalen Bibliotheken lediglich als »Hilfsdienste« einer traditionellen Bibliothek betrachtet. Wesentlich sympathischer und realistischer erscheint dem Leser die folgende Charakterisierung des Verhältnisses: »The digital-traditional relationship is symbiotic, not parasitic: digital tools, services, and expertise exist to enhance the services and collections of libraries, not necessarily to replace them.« (S. 73) Kooperation mit SoftwareAnbietern Der inhaltliche Leitgedanke der digitalen Services ist auch eine ideale Basis für eine weitere Botschaft von Pace, die er mit seinem Buch vermitteln möchte: Bibliothekare und Anbietervon BibliotheksSoftware müssen bei der Entwicklung dieser Services eng zusammenarbeiten. Glaubt man dem Vorwort, dann stellt das Verhältnis von »libraries and vendors« [Bibliotheken und Anbietern] die Ausgangsthematik für die Publikation dar, wie sie von der American Library Association bei Pace in Auftrag gegeben wurde. Dieserverfügt offensichtlich über den geeigneten Erfahrungshintergrund, um eine solche Beschreibung abzuliefern. Nach seinem Studiumsabschluss als M.S.L.S. begann er seine berufliche Laufbahn zunächst für mehr als drei Jahre bei der Firma für Software zur Bibliotheksautomatisierung, Innovative Interfaces,woer unteranderem als Spezialist zur Produktintegration von z.B. WebPAC,Advanced Keyword Search arbeitete. Heute ist Pace »Head of Systems« an den North Carolina State University Libraries (Raleigh, N.C.) und ständiger Kolumnist in dem Magazin Computers in Libraries.
  8. Mandl, T.: Tolerantes Information Retrieval : Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche (2001) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 5965) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=5965,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 5965, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=5965)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.379-380 (U. Thiel): "Kannte G. Salton bei der Entwicklung des Vektorraummodells die kybernetisch orientierten Versuche mit assoziativen Speicherstrukturen? An diese und ähnliche Vermutungen, die ich vor einigen Jahren mit Reginald Ferber und anderen Kollegen diskutierte, erinnerte mich die Thematik des vorliegenden Buches. Immerhin lässt sich feststellen, dass die Vektorrepräsentation eine genial einfache Darstellung sowohl der im Information Retrieval (IR) als grundlegende Datenstruktur benutzten "inverted files" als auch der assoziativen Speichermatrizen darstellt, die sich im Laufe der Zeit Über Perzeptrons zu Neuronalen Netzen (NN) weiterentwickelten. Dieser formale Zusammenhang stimulierte in der Folge eine Reihe von Ansätzen, die Netzwerke im Retrieval zu verwenden, wobei sich, wie auch im vorliegenden Band, hybride Ansätze, die Methoden aus beiden Disziplinen kombinieren, als sehr geeignet erweisen. Aber der Reihe nach... Das Buch wurde vom Autor als Dissertation beim Fachbereich IV "Sprachen und Technik" der Universität Hildesheim eingereicht und resultiert aus einer Folge von Forschungsbeiträgen zu mehreren Projekten, an denen der Autor in der Zeit von 1995 bis 2000 an verschiedenen Standorten beteiligt war. Dies erklärt die ungewohnte Breite der Anwendungen, Szenarien und Domänen, in denen die Ergebnisse gewonnen wurden. So wird das in der Arbeit entwickelte COSIMIR Modell (COgnitive SIMilarity learning in Information Retrieval) nicht nur anhand der klassischen Cranfield-Kollektion evaluiert, sondern auch im WING-Projekt der Universität Regensburg im Faktenretrieval aus einer Werkstoffdatenbank eingesetzt. Weitere Versuche mit der als "Transformations-Netzwerk" bezeichneten Komponente, deren Aufgabe die Abbildung von Gewichtungsfunktionen zwischen zwei Termräumen ist, runden das Spektrum der Experimente ab. Aber nicht nur die vorgestellten Resultate sind vielfältig, auch der dem Leser angebotene "State-of-the-Art"-Überblick fasst in hoch informativer Breite Wesentliches aus den Gebieten IR und NN zusammen und beleuchtet die Schnittpunkte der beiden Bereiche. So werden neben den Grundlagen des Text- und Faktenretrieval die Ansätze zur Verbesserung der Adaptivität und zur Beherrschung von Heterogenität vorgestellt, während als Grundlagen Neuronaler Netze neben einer allgemeinen Einführung in die Grundbegriffe u.a. das Backpropagation-Modell, KohonenNetze und die Adaptive Resonance Theory (ART) geschildert werden. Einweiteres Kapitel stellt die bisherigen NN-orientierten Ansätze im IR vor und rundet den Abriss der relevanten Forschungslandschaft ab. Als Vorbereitung der Präsentation des COSIMIR-Modells schiebt der Autor an dieser Stelle ein diskursives Kapitel zum Thema Heterogenität im IR ein, wodurch die Ziele und Grundannahmen der Arbeit noch einmal reflektiert werden. Als Dimensionen der Heterogenität werden der Objekttyp, die Qualität der Objekte und ihrer Erschließung und die Mehrsprachigkeit genannt. Wenn auch diese Systematik im Wesentlichen die Akzente auf Probleme aus den hier tangierten Projekten legt, und weniger eine umfassende Aufbereitung z.B. der Literatur zum Problem der Relevanz anstrebt, ist sie dennoch hilfreich zum Verständnis der in den nachfolgenden Kapitel oft nur implizit angesprochenen Designentscheidungen bei der Konzeption der entwickelten Prototypen. Der Ansatz, Heterogenität durch Transformationen zu behandeln, wird im speziellen Kontext der NN konkretisiert, wobei andere Möglichkeiten, die z.B. Instrumente der Logik und Probabilistik einzusetzen, nur kurz diskutiert werden. Eine weitergehende Analyse hätte wohl auch den Rahmen der Arbeit zu weit gespannt,
  9. Jeanneney, J.-N.: Googles Herausforderung : Für eine europäische Bibliothek (2006) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 46) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=46,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 46, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=46)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Weitere Rez. in: ZfBB 53(2006) H.3/4, S.215-217 (M. Hollender): "Die Aversion des Präsidenten der Französischen Nationalbibliothek, Jean-Noël Jeanneney, gegen die Pläne von Google zur Massendigitalisierung kann nach der breiten Erörterung in der Tagespresse als zumindest in Grundzügen bekannt vorausgesetzt werden. Nunmehr liegt seine im März 2005 entstandene »Kampfschrift« (S.7) aktualisiert und mit einem Nachwort von Klaus-Dieter Lehmann versehen, auch in einer deutschen Übersetzung vor. So viel vorab: selten erhält man für 9,90 Euro so wenig und zugleich so viel: so viel Polemik, Selbstpreisgabe und Emphase und so wenig konkrete strategisch weiterführende Ideen. Dem Leser fällt vor allem der plumpe Antiamerikanismus, der dem gesamten Büchlein zugrunde liegt, über kurz oder lang unangenehm auf. Jeanneney moniert die »unvermeidliche amerikanische Ichbezogenheit« (S. 9). Wer aber mag es Google verdenken, sein Projekt zunächst mit angloamerikanischen Bibliotheken zu starten? Die Bereitschaft der britischen Boolean Library, ihre exzellenten Bestände vor 1900 von Google ebenfalls digitalisieren zu lassen, wird von Jeanneney im Stile einer Verschwörungstheorie kommentiert: »Wieder einmal wurde uns die altbekannte angloamerikanische Solidarität vorgeführt.« (S.19) Mit derselben Emphase könnte man sich darüber freuen, dass Google sich der Bestände hochbedeutender Forschungsbibliotheken versichert - nicht aber Jeanneney. Fazit: die »US-Dominanz, die mit einer mehr oder weniger bewussten Arroganz einhergeht«, bewirke, dass »alles, was der amerikanischen Weltsicht widerspricht, aussortiert« werde (S. 23). Wer derart voreingenommen wie Jeanneney an die Google-Pläne herangeht, verbaut sich selber die Chancen auf eine konstruktive und kooperative Lösung des Google-Problems. ...
  10. Schwartz, D.: Einsatz und Leitbilder der Datenverarbeitung in Bibliotheken : dargestellt an ausgewählten Projekten der Deutschen Forschungsgemeinschaft (2004) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 1447) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=1447,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 1447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1447)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: ZfBB 52(2005) H.2, S.105-107 (R. Altenhöner):"In seiner 2003 am Institut für Bibliothekswissenschaft der Humboldt-Universität zu Berlin erstellten und angenommenen Dissertation untersucht Dieter Schwartz 30 Jahre Einsatz der Datenverarbeitung in Bibliotheken. Dabei interessieren ihn erklärtermaßen besonders die Leitbilder, die im historischen Rückblick auf die Zeit zwischen 1965 und 1995 zum Tragen kamen. Zugrunde gelegt hat er für dieses Unterfangen im Wesentlichen Projekte, die im Rahmen des Förderprogramms Modernisierung und Rationalisierung der Deutschen Forschungsgemeinschaft in diesem Zeitraum durchgeführt wurden. Inhalt und Vorgehen der Arbeit lassen sich wie folgt zusammenfassen: In einem ersten Teil wird nach einer sechsseitigen Einführung auf knapp 25 Seiten ein geschichtlicher Abriss der Datenverarbeitung gegeben, der sich im Wesentlichen auf allgemeine Grundlagenliteratur und einführende Handbücher stützt. Die folgenden rund 5o Seiten widmen sich dann dem eigentlichen Untersuchungsgegenstand: Schwartz zählt diverse Projekte aus der Laufzeit des Programms auf und bemüht sich darum,jede wertende Betrachtung zu unterlassen. Der Vorbereitung der eigentlichen kritischen Analyse dient das nächste Kapitel: Hierzu werden - auf wiederum knapp 25 Seiten ausgeführt - die Elemente »DFG, Projekte, Modernisierung und Rationalisierung sowie Innovation und Technik« herausgearbeitet und beschrieben, die Schwartz zu »geeigneten Betrachtungsgrößen« erklärt (S. 99). Das folgende Kapitel, »Kritische und vergleichende Betrachtung der beschriebenen Bibliotheksprojekte« stellt mit seinen 65 Seiten somit das eigentliche Herzstück der Arbeit dar. Hier sind die versprochenen Erkenntnisse aus dem Einleitungskapitel, nämlich »gegenwärtigen und zukünftigen Projekten der Datenverarbeitung die Ursprünge aufzuzeigen« (S. XI f) zu erwarten, da »das Studium der Vergangenheit ... der Gegenwart dienen und eine ergebnisreiche Zukunft vorbereiten« solle. Schwartz bietet außerdem als Dreingabe auf gut 25 Seiten eine zusammenfassende Betrachtung inklusive Ausblick auf die aktuellen Diskussionen, um abschließend nochmals eine Zusammenfassung auf nun einer Seite folgen zu lassen. Weitere rund 70 Seiten füllt der Anhang, der u.a. Förderrichtlinien der DFG, den DFG-Leitfaden für Antragsteller aus dem WWW übernimmt und abdruckt, einige aus sekundären Quellen übernommene Übersichten, ferner eine Auflistung der behandelten Projekte, einen Abschnitt mit Begriffsklärungen im Kontext von Bewertungsgrößen und Leistungsparametern und schließlich - neben dem ausführlichen Abkürzungs- und Literaturverzeichnis, das eine bunte und erkennbar höchst unterschiedlich intensiv in die Arbeit eingegangene Sammlung enthält - The-menvorschläge für weitere Arbeiten, auf die noch einmal zurückzukommen sein wird (S. 222 f). Ein Register fehlt bedauerlicherweise.
  11. Net effects : how librarians can manage the unintended consequenees of the Internet (2003) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 1796) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=1796,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 1796, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1796)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Unlike muck of the professional library literature, Net Effects is not an open-aimed embrace of technology. Block even suggests that it is helpful to have a Luddite or two an each library staff to identify the setbacks associated with technological advances in the library. Each of the book's 10 chapters deals with one Internet-related problem, such as "Chapter 4-The Shifted Librarian: Adapting to the Changing Expectations of Our Wired (and Wireless) Users," or "Chapter 8-Up to Our Ears in Lawyers: Legal Issues Posed by the Net." For each of these 10 problems, multiple solutions are offered. For example, for "Chapter 9-Disappearing Data," four solutions are offered. These include "Link-checking," "Have a technological disaster plan," "Advise legislators an the impact proposed laws will have," and "Standards for preservation of digital information." One article is given to explicate each of these four solutions. A short bibliography of recommended further reading is also included for each chapter. Block provides a short introduction to each chapter, and she comments an many of the entries. Some of these comments seem to be intended to provide a research basis for the proposed solutions, but they tend to be vague generalizations without citations, such as, "We know from research that students would rather ask each other for help than go to adults. We can use that (p. 91 )." The original publication dates of the entries range from 1997 to 2002, with the bulk falling into the 2000-2002 range. At up to 6 years old, some of the articles seem outdated, such as a 2000 news brief announcing the creation of the first "customizable" public library Web site (www.brarydog.net). These critiques are not intended to dismiss the volume entirely. Some of the entries are likely to find receptive audiences, such as a nuts-and-bolts instructive article for making Web sites accessible to people with disabilities. "Providing Equitable Access," by Cheryl H. Kirkpatrick and Catherine Buck Morgan, offers very specific instructions, such as how to renovate OPAL workstations to suit users with "a wide range of functional impairments." It also includes a useful list of 15 things to do to make a Web site readable to most people with disabilities, such as, "You can use empty (alt) tags (alt="') for images that serve a purely decorative function. Screen readers will skip empty (alt) tags" (p. 157). Information at this level of specificity can be helpful to those who are faced with creating a technological solution for which they lack sufficient technical knowledge or training.
  12. IFLA Cataloguing Principles : steps towards an International Cataloguing Code. Report from the 1st Meeting of Experts on an International Cataloguing Code, Frankfurt 2003 (2004) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 2312) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=2312,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 2312, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2312)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Weitere Rez. in: ZfBB 52(2005) H.3/4, S.227-228 (K. Haller): " ... Im Mittelpunkt der Publikation steht das revidierte Statement of International Cataloguing Principles. Es wendet sich mit seinen Grundsätzen gleichermaßen an Bibliografien und Bibliothekskataloge sowie Datensammlungen in Archiven, Museen und dergleichen Einrichtungen. Terminologisch und inhaltlich geht das Statement von den Functional Requirements for Bibliographic Records (FRBR) aus. Durch die Functional Requirements and Numbering of Authority Records (FRANAR) werden die Normdateien und die Sacherschließung in das Statement eingebracht. Die FRBR sind ein theoretisches Modell, ein strategisches Dokument, in dem durch die Entitäten die logischen Zusammenhänge dargestellt und damit die notwendi ge Erschließungsqualität definiert wird. Es geht um klare Grundsätze für Wahl, Anzahl und Art der Suchbegriffe (access points) und deren Beziehungen. ... Insgesamt ist die Publikation sehr zu begrüßen und als Pflichtlektüre allen Verantwortlichen im Erschließungsbereich und dem in Ausbildung befindlichen Nachwuchs dringend zu empfehlen."
  13. Broughton, V.: Essential thesaurus construction (2006) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 2924) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=2924,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 2924, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2924)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Mitt. VÖB 60(2007) H.1, S.98-101 (O. Oberhauser): "Die Autorin von Essential thesaurus construction (and essential taxonomy construction, so der implizite Untertitel, vgl. S. 1) ist durch ihre Lehrtätigkeit an der bekannten School of Library, Archive and Information Studies des University College London und durch ihre bisherigen Publikationen auf den Gebieten (Facetten-)Klassifikation und Thesaurus fachlich einschlägig ausgewiesen. Nach Essential classification liegt nun ihr Thesaurus-Lehrbuch vor, mit rund 200 Seiten Text und knapp 100 Seiten Anhang ein handliches Werk, das seine Genese zum Grossteil dem Lehrbetrieb verdankt, wie auch dem kurzen Einleitungskapitel zu entnehmen ist. Das Buch ist der Schule von Jean Aitchison et al. verpflichtet und wendet sich an "the indexer" im weitesten Sinn, d.h. an alle Personen, die ein strukturiertes, kontrolliertes Fachvokabular für die Zwecke der sachlichen Erschliessung und Suche erstellen wollen bzw. müssen. Es möchte dieser Zielgruppe das nötige methodische Rüstzeug für eine solche Aufgabe vermitteln, was einschliesslich der Einleitung und der Schlussbemerkungen in zwanzig Kapiteln geschieht - eine ansprechende Strukturierung, die ein wohldosiertes Durcharbeiten möglich macht. Zu letzterem tragen auch die von der Autorin immer wieder gestellten Übungsaufgaben bei (Lösungen jeweils am Kapitelende). Zu Beginn der Darstellung wird der "information retrieval thesaurus" von dem (zumindest im angelsächsischen Raum) weit öfter mit dem Thesaurusbegriff assoziierten "reference thesaurus" abgegrenzt, einem nach begrifflicher Ähnlichkeit angeordneten Synonymenwörterbuch, das gerne als Mittel zur stilistischen Verbesserung beim Abfassen von (wissenschaftlichen) Arbeiten verwendet wird. Ohne noch ins Detail zu gehen, werden optische Erscheinungsform und Anwendungsgebiete von Thesauren vorgestellt, der Thesaurus als postkoordinierte Indexierungssprache erläutert und seine Nähe zu facettierten Klassifikationssystemen erwähnt. In der Folge stellt Broughton die systematisch organisierten Systeme (Klassifikation/ Taxonomie, Begriffs-/Themendiagramme, Ontologien) den alphabetisch angeordneten, wortbasierten (Schlagwortlisten, thesaurusartige Schlagwortsysteme und Thesauren im eigentlichen Sinn) gegenüber, was dem Leser weitere Einordnungshilfen schafft. Die Anwendungsmöglichkeiten von Thesauren als Mittel der Erschliessung (auch als Quelle für Metadatenangaben bei elektronischen bzw. Web-Dokumenten) und der Recherche (Suchformulierung, Anfrageerweiterung, Browsing und Navigieren) kommen ebenso zur Sprache wie die bei der Verwendung natürlichsprachiger Indexierungssysteme auftretenden Probleme. Mit Beispielen wird ausdrücklich auf die mehr oder weniger starke fachliche Spezialisierung der meisten dieser Vokabularien hingewiesen, wobei auch Informationsquellen über Thesauren (z.B. www.taxonomywarehouse.com) sowie Thesauren für nicht-textuelle Ressourcen kurz angerissen werden.
  14. Morville, P.: Ambient findability : what we find changes who we become (2005) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 312) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=312,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 312, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=312)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 57(2006) H.3, S.177-178 (D. Lewandowski): "Wohl unbestritten ist, dass die Suche in Informationsbeständen eine immer größere Bedeutung erhält. Wir suchen nicht nur noch explizit, indem wir ein Informationssystem anwählen und dort eine Suche absetzen, sondern verwenden Suchfunktionen innerhalb von Programmen, auf Websites, innerhalb des Betriebssystems unseres Computers oder sogar ziemlich unbewusst, indem wir Informationen maßgeschneidert aufgrund einer einmal hinterlegten Suche oder eines automatisch erstellten Suchprofils erhalten. Man kann also in der Tat davon sprechen, dass wir von der Suche umgeben werden. Das ist mit dem Konzept der "Ambient Findability" gemeint. Angelehnt ist diese Bezeichnung an den Begriff der "Ambient Music" (in den 70er Jahren durch Brian Eno geprägt), die den Hörer umgibt und von ihm oft gar nicht aktiv wahrgenommen wird. Um eine Vorstellung von dieser Musik zu bekommen, eignet sich vielleicht am besten der Titel einer Platte eben von Brian Eno: "Music for Airports". Peter Morville, bekannt als Co-Autor des empfehlenswerten Buchs "Information Architecture for the World Wide Web"', hat sich nun mit der Veränderung der Suche auseinandergesetzt. Sein Buch bedient sich in ganz unterschiedlichen Disziplinen, um die Prozesse des Suchens, Stöberns und Findens aufzuzeigen. So finden sich Betrachtungen über die Orientierung des Menschen in unbekannten Umgebungen, über die Interaktion mit Informationssystemen, über das soziale Verhalten der Web-Nutzer (Stichworte: Content-Tagging, Folksonomies, Social Networking) und über technische Veränderungen durch die Verfügbarkeit von Informationssystemen in allen Lebenskontexten, vor allem auch über mobile Endgeräte. Das Buch ist in sieben Kapitel gegliedert. Das erste, "Lost and Found" betitelt, bietet auf wenigen Seiten die Definitionen der zentralen Begriffe ambient und findability, erläutert kurz das Konzept der Information Literacy und zeigt, dass die bessere Auffindbarkeit von Informationen nicht nur ein schöner Zusatznutzen ist, sondern sich für Unternehmen deutlich auszahlt.
  15. Batley, S.: Classification in theory and practice (2005) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 1170) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=1170,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 1170, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1170)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Weitere Rez. in: Mitt. VÖB 59(2006) H.1, S.58-60 (O. Oberhauser).
  16. Broughton, V.: Essential classification (2004) 0.00
    0.0010288671 = product of:
      0.0020577342 = sum of:
        0.0020577342 = product of:
          0.0061732023 = sum of:
            0.0061732023 = weight(_text_:h in 2824) [ClassicSimilarity], result of:
              0.0061732023 = score(doc=2824,freq=2.0), product of:
                0.11244635 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045260075 = queryNorm
                0.05489909 = fieldWeight in 2824, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2824)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Weitere Rez. in: ZfBB 53(2006) H.2, S.111-113 (W. Gödert)

Authors

Languages

  • d 360
  • e 212
  • m 9
  • es 2
  • f 1
  • i 1
  • More… Less…

Types

  • s 168
  • i 16
  • el 7
  • x 6
  • b 1
  • n 1
  • r 1
  • More… Less…

Themes

Subjects

Classifications