Search (9613 results, page 480 of 481)

  1. Verbaere, B.: Algorithmen sind der Schlüssel zur Effizienz : zehn Vorhersagen für das nächste Jahrzehnt, Flughäfen der Zukunft (2020) 0.00
    0.0030723677 = product of:
      0.0061447355 = sum of:
        0.0061447355 = product of:
          0.012289471 = sum of:
            0.012289471 = weight(_text_:5 in 5908) [ClassicSimilarity], result of:
              0.012289471 = score(doc=5908,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.08060187 = fieldWeight in 5908, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5908)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    5. Flughäfen denken eigenständig. Der Schlüssel zur Effizienz sind Algorithmen der künstlichen Intelligenz (KI), wobei eine ausgeklügelte KI zum Erfolgsrezept für Flughäfen wird. Flughäfen nutzen die Digital-Twin-Technologie, um den Echtzeitbetrieb für alle Interessenvertreter zu realisieren und die operative Effizienz sowie das Fluggasterlebnis zu verbessern. Ein Digital Twin ist eine fortgeschrittene Computersimulation, die Daten aus dem gesamten Flughafen- und Fluglinienbetrieb extrahiert, um mit ihrer Hilfe zu veranschaulichen, zu simulieren und vorherzusagen, was als Nächstes geschieht. Diese Prognosedaten werden anschließend dazu verwendet, betriebliche Aktivitäten zu bündeln und nach Möglichkeit zu automatisieren. Automatisierte Meldungen können beispielsweise so aussehen: "Aufgrund von Verspätung landen zwei A380 gleichzeitig: Dafür sorgen, dass genügend Personal an den Einreiseschaltern bereitsteht." Oder: "Negatives Feedback zu den Toiletten im zweiten Stock: Reinigungspersonal senden." Ein schneller Datenaustausch ermöglicht, dass man sich proaktiv auf jede Sachlage einstellen kann und Flughäfen und Fluggesellschaften besser, schneller und genauer planen. 6. Zusammenarbeit wird der Schlüssel zum Erfolg. Für jede einzelne Reise gibt es mindestens zehn unterschiedliche Einheiten, die an der erfolgreichen praktischen Umsetzung beteiligt sind. Die einzige Möglichkeit, alle erforderlichen Daten zu sammeln, um die Transportwege reibungslos zu gestalten, ist eine enge Zusammenarbeit aller auf dem Flughafen tätigen Mitarbeiter - des Flughafenpersonals, des Fluglinienpersonals, derBehördenmitarbeiter, des Bodenpersonals sowie der Einzelhandels- und Restaurantmitarbeiter. Darüber hinaus ist die Zusammenarbeit aller Beteiligten im gesamten Ökosystem der miteinander vernetzten Flughäfen gefragt. Überall in diesem riesigen Netzwerk werden betriebliche Daten unter Berücksichtigung von Datenschutzvorschriften ausgetauscht, wobei Interessenvertreter lediglich einzelne für sie relevante Datenquellen austauschen dürfen. Auf diese Weise werden Flughäfen viel effizienter, indem beispielsweise Passagierströme digital gesteuert werden und dafür gesorgt wird, dass die Flugzeuge möglichst bald wieder abheben. Neueste Technologien wie Blockchain erleichtern den abgesicherten Datenaustausch ungemein.
  2. Suck, M.: Ranking-Betrug bei Google & Co. : Suchmaschinen (2003) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 1337) [ClassicSimilarity], result of:
              0.009831577 = score(doc=1337,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 1337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1337)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Google kam, sah und siegte: Keine neue Suchmaschine hat es in so kurzer Zeit geschafft, das Internet zu erobern. Mehr als die Hälfte aller weltweit gestellten Suchanfragen werden mittlerweile über die clevere Software der Kalifornier abgewickelt; mehr als 150 Millionen Surfer durchforsten täglich die gigantische Datenbank, die auf 10.000 PCs insgesamt drei Milliarden Webseiten indiziert hat. Dieser Erfolg kommt nicht von ungefähr: Google war die erste Suchmaschine, die Webseiten nach Wichtigkeit sortieren konnte - unentbehrlich, um den Überblick im Daten-Dschungel zu behalten. Doch Googles große Stärke wird nun immer mehr zum großen Manko. Der Grund: Professionelle Web-Vermarkter nutzen das Ranking-System von Google, um ihre Kundschaft in den Ergebnislisten gezielt nach oben zu drücken. Hinter harmlos klingendem Marketing-Neusprech wie "Site Promotion" oder "Suchmaschinen-Optimierung" steckt nichts anderes als der Versuch, der Suchmaschine wichtige Internet-Seiten vorzugaukeln - auch wenn diese Seiten das vielleicht gar nicht sind. Die Manipulationsversuche treffen nicht nur den Marktführer. Nachdem auch die Konkurrenz von Altavista, Fireball und AllTheWeb ihre Indizierungstechniken denen von Google angepasst hat (siehe Kasten auf S.226), leidet die Branche nun auf breiter Front unter dem Werbedauerfeuer der "Optimierer". Besonders deutlich wird der erfolgreiche Druck der Vermarkter bei allen Suchanfragen, die mit Produkten oder Preisinformationen zu tun haben. Dem liegt etwa die Erkenntnis der amerikanischen Marktforscher von Comescore zugrunde, dass nur 5 Prozent aller Internet-Nutzer direkt auf einer Webseite nach Produkten fahnden, 25 Prozent hingegen eine Suchmaschine bemühen. Schlimmer noch: Bei den Suchergebnissen klicken laut einer Untersuchung der Agentur Iprospect höchstens 23 Prozent der Nutzer auf die zweite Ergebnisseite, und auf den dritten Teil der Liste verirren sich gerade mal gut 10 Prozent. Ein Top-Ranking ist also überlebenswichtig für OnlineShops. So kommt es, dass harmlose Suchbegriffe wie "BMW kaufen" oder "günstige Prozessoren" in der Top-10-Trefferliste bei Google gleich sieben Webseiten zu Tage fördern, die sich dank "Site Promotion" nach vorn geschmuggelt haben. Bei AltaVista ist gar die komplette erste Ergebnisseite das Werk der Optimierer. Das Perfide daran: Die Werbung ist als solche zunächst gar nicht zu erkennen. So stehen in der Ergebnisliste von Google zum Suchbegriff "BMW kaufen" lediglich harmlos klingende Adressen wie "www.fixe-flitzer.de", "www.traumhafte-autos.de" oder gar mutige Wortschöpfungen wie "www.kolbenholben.de".
  3. Dodge, M.: ¬A map of Yahoo! (2000) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 1555) [ClassicSimilarity], result of:
              0.009831577 = score(doc=1555,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 1555, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1555)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    ET-Map was created using a sophisticated AI technique called Kohonen self-organizing map, a neural network approach that has been used for automatic analysis and classification of semantic content of text documents like Web pages. I do not pretend to fully understand how this technique works; I tend to think of it as a clever 'black-box' that group together things that are alike [5] . It is a real challenge to automatically classify pages from a very heterogeneous information collection like the Web into categories that will match the conceptions of a typical user. Directories like Yahoo! tend to rely on the skill of human editors to achieve this. ET-Map is an interesting prototype that I think highlights well the potential for a map-based approach to Web browsing. I am surprised none of the major search engines or directories have introduced the option of mapping results. Although, I am sure many are working on ideas. People certainly need all the help they get, as Web growth shows no sign of slowing. Just last month it was reported that the Web had surpassed one billion indexable pages [6].
  4. Hoffmann, L.: Bericht über die Konstituierende Sitzung des Beirats für das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" am 3. Februar 2003 (2003) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 1789) [ClassicSimilarity], result of:
              0.009831577 = score(doc=1789,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 1789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1789)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Bereits in der konstituierenden Sitzung des Standardisierungsausschusses am 17. November 2000 wurde die Frage nach der Übernahme international verbreiteter Regeln und Standards und den dazugehörigen Datenaustauschformaten gestellt, aber nicht eindeutig beantwortet. Der Standardisierungsausschuss beschloss die Weiterentwicklung der RAK unter Integration der Sonderregeln und besonderer Berücksichtigung der Verbesserung des internationalen Datentausches. Kurze Zeit später - im Jahre 2001 - haben die Deutsche Forschungsgemeinschaft (DFG) und der Beirat Der Deutschen Bibliothek die Überwindung der internationalen Isolierung der deutschen Bibliotheken im Hinblick auf die deutschen Standards gefordert. Auf einer Podiumsdiskussion unter dem Thema "Ist Deutschland reif für die internationale Zusammenarbeit" im Rahmen der 5. Verbundkonferenz des Gemeinsamen Bibliotheksverbundes (GBV) in Göttingen am 11. September 2001 sprachen sich maßgebliche Vertreter des deutschen Bibliothekswesens mehrheitlich für einen Wechsel auf internationale Standards aus. Auf seiner nächsten Sitzung am 6. Dezember 2001 befasste sich der Standardisierungsausschuss mit dieser Frage und beschloss mehrheitlich, einen Umstieg auf die Standards, die weltweit im Einsatz sind, anzustreben. Da ein solcher Schritt jedoch erhebliche strukturelle und finanzielle Konsequenzen nach sich ziehen würde, wurde Die Deutsche Bibliothek beauftragt, zunächst in einer Studie Rahmenbedingungen, Konsequenzen und Zeitablauf eines Wechsels zu untersuchen. Daraufhin hat die Arbeitsstelle für Standardisierung Der Deutschen Bibliothek mit Unterstützung einer Arbeitsgruppe des Standardisierungsausschusses einen Förderantrag an die Deutsche Forschungsgemeinschaft erarbeitet. Die DFG hat den Antrag im August 2002 genehmigt. Als Projektbearbeiterin konnte Luise Hoffmann vom Hochschulbibliothekszentrum Nordrhein-Westfalen (HBZ) gewonnen werden. Die Leitung des Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" liegt bei Der Deutschen Bibliothek, die das Projekt im Auftrag des Standardisierungsausschusses in enger Kooperation mit anderen bibliothekarischen Einrichtungen und den Verbundsystemen durchführt. Diese Einrichtungen sind im Standardisierungsausschuss vertreten. Das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" ist auf 18 Monate angelegt, begann am 12. November 2002 und wird von einem Beirat begleitet. Dazu wurden die im DFG-Antrag für die Besetzung des Beirats genannten Institutionen angeschrieben und um die Benennung von Vertretern gebeten. Der Beirat ist wie folgt zusammengesetzt: Frau Dr. Sigrun Eckelmann (Deutsche Forschungsgemeinschaft) Herr Bernhard Eversberg (Universitätsbibliothek Braunschweig als Vertreter der Universitätsbibliotheken Herr Josef Friedl (Universität Wien als Vertreter der Österreichischen Bibliotheken) Herr Dr. Klaus Haller (Bayerische Staatsbibliothek München als Vertreter der Staatsbibliotheken) Herr Dr. Friedrich Geißelmann (Universitätsbibliothek Regensburg als Vorsitzender des Deutschen Bibliotheksverbandes) Frau Kornelie Hartmann (Hochschule Magdeburg-Stendhal als Vertreterin des außerbibliothekarischen Bereichs) Herr Heinz-Werner Hoffmann (Hochschulbibliothekszentrum Köln als Vertreter der Arbeitsgemeinschaft der Verbundsysteme) Herr Adrian Nolte (Stadtbibliothek Essen als Vertreter der Öffentlichen Bibliotheken) Frau Margret Schild (Theatermuseum Düsseldorf als Vertreterin der Spezialbibliotheken) Herr Werner Stephan (Universitätsbibliothek Stuttgart als Vertreter der Universitätsbibliotheken)
  5. Exploring artificial intelligence in the new millennium (2003) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 2099) [ClassicSimilarity], result of:
              0.009831577 = score(doc=2099,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 2099, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2099)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    In the third chapter, the authors present a preliminary statistical system for identifying the semantic roles of elements contained within a sentence such as the topic or individual(s) speaking. The historical context necessary for a reader to gain a true understanding of why the work is needed and what already exists is adequate, but lacking in many areas. For example, the authors examine the tension that exists between statistical systems and logie-based systems in natural language understanding in a trivial manner. A high expectation is placed an the reader to have a strong knowledge of these two areas of natural language understanding in AI research. In the fourth chapter, Derek Lang and Maria Fox examine the debate that has occurred within the AI community regarding automatically extracting domain-specific constraints for planning. The authors discuss two major planning approaches-knowledgespare and knowledge-rieh. They introduce their own approach, which reuses common features from many planning problems with specialized problem-solvers, a process of recognizing common patterns of behavior using automated technologies. The authors construct a clear and coherent picture of the field of planning within AI as well as demonstrate a clear need for their research. Also throughout the chapter there are numerous examples that provide readers with a clearer understanding of planning research. The major weakness of this chapter is the lack of discussion about the researchers' earlier version of their planning system STAN (Static Analysis Planner). They make reference to previous papers that discuss them, but little to no direct discussion. As a result, the reader is left wondering how the researchers arrived at the current version, STAN5. In Chapter 5, David J. Feet et al. look at visual motion analysis focusing an occlusion boundaries, by applying probabilistic techniques like Bayesian inference and particle filtering. The work is most applicable in the area of robotic vision. The authors do an outstanding job of developing a smooth narrative flow while simplifying complex models for visual motion analysis. This would be a good chapter for a graduate student who is looking for a research topic in Al. In the sixth chapter, Frank Wolter and Michael Zaharyaschev deal with reasoning about time and spare, which is a very difficult area of AI research. These two issues have been examined as separate entities in the past. The authors attempt to explore the two entities as one unit using different methods to generate qualitative spatiotemporal calculi and by using previous data from the area of modal logie. The research is presented in such a way that a reader with an inadequate AI concept knowledge will be quickly lost in the miasma of the research.
  6. Wannags, M.-M.; Schäfers, S.: 7. InetBib-Tagung : 12. bis 14. November 2003 in Frankfurt am Main (2004) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 2113) [ClassicSimilarity], result of:
              0.009831577 = score(doc=2113,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 2113, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2113)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Ein weiterer Schwerpunkt befasste sich mit Nutzungsanalysen und ihre Konsequenzen: Dr. Beate Trögers Beitrag zu Nutzungsanalysen im Blick auf fachliche und interdisziplinäre Webportale bezog sich auf die Ergebnisse einer schriftlichen Nutzerbefragung, Fokusgruppeninterviews und der Auswertung der Logfiles des Deutschen Bildungsservers. Allgemein halten Praktiker die angebotenen fachspezifischen Inhalte für zu kompliziert, während Wissenschaftler sie als zu wenig relevant einstufen. Aus diesem Grund arbeiten beide Gruppen vorzugsweise mit Google statt mit Themenportalen. Bei den Angeboten eines Webportals werden an erster Stelle Volltexte verlangt, danach folgen Abstracts, Referenzen und zuletzt Fakteninformationen. Wichtig erachtet werden Informationen zu Institutionen und Forschern, forschungsrelevante Quellen und Kongressinformationen. Das von Bernd Dugall dargestellte Ergebnis einer Studie zur Nutzung elektronischer Zeitschriften zeigte, dass nur 5% aller elektronischen Zeitschriften eines Portfolios ca. 45% der Nutzung ausmachten und 50% der Zeitschriften schließlich 95% der Nachfrage abdeckten. Diese Erfahrung wurde von dem nachfolgenden Vortragenden Prof. Andreas Geyer-Schulz, als ein typisches Dilemma des Sortimentshandels gekennzeichnet. Man könne zwar das Angebot an wenig genutzten Produkten zurückfahren, würde sich dann aber vom Gesamtversorger zum Spezialisten entwickeln. Ausgehend von der zunächst ungewöhnlich anmutenden Annahme, eine Bibliothek sei wie ein Supermarkt anzusehen und mit in der BWL üblichen Konsumentenverhaltensmodellen zu analysieren, beschrieb Prof. Geyer-Schulz einen auf der Analyse von Warenkörben basierenden Recommenderdienst, der dem Leser bei der Bestellung eines Buches weitere zur Ansicht empfehlen kann, vergleichbar den Empfehlungslisten des Direktvertreibers Amazon. "Büchersuche für Dummies" titulierte Dr. Florian Seiffert seinen Ansatz, den im HBZ nachgewiesenen Literaturbestand auch dem Google-Nutzer nahe zu bringen. Den bereits in der Inetbib-Mailingliste kontrovers diskutierten Ansatz verteidigte er mit ausführlichen Logfile-Analysen, dessen Resultate, "14% der Zugriffe auf das virtuelle Bücherregal seien relevant", er dem Plenum mit auf dem Weg gab. Aus dem Plenum stellten sich nach diesem und auch anderen Vorträgen konkrete Fragen nach den bei den Untersuchungen zugrunde liegenden LogfileAnalyse-Instrumenten. Ein Hinweis an die Veranstalter, diesem Thema künftig mal wieder einen Workshop zu widmen. Denn gerade die Workshops der Inetbib-Tagungen bieten mit ihrer umfassenden Präsentation eines Themas eine ideale Möglichkeit für Einstieg aber auch Weiterbildung zu aktuellen und praktischen Fragen. ".. Die Inetbib-Tagung ist immer eine umfassende Fortbildung" - Mit diesen Worten beendete Frau Dr. Beate Tröger (DIPF) den letzten Vortragsblock dieser Tagung, nachdem Dr. Volker-Henning Winterer einen mitreißenden Vortrag über ein aktuelles interdisziplinäres Forschungsgebiet, den skalenfreien Netzwerken (small world phenomenon) gehalten hatte. Recht hat sie."
  7. Urban, M.: Missverständnisse (2004) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 2419) [ClassicSimilarity], result of:
              0.009831577 = score(doc=2419,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 2419, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2419)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Spektrum der Wissenschaft. 2004, H.5, S.80-82
  8. XML in libraries (2002) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 3100) [ClassicSimilarity], result of:
              0.009831577 = score(doc=3100,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 3100, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3100)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Tennant's collection covers a variety of well- and lesser-known XML-based pilot and prototype projects undertaken by libraries around the world. Some of the projects included are: Stanford's XMLMARC conversion, Oregon State's use of XML in interlibrary loaning, e-books (California Digital Library) and electronic scholarly publishing (University of Michigan), the Washington Research Library Consortium's XML-based Web Services, and using TEI Lite to support indexing (Halton Hills Public Library). Of the 13 projects presented, nine are sited in academe, three are state library endeavors, and one is an American public library initiative. The projects are gathered into sections grouped by seven library applications: the use of XML in library catalog records, interlibrary loan, cataloging and indexing, collection building, databases, data migration, and systems interoperability. Each project is introduced with a few paragraphs of background information. The project reports-averaging about 13 pages each-include project goals and justification, project description, challenges and lessons learned (successes and failures), future plans, implications of the work, contact information for individual(s) responsible for the project, and relevant Web links and resources. The clear strengths of this collection are in the details and the consistency of presentation. The concise project write-ups flow well and encourage interested readers to follow-up via personal contacts and URLs. The sole weakness is the price. XML in Libraries will excite and inspire institutions and organizations with technically adept staff resources and visionary leaders. Erik Ray has written a how-to book. Unlike most, Learning XML is not aimed at the professional programming community. The intended audience is readers familiar with a structured markup (HTML, TEX, etc.) and Web concepts (hypertext links, data representation). In the first six chapters, Ray introduces XMUs main concepts and tools for writing, viewing, testing, and transforming XML (chapter 1), describes basic syntax (chapter 2), discusses linking with XLink and XPointer (chapter 3), introduces Cascading Style Sheets for use with XML (chapter 4), explains document type definitions (DTDs) and schemas (chapter 5), and covers XSLT stylesheets and XPath (chapter 6). Chapter 7 introduces Unicode, internationalization and language support, including CSS and XSLT encoding. Chapter 8 is an overview of writing software for processing XML, and includes the Perl code for an XML syntax checker. This work is written very accessibly for nonprogrammers. Writers, designers, and students just starting to acquire Web technology skills will find Ray's style approachable. Concepts are introduced in a logical flow, and explained clearly. Code samples (130+), illustrations and screen shots (50+), and numerous tables are distributed throughout the text. Ray uses a modified DocBook DTD and a checkbook example throughout, introducing concepts in early chapters and adding new concepts to them. Readers become familiar with the code and its evolution through repeated exposure. The code for converting the "barebones DocBook" DTD (10 pages of code) to HTML via XSLT stylesheet occupies 19 pages. Both code examples allow the learner to sec an accumulation of snippets incorporated into a sensible whole. While experienced programmers might not need this type of support, nonprogrammers certainly do. Using the checkbook example is an inspired choice: Most of us are familiar with personal checking, even if few of us world build an XML application for it. Learning XML is an excellent textbook. I've used it for several years as a recommended text for adult continuing education courses and workshops."
  9. Learning XML (2003) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 3101) [ClassicSimilarity], result of:
              0.009831577 = score(doc=3101,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 3101, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3101)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Tennant's collection covers a variety of well- and lesser-known XML-based pilot and prototype projects undertaken by libraries around the world. Some of the projects included are: Stanford's XMLMARC conversion, Oregon State's use of XML in interlibrary loaning, e-books (California Digital Library) and electronic scholarly publishing (University of Michigan), the Washington Research Library Consortium's XML-based Web Services, and using TEI Lite to support indexing (Halton Hills Public Library). Of the 13 projects presented, nine are sited in academe, three are state library endeavors, and one is an American public library initiative. The projects are gathered into sections grouped by seven library applications: the use of XML in library catalog records, interlibrary loan, cataloging and indexing, collection building, databases, data migration, and systems interoperability. Each project is introduced with a few paragraphs of background information. The project reports-averaging about 13 pages each-include project goals and justification, project description, challenges and lessons learned (successes and failures), future plans, implications of the work, contact information for individual(s) responsible for the project, and relevant Web links and resources. The clear strengths of this collection are in the details and the consistency of presentation. The concise project write-ups flow well and encourage interested readers to follow-up via personal contacts and URLs. The sole weakness is the price. XML in Libraries will excite and inspire institutions and organizations with technically adept staff resources and visionary leaders. Erik Ray has written a how-to book. Unlike most, Learning XML is not aimed at the professional programming community. The intended audience is readers familiar with a structured markup (HTML, TEX, etc.) and Web concepts (hypertext links, data representation). In the first six chapters, Ray introduces XMUs main concepts and tools for writing, viewing, testing, and transforming XML (chapter 1), describes basic syntax (chapter 2), discusses linking with XLink and XPointer (chapter 3), introduces Cascading Style Sheets for use with XML (chapter 4), explains document type definitions (DTDs) and schemas (chapter 5), and covers XSLT stylesheets and XPath (chapter 6). Chapter 7 introduces Unicode, internationalization and language support, including CSS and XSLT encoding. Chapter 8 is an overview of writing software for processing XML, and includes the Perl code for an XML syntax checker. This work is written very accessibly for nonprogrammers. Writers, designers, and students just starting to acquire Web technology skills will find Ray's style approachable. Concepts are introduced in a logical flow, and explained clearly. Code samples (130+), illustrations and screen shots (50+), and numerous tables are distributed throughout the text. Ray uses a modified DocBook DTD and a checkbook example throughout, introducing concepts in early chapters and adding new concepts to them. Readers become familiar with the code and its evolution through repeated exposure. The code for converting the "barebones DocBook" DTD (10 pages of code) to HTML via XSLT stylesheet occupies 19 pages. Both code examples allow the learner to sec an accumulation of snippets incorporated into a sensible whole. While experienced programmers might not need this type of support, nonprogrammers certainly do. Using the checkbook example is an inspired choice: Most of us are familiar with personal checking, even if few of us world build an XML application for it. Learning XML is an excellent textbook. I've used it for several years as a recommended text for adult continuing education courses and workshops."
  10. ¬The ABCs of XML : the librarian's guide to the eXtensible Markup Language (2000) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 3102) [ClassicSimilarity], result of:
              0.009831577 = score(doc=3102,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 3102, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3102)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Tennant's collection covers a variety of well- and lesser-known XML-based pilot and prototype projects undertaken by libraries around the world. Some of the projects included are: Stanford's XMLMARC conversion, Oregon State's use of XML in interlibrary loaning, e-books (California Digital Library) and electronic scholarly publishing (University of Michigan), the Washington Research Library Consortium's XML-based Web Services, and using TEI Lite to support indexing (Halton Hills Public Library). Of the 13 projects presented, nine are sited in academe, three are state library endeavors, and one is an American public library initiative. The projects are gathered into sections grouped by seven library applications: the use of XML in library catalog records, interlibrary loan, cataloging and indexing, collection building, databases, data migration, and systems interoperability. Each project is introduced with a few paragraphs of background information. The project reports-averaging about 13 pages each-include project goals and justification, project description, challenges and lessons learned (successes and failures), future plans, implications of the work, contact information for individual(s) responsible for the project, and relevant Web links and resources. The clear strengths of this collection are in the details and the consistency of presentation. The concise project write-ups flow well and encourage interested readers to follow-up via personal contacts and URLs. The sole weakness is the price. XML in Libraries will excite and inspire institutions and organizations with technically adept staff resources and visionary leaders. Erik Ray has written a how-to book. Unlike most, Learning XML is not aimed at the professional programming community. The intended audience is readers familiar with a structured markup (HTML, TEX, etc.) and Web concepts (hypertext links, data representation). In the first six chapters, Ray introduces XMUs main concepts and tools for writing, viewing, testing, and transforming XML (chapter 1), describes basic syntax (chapter 2), discusses linking with XLink and XPointer (chapter 3), introduces Cascading Style Sheets for use with XML (chapter 4), explains document type definitions (DTDs) and schemas (chapter 5), and covers XSLT stylesheets and XPath (chapter 6). Chapter 7 introduces Unicode, internationalization and language support, including CSS and XSLT encoding. Chapter 8 is an overview of writing software for processing XML, and includes the Perl code for an XML syntax checker. This work is written very accessibly for nonprogrammers. Writers, designers, and students just starting to acquire Web technology skills will find Ray's style approachable. Concepts are introduced in a logical flow, and explained clearly. Code samples (130+), illustrations and screen shots (50+), and numerous tables are distributed throughout the text. Ray uses a modified DocBook DTD and a checkbook example throughout, introducing concepts in early chapters and adding new concepts to them. Readers become familiar with the code and its evolution through repeated exposure. The code for converting the "barebones DocBook" DTD (10 pages of code) to HTML via XSLT stylesheet occupies 19 pages. Both code examples allow the learner to sec an accumulation of snippets incorporated into a sensible whole. While experienced programmers might not need this type of support, nonprogrammers certainly do. Using the checkbook example is an inspired choice: Most of us are familiar with personal checking, even if few of us world build an XML application for it. Learning XML is an excellent textbook. I've used it for several years as a recommended text for adult continuing education courses and workshops."
  11. Pace, A.K.: ¬The ultimate digital library : where the new information players meet (2003) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 3198) [ClassicSimilarity], result of:
              0.009831577 = score(doc=3198,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 3198, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3198)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Digitale Auskunftsdienste Pace verfällt als Insider der Bibliotheks- und Firmenszene glücklicherweise nicht in das Stereotyp einer einfachen Schwarz-Weiß-Gegenüberstellung von »erfolgreichen Firmenkonzepten« einerseits und »unflexiblen, traditionsbelasteten Bibliotheken« andererseits, wie man sie nicht selten von Bibliothekskritikern hört. In den bereits genannten Kapiteln 2 und 3 sieht und benennt er durchaus nachahmenswerte Beispiele für digitale Servicesvon Bibliotheken, die auch Adaptionen von kommerziellen Diensten darstellen können. Digitale Auskunftsdienste (»Virtual or online reference services«) per E-Mail oder Chat erfreuen sich offenbar zumindest in den USA steigender Beliebtheit, die Pace unter anderem mit dem Wegfall der Hemmschwelle einer persönlichen Ansprache erklärt. OnlineKataloge erfahren zunehmend eine Anreicherung mit Informationen wie Inhaltsverzeichnissen oder Abstracts, wie sie von Amazon bekannt sind. Pace erwähnt auch lobend die Rolle einiger Öffentlicher Bibliotheken, die Yahoos Verbalerschließungssystem als Grundlage für eigene Internetservices genommen haben - und dafür von anderen Kollegen heftig gescholten werden. In dem Kontext der Gegenüberstellung von privatwirtschaftlich organisierten Diensten und öffentlich-rechtlichen Bibliotheken empfehlen sich die Kapitel 6 »Libraries are not ALL (sic!) business« und 7 »First principles« als lesenswert, weil sie sich explizit gegen eine unreflektierte Übernahme privatwirtschaftlicher Geschäftsregeln und -vorgehensweisen durch Bibliotheken aussprechen, auch wenn sich gänzlich neue Aspekte bei den gewählten Beispielen wie »fair use«, »privacy of end-users« aus bibliothekarischer Sicht nicht entdecken lassen. Entwicklung von Services Auch wenn Pace als amerikanischerAutor mit seinen Beispielen ein geographisch begrenztes Spektrum analysiert, so lassen sich viele Schlussfolgerungen doch ohne weiteres auch auf europäische Bibliotheken übertragen. Die vorliegende Publikation kann allen Bibliothekaren in leitenden Positionen sehr zur Lektüre empfohlen werden, da die Fokussierung auf die Entwicklung von Services sowie die Erörterung möglicher strategischer Partnerschaften auf der Agenda eines jeden Bibliotheksmanagements stehen sollte. Die Lektüre sollte allerdings in dem Bewusstsein erfolgen, dass Pace durch die Schwerpunktsetzung auf das Verhältnis »Bibliotheken - Anbieter von Informationstechnologie und -diensten« einige weitere wesentliche Aspekte weitgehend außer Acht lässt. Diese betreffen im Falle von Universitätsbibliotheken beispielsweise das Verhältnis von Bibliotheken als Dienstleistern zu weiteren lokalen Dienstleistern (insbesondere Rechenzentren, Medienzentren) sowie die zunehmende Modularität von Service- und Informationsarchitekturen, die ein nahtloses Zusammenspiel lokaler und externer Services sinnvoll erscheinen lassen. Die Orientierung an den tatsächlichen Bedürfnissen von EndNutzern steht zwar nicht direkt im Mittelpunkt der Service-Beschreibungen des Autors, einige wesentliche Aspekte werden aber behandelt (z.B. S.57). Weitere Zielgruppen der Publikation sind aufgrund der gewählten Thematik zu Digitalen Bibliotheken und Services sicherlich Bibliothekare in verantwortlichen Positionen in den Bereichen Informationstechnologie und Benutzung. Alle Bibliothekare, und insbesondere Berufsanfänger, mögen darüber hinaus mit Interesse die Ausführungen von Pace zu seinem beruflichen Werdegang sowie speziell das Kapitel 5 »Sheep in wolves' clothing/Working inside and outside the library« verfolgen, in dem er berufliche Chancen und Szenarien für Bibliothekare im IT-Firmenbereich beschreibt."
  12. Kübler, H.-D.: Aufwachsen mit dem Web : Surfen eher selten: zwei Studien zur Internetnutzung von Kindern (2005) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 3341) [ClassicSimilarity], result of:
              0.009831577 = score(doc=3341,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 3341, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3341)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rezensionen zu: Christine Feil, Regine Decker, Christoph Gieger: Wie entdecken Kinder das Internet? Beobachtungen bei 5- bis 12-jährigen Kindern. Wiesbaden: VS Verlag für Sozialwissenschaften, 2004 (Schriften des Deutschen Jugendinstituts: Kinder). 254 Seiten: Illustrationen, grafische Darstellungen. Susanne Richter: Die Nutzung des Internets durch Kinder. Eine qualitative Studie zu internetspezifischen Nutzungsstrategien, Kompetenzen und Präferenzen von Kindern im Alter zwischen 11 und 13 Jahren. Frankfurt (Main) [u.a.]: Lang, 2004 (Kinder- und Jugendkultur, -literatur und -medien; 27). 299 Seiten: Illustrationen, grafische Darstellungen.
  13. Gehring, P.: Vergesst den freien Willen : Über den eigentümlichen Reiz deterministischer Thesen (2005) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 3400) [ClassicSimilarity], result of:
              0.009831577 = score(doc=3400,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 3400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3400)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    In der Praxis, wie gesagt, widerlegen sich Determinismen nicht, sie erledigen sich eher- zumeist durch allmäh liche Modifizierung. So relativierte die Arbeit am "entschlüsselten" Genom bislang alle mitgebrachten Modelle und hat im Grunde ständig neue Unbestimmtheiten erbracht. Trotz ihrer fachlichen Schwäche haben deterministische Thesen unter Umständen jedoch erhebliche Wirk lichkeitsmacht. Wissenschaftler können auf "das bürgerliche Reich wissenschaftlicher Konsistenzvorstellungen"1 schlicht pfeifen und bewusst auf Gesellschaftsveränderung setzen: auf eine Anpassung der Welt an ihre Theorien. Wollen Deterministen eine sozialpolitische Zukunftsvision realisieren und lösen sich - von der Öffentlichkeit beflügelt - von den methodischen Standards ihres Fachs, so sind nahezu beliebige Selffulfilling-Prophecy-Effekte denkbar. Die Reihe der falschen, experimentell aber "beweisbaren" Determinationsthesen ist lang. Unter den Prozeduren der Teu felsaustreibung erweist sich der Beses: sene als vom Teufel determiniert; der der sozialen Anerkennung für immer beraubte Straftäter zeigt sich als "von Natur aus" gefährlich; ohne Zugang zu Bildung sind Frauen und Neger "objektiv messbar" dumm. Ist der Mensch nun determiniert? Ich schlage vor, die Fragestellung zu verändern. Fassen wir nicht die Thesen selbst, sondern ihren Resonanzboden ins Auge: Was eigentlich fasziniert am Determinismus so sehr? Derzeit könne man unbesorgt Bücher in Höchstauflagen drucken, sobald nur im Titel das Wort "Gehirn" fällt, das hörte ich. aus Verlagskreisen. Warum? Worin liegt das Magnetische der Feuilletonthesen der Neuroforscher Gerhard Roth und Wolf Singer, die behaupten, Willensfreiheit sei nur eine "Illusion" und das Soziale erkläre sich als "Wechselwirkung zwischen Gehirnen"2? Was fesselt die Leser der vor einigen Jahren neu auf dem Markt aufgetauchten populärwissenschaftlichen Illustrierten Geist und Gehirn? Blicken wir zurück in: die Zeit der Gen-Debatten, so gibt es Parallelfragen: Was war der Charme eines evolutionis-tischen Reißers wie "Das egoistische Gen" von Richard Dawkins, der 1976 mit der These aufwartete, wir seien "als Genmaschinen gebaut worden, dazu geschaffen, unsere Gene zu vererben"s? oder, um noch ältere Beispiele zu nennen: Wodurch faszinierten seinerzeit die (heute nicht nur überholten, sondern durch Fälschungsvorwürfe diskreditierten) Instinktbindungs- und Prägungstheoreme von Konrad Lorenz? Was genau reizte an Ernst Haeckels "Monismus"? Et cetera. Erste Vermutung: Man erschrickt ganz einfach, wenn man mit einer im vollen Ornat der naturwissenschaftli chen Wahrheit daherkommenden Entzauberungsformel konfrontiert wird. Die Idee eines alles regierenden inneren Prinzips-des eigenen Seins hat etwas Bedrohliches. Unsere säkulare Normalsicht der Welt ist zwar an die Relativitäten des Alltags gewöhnt, man lebt gut mit dem Zusammenspiel aus Freiheit und Unübersichtlichkeit, das zum modernen Selbst= und Handlungsverständnis gehört. Gleichwohl weiß man nicht recht, ob man Schlagzeilen wie "Wir sind determinier"" oder "Ich bin mein Gehirn"5 oder die an Eltern ausgegebene Forderung nach einer "Neuropädagogik" einfach ignorieren darf. Unangenehme Vorstellung, aber 0b nicht vielleicht doch etwas dran ist? Habe ich tatsächlich in einer "Illusion" gelebt? Pflichtschuldig verunsichert, bangen wir um unser freiheitliches Selbstverständnis, und dieser Sorge verdankt sich das Aufmerken in Sachen Gene oder Gehirn.
  14. Pöppe, C.: ¬Das Minderheitsspiel (2005) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 3697) [ClassicSimilarity], result of:
              0.009831577 = score(doc=3697,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 3697, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3697)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Die Bar »EI Farol« in Santa Fe (New Mexico) ist ein beliebtes Nachtschwärmerziel. Jeden Donnerstagabend gibt es irische Musik, zu anderen Zeiten auch Flamenco. An lauen Sommerabenden wird es häufig so voll, dass einem das Gedränge den Spaß verdirbt. Nehmen wir an, es ist ein lauer Sommerabend, und das Musikprogramm entspricht unserem Geschmack. Sollen wir hingehen? Der Wirtschaftswissenschaftler W Brian Arthur, der am Santa Fe Institute in der gleichnamigen Stadt arbeitet, stellte die Frage in wissenschaftlicher Form, und so ist sie als das »El Farol bar problem« bekannt geworden. Es ist ein überraschend schwieriges Problem, jedenfalls wenn man es vom Standpunkt der klassischen Ökonomen betrachtet. Diese Leute glauben nämlich immer noch an den Homo oeconomicus, jenes fiktive Wesen, das die ihm zugänglichen Informationen fehlerlos verarbeitet und daraufhin unter mehreren Alternativen diejenige auswählt, die seinen Nutzen maximiert. Auf einem Gütermarkt agieren zahlreiche Exemplare dieser Spezies mit nichts als dem eigenen Profit im Sinn und erreichen trotzdem einen für alle optimalen Zustand (Spektrum der Wissenschaft 5/2004, S. 60). Aber wenn diese so ungeheuer rationalen Wesen zur Bar wollen - oh weh! Nehmen wir zur Vereinfachung an, dass sie alle nur das Eine wollen: zur Bar, wenn es nicht zu voll ist, und ansonsten zu Hause bleiben. Wird es heute Abend voll werden? Dazu müssten die Leute aus den verfügbaren Informationen - die für alle gleich sind - Schlüsse ziehen und eine Prognose stellen - die für alle gleich ist, denn sie sind ja alle rational. Also gehen sie entweder alle hin, sodass es voll wird, oder bleiben alle zu Hause und lassen sich einen schönen Abend entgehen. Frustriert sind sie auf jeden Fall.
  15. Burnett, R.: How images think (2004) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 3884) [ClassicSimilarity], result of:
              0.009831577 = score(doc=3884,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 3884, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3884)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Burnett's work is a useful basic primer an the new media. One of the chief attractions here is his clear language, devoid of the jargon of either computer sciences or advanced critical theory. This makes How Images Think an accessible introduction to digital cultures. Burnett explores the impact of the new technologies an not just image-making but an image-effects, and the ways in which images constitute our ecologies of identity, communication, and subject-hood. While some of the sections seem a little too basic (especially where he speaks about the ways in which we constitute an object as an object of art, see above), especially in the wake of reception theory, it still remains a starting point for those interested in cultural studies of the new media. The Gase Burnett makes out for the transformation of the ways in which we look at images has been strengthened by his attention to the history of this transformation-from photography through television and cinema and now to immersive virtual reality systems. Joseph Koemer (2004) has pointed out that the iconoclasm of early modern Europe actually demonstrates how idolatory was integral to the image-breakers' core belief. As Koerner puts it, "images never go away ... they persist and function by being perpetually destroyed" (p. 12). Burnett, likewise, argues that images in new media are reformed to suit new contexts of meaning-production-even when they appear to be destroyed. Images are recast, and the degree of their realism (or fantasy) heightened or diminished-but they do not "go away." Images do think, but-if I can parse Burnett's entire work-they think with, through, and in human intelligence, emotions, and intuitions. Images are uncanny-they are both us and not-us, ours and not-ours. There is, surprisingly, one factual error. Burnett claims that Myron Kreuger pioneered the term "virtual reality." To the best of my knowledge, it was Jaron Lanier who did so (see Featherstone & Burrows, 1998 [1995], p. 5)."
  16. Ratzan, L.: Understanding information systems : what they do and why we need them (2004) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 4581) [ClassicSimilarity], result of:
              0.009831577 = score(doc=4581,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 4581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4581)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    In "Organizing Information" various fundamental organizational schemes are compared. These include hierarchical, relational, hypertext, and random access models. Each is described initially and then expanded an by listing advantages and disadvantages. This comparative format-not found elsewhere in the book-improves access to the subject and overall understanding. The author then affords considerable space to Boolean searching in the chapter "Retrieving Information." Throughout this chapter, the intricacies and problems of pattern matching and relevance are highlighted. The author elucidates the fact that document retrieval by simple pattern matching is not the same as problem solving. Therefore, "always know the nature of the problem you are trying to solve" (p. 56). This chapter is one of the more important ones in the book, covering a large topic swiftly and concisely. Chapters 5 through 11 then delve deeper into various specific issues of information systems. The chapters an securing and concealing information are exceptionally good. Without mentioning specific technologies, Mr. Ratzan is able to clearly present fundamental aspects of information security. Principles of backup security, password management, and encryption are also discussed in some detail. The latter is illustrated with some fascinating examples, from the Navajo Code Talkers to invisible ink and others. The chapters an measuring, counting, and numbering information complement each other well. Some of the more math-centric discussions and examples are found here. "Measuring Information" begins with a brief overview of bibliometrics and then moves quickly through Lotka's law, Zipf's law, and Bradford's law. For an LIS student, exposure to these topics is invaluable. Baseball statistics and web metrics are used for illustration purposes towards the end. In "counting Information," counting devices and methods are first presented, followed by discussion of the Fibonacci sequence and golden ratio. This relatively long chapter ends with examples of the tower of Hanoi, the changes of winning the lottery, and poker odds. The bulk of "Numbering Information" centers an prime numbers and pi. This chapter reads more like something out of an arithmetic book and seems somewhat extraneous here. Three specific types of information systems are presented in the second half of the book, each afforded its own chapter. These examples are universal as not to become dated or irrelevant over time. "The Computer as an Information System" is relatively short and focuses an bits, bytes, and data compression. Considering the Internet as an information system-chapter 13-is an interesting illustration. It brings up issues of IP addressing and the "privilege-vs.-right" access issue. We are reminded that the distinction between information rights and privileges is often unclear. A highlight of this chapter is the discussion of metaphors people use to describe the Internet, derived from the author's own research. He has found that people have varying mental models of the Internet, potentially affecting its perception and subsequent use.
  17. ¬Die Google-Gesellschaft : Vom digitalen Wandel des Wissens (2005) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 4770) [ClassicSimilarity], result of:
              0.009831577 = score(doc=4770,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 4770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4770)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Information: Wissenschaft & Praxis 56((2005) H.5/6, S.334-335 (D. Lewandowski): "... Aufgrund der Fülle und Verschiedenartigkeit der Beiträge fällt es schwer, eine thematische Linie der Buchs auszumachen. Man bekommt beim Lesen den Eindruck, dass die Herausgeber alles, was irgendwie mit der von ihnen postulierten "Google-Gesellschaft" zu tun haben könnte, gesammelt und erst hinterher in eine Kapitelstruktur gepresst haben. Über das Buch verteilt finden sich neben wissenschaftlichen Aufsätzen auch journalistische Texte, Interviews und Texte, die irgendwo zwischen Journalismus und Wissenschaft stehen. Diese stoßen am meisten auf. Weder bieten sie eine interessant geschriebene, allgemeinverständliche Einführung in ein Thema (wie die besseren journalistischen Aufsätze) noch eine fundierte Behandlung des Themas (wie die besseren wissenschaftlichen Aufsätze). Je nach Geschmack mag man diese Beiträge nun als "Journalismus mit Fußnoten" oder aber einfach als schlechte Wissenschaft ansehen. Oder wollten uns die Herausgeber vor Augen führen, was aus ihrer Sicht Ausdruck der Google-Gesellschaft ist, dass man Kraut und Rüben in zufälliger Nachbarschaft antrifft und keinerlei Handreichungen zur Beurteilung von Relevanz, Aktualität und anderer Oualitätskriterien zur Verfügung hat? Besonders auffällig ist in vielen dieser Beiträge der schlampige Umgang mit Fakten. So werden als Belege oftmals Artikel aus Zeitungen und Zeitschriften angeführt, anstatt die Originalliteratur anzugeben. Literatur außerhalb des Kontexts Soziologie/ Medienwissenschaft wird im Großteil der Aufsätze nicht rezipiert, ebenso verhält es sich mit englischsprachiger Literatur: Gerade beim Thema Google- bzw. Wissensgesellschaft werden so wesentliche Erkenntnisse aus der angloamerikanischen Welt ausgelassen. Gerade auch im Hinblick auf die Interdisziplinarität ein großes Versäumnis: Werden doch die Ergebnisse der Informatik, aber auch der Informationswissenschaft und des Bibliotheksbereichs zu einem nicht unwesentlichen Teil in englischer Sprache publiziert. Eine Rezeption dieser Forschungen hätte sicher einige im Band auftauchende Missverständnisse beispielsweise über die Suchmaschinen-Nutzer und ihre Gewohnheiten vermeiden können." Rez. in: ZfBB 52(2005) H.6, S.343-348 (W. Gödert)
  18. Mandl, T.: Tolerantes Information Retrieval : Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche (2001) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 5965) [ClassicSimilarity], result of:
              0.009831577 = score(doc=5965,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 5965, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=5965)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Kapitel: 1 Einleitung - 2 Grundlagen des Information Retrieval - 3 Grundlagen neuronaler Netze - 4 Neuronale Netze im Information Retrieval - 5 Heterogenität und ihre Behandlung im Information Retrieval - 6 Das COSIMIR-Modell - 7 Experimente mit dem COSIMIR-Modell und dem Transformations-Netzwerk - 8 Fazit
  19. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 5973) [ClassicSimilarity], result of:
              0.009831577 = score(doc=5973,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 5973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=5973)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 57(2006) H.5, S.290-291 (C. Schindler): "Weniger als ein Jahr nach dem "Vierten Hildesheimer Evaluierungs- und Retrievalworkshop" (HIER 2005) im Juli 2005 ist der dazugehörige Tagungsband erschienen. Eingeladen hatte die Hildesheimer Informationswissenschaft um ihre Forschungsergebnisse und die einiger externer Experten zum Thema Information Retrieval einem Fachpublikum zu präsentieren und zur Diskussion zu stellen. Unter dem Titel "Effektive Information Retrieval Verfahren in Theorie und Praxis" sind nahezu sämtliche Beiträge des Workshops in dem nun erschienenen, 15 Beiträge umfassenden Band gesammelt. Mit dem Schwerpunkt Information Retrieval (IR) wird ein Teilgebiet der Informationswissenschaft vorgestellt, das schon immer im Zentrum informationswissenschaftlicher Forschung steht. Ob durch den Leistungsanstieg von Prozessoren und Speichermedien, durch die Verbreitung des Internet über nationale Grenzen hinweg oder durch den stetigen Anstieg der Wissensproduktion, festzuhalten ist, dass in einer zunehmend wechselseitig vernetzten Welt die Orientierung und das Auffinden von Dokumenten in großen Wissensbeständen zu einer zentralen Herausforderung geworden sind. Aktuelle Verfahrensweisen zu diesem Thema, dem Information Retrieval, präsentiert der neue Band anhand von praxisbezogenen Projekten und theoretischen Diskussionen. Das Kernthema Information Retrieval wird in dem Sammelband in die Bereiche Retrieval-Systeme, Digitale Bibliothek, Evaluierung und Multilinguale Systeme untergliedert. Die Artikel der einzelnen Sektionen sind insgesamt recht heterogen und bieten daher keine Überschneidungen inhaltlicher Art. Jedoch ist eine vollkommene thematische Abdeckung der unterschiedlichen Bereiche ebenfalls nicht gegeben, was bei der Präsentation von Forschungsergebnissen eines Institutes und seiner Kooperationspartner auch nur bedingt erwartet werden kann. So lässt sich sowohl in der Gliederung als auch in den einzelnen Beiträgen eine thematische Verdichtung erkennen, die das spezielle Profil und die Besonderheit der Hildesheimer Informationswissenschaft im Feld des Information Retrieval wiedergibt. Teil davon ist die mehrsprachige und interdisziplinäre Ausrichtung, die die Schnittstellen zwischen Informationswissenschaft, Sprachwissenschaft und Informatik in ihrer praxisbezogenen und internationalen Forschung fokussiert.
  20. Current theory in library and information science (2002) 0.00
    0.0024578942 = product of:
      0.0049157883 = sum of:
        0.0049157883 = product of:
          0.009831577 = sum of:
            0.009831577 = weight(_text_:5 in 822) [ClassicSimilarity], result of:
              0.009831577 = score(doc=822,freq=2.0), product of:
                0.15247129 = queryWeight, product of:
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.052250203 = queryNorm
                0.0644815 = fieldWeight in 822, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9180994 = idf(docFreq=6494, maxDocs=44218)
                  0.015625 = fieldNorm(doc=822)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    However, for well over a century, major libraries in developed nations have been engaging in sophisticated measure of their operations, and thoughtful scholars have been involved along the way; if no "unified theory" has emerged thus far, why would it happen in the near future? What if "libraries" are a historicallydetermined conglomeration of distinct functions, some of which are much less important than others? It is telling that McGrath cites as many studies an brittle paper as he does investigations of reference services among his constellation of measurable services, even while acknowledging that the latter (as an aspect of "circulation") is more "essential." If one were to include in a unified theory similar phenomena outside of libraries-e.g., what happens in bookstores and WWW searches-it can be seen how difficult a coordinated explanation might become. Ultimately the value of McGrath's chapter is not in convincing the reader that a unified theory might emerge, but rather in highlighting the best in recent studies that examine library operations, identifying robust conclusions, and arguing for the necessity of clarifying and coordinating common variables and units of analysis. McGrath's article is one that would be useful for a general course in LIS methodology, and certainly for more specific lectures an the evaluation of libraries. Fra going to focus most of my comments an the remaining articles about theory, rather than the others that offer empirical results about the growth or quality of literature. I'll describe the latter only briefly. The best way to approach this issue is by first reading McKechnie and Pettigrew's thorough survey of the "Use of Theory in LIS research." Earlier results of their extensive content analysis of 1, 160 LIS articles have been published in other journals before, but is especially pertinent here. These authors find that only a third of LIS literature makes overt reference to theory, and that both usage and type of theory are correlated with the specific domain of the research (e.g., historical treatments versus user studies versus information retrieval). Lynne McKechnie and Karen Pettigrew identify four general sources of theory: LIS, the Humanities, Social Sciences and Sciences. This approach makes it obvious that the predominant source of theory is the social sciences (45%), followed by LIS (30%), the sciences (19%) and the humanities (5%) - despite a predominance (almost 60%) of articles with science-related content. The authors discuss interdisciplinarity at some length, noting the great many non-LIS authors and theories which appear in the LIS literature, and the tendency for native LIS theories to go uncited outside of the discipline. Two other articles emphasize the ways in which theory has evolved. The more general of three two is Jack Glazier and Robert Grover's update of their classic 1986 Taxonomy of Theory in LIS. This article describes an elaborated version, called the "Circuits of Theory," offering definitions of a hierarchy of terms ranging from "world view" through "paradigm," "grand theory" and (ultimately) "symbols." Glazier & Grover's one-paragraph example of how theory was applied in their study of city managers is much too brief and is at odds with the emphasis an quantitative indicators of literature found in the rest of the volume. The second article about the evolution of theory, Richard Smiraglia's "The progress of theory in knowledge organization," restricts itself to the history of thinking about cataloging and indexing. Smiraglia traces the development of theory from a pragmatic concern with "what works," to a reliance an empirical tests, to an emerging flirtation with historicist approaches to knowledge.

Authors

Languages

Types

Themes

Subjects

Classifications