Search (6672 results, page 333 of 334)

  1. Behrens-Neumann, R.: Aus der 53. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 6. und 7. November 2007 in München (2008) 0.00
    0.0038534638 = product of:
      0.0077069276 = sum of:
        0.0077069276 = product of:
          0.015413855 = sum of:
            0.015413855 = weight(_text_:22 in 2217) [ClassicSimilarity], result of:
              0.015413855 = score(doc=2217,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.09672529 = fieldWeight in 2217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2217)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.2008 13:51:27
  2. Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008) 0.00
    0.0038534638 = product of:
      0.0077069276 = sum of:
        0.0077069276 = product of:
          0.015413855 = sum of:
            0.015413855 = weight(_text_:22 in 2331) [ClassicSimilarity], result of:
              0.015413855 = score(doc=2331,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.09672529 = fieldWeight in 2331, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2331)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
  3. "Europeana", die digitale Bibliothek Europas, ist online (2009) 0.00
    0.0038534638 = product of:
      0.0077069276 = sum of:
        0.0077069276 = product of:
          0.015413855 = sum of:
            0.015413855 = weight(_text_:22 in 2670) [ClassicSimilarity], result of:
              0.015413855 = score(doc=2670,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.09672529 = fieldWeight in 2670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2670)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.2009 19:08:56
  4. Hjoerland, B.: ¬The controversy over the concept of information : a rejoinder to Professor Bates (2009) 0.00
    0.0038534638 = product of:
      0.0077069276 = sum of:
        0.0077069276 = product of:
          0.015413855 = sum of:
            0.015413855 = weight(_text_:22 in 2748) [ClassicSimilarity], result of:
              0.015413855 = score(doc=2748,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.09672529 = fieldWeight in 2748, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2748)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 3.2009 18:13:27
  5. Lingner, M.: Gutenberg 2.0 oder die Neuerfindung des Buches (2009) 0.00
    0.0038534638 = product of:
      0.0077069276 = sum of:
        0.0077069276 = product of:
          0.015413855 = sum of:
            0.015413855 = weight(_text_:22 in 2869) [ClassicSimilarity], result of:
              0.015413855 = score(doc=2869,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.09672529 = fieldWeight in 2869, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2869)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    20. 6.2009 15:13:22
  6. Gumbrecht, C.: Workshop zur CJK-Katalogisierung am 18. Juni 2009 an der Staatsbibliothek zu Berlin : ein Bericht (2009) 0.00
    0.0038534638 = product of:
      0.0077069276 = sum of:
        0.0077069276 = product of:
          0.015413855 = sum of:
            0.015413855 = weight(_text_:22 in 3042) [ClassicSimilarity], result of:
              0.015413855 = score(doc=3042,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.09672529 = fieldWeight in 3042, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3042)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 8.2009 10:44:16
  7. Schreiber, A.: Ars combinatoria (2010) 0.00
    0.0038534638 = product of:
      0.0077069276 = sum of:
        0.0077069276 = product of:
          0.015413855 = sum of:
            0.015413855 = weight(_text_:22 in 3976) [ClassicSimilarity], result of:
              0.015413855 = score(doc=3976,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.09672529 = fieldWeight in 3976, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3976)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Kürzlich bat mich ein Anhänger der Numerologie, ihm mein Geburtsdatum zu nennen. Wiederholte Quersummenbildung ergab 4, meine ,Geburtszahl`. Auf dieselbe Weise addierte er auch die Alphabet-Positionen der Vokale in meinem Namen zu 8, meiner ,Herzzahl`. Das nennt sich Gematrie. Einer Tabelle waren dann Charakter und Schicksal zu entnehmen, soweit sie mir aus kosmischen Einflüssen vorbestimmt sind. Kein Zweifel, Okkultes braucht den großen Rahmen. Der Kosmos darf es da schon sein - oder die Pythagoräer, auf die man sich gerne beruft, weil sie Zahlen und Dinge geradezu identifiziert haben. Ich ließ meinen Gesprächspartner wissen, dass ich diesen Umgang mit Zahlen und Zeichen für spekulatives, ja abergläubisches Wunschdenken halte. "Aber Sie sind doch Mathematiker", gab er triumphierend zurück, "dann beweisen Sie mir erst einmal, dass die Numerologie nicht funktioniert!". Das, natürlich, konnte ich nicht. Als weitere Quelle geheimer Gewissheiten diente ihm die jüdische Kabbalah. Gematrische Verfahren hat sie durch kombinatorische Zeichenmanipulationen erweitert wie Zeruph (Permutation) oder Temurah (zyklisches Vertauschen). Die Welt wird als Buch vorgestellt, vom Schöpfer geschrieben mit den 22 Buchstaben des hebräischen Alphabets und den 10 dekadischen Ziffern (den "Sephiroth" eines urbildlichen Lebensbaums, mit denen Umberto Eco in seinem Roman Das Foucaultsche Pendel noch ein postmodernes Spiel treibt). Einer magischen Richtung zufolge wirken Um- und Zusammenstellungen von Buchstaben und Ziffern auf die Dinge selbst ein. So kann der Bestand verborgener Beziehungen ungehemmt wachsen. Doch "nur solche Beziehungen und Feststellungen haben objektive Bedeutung, die nicht durch irgend einen Wechsel in der Wahl der Etiketten ... beeinflußt werden". Dieses "Relativitätsprinzip" formulierte Hermann Weyl - ohne auf die Kabbalah anzuspielen - in dem Anhang Ars combinatoria zur 3. Auflage seiner Philosophie der Mathematik und Naturwissenschaft. Ihren Operationen verlieh die Kabbalah denn auch keine objektive, vielmehr eine mystische, in reiner Innenschau gewonnene Bedeutung.
  8. Haubner, S.: "Als einfacher Benutzer ist man rechtlos" : Unter den freiwilligen Wikipedia-Mitarbeitern regt sich Unmut über die Administratoren (2011) 0.00
    0.0038534638 = product of:
      0.0077069276 = sum of:
        0.0077069276 = product of:
          0.015413855 = sum of:
            0.015413855 = weight(_text_:22 in 4567) [ClassicSimilarity], result of:
              0.015413855 = score(doc=4567,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.09672529 = fieldWeight in 4567, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4567)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    3. 5.1997 8:44:22
  9. Laaff, M.: Googles genialer Urahn (2011) 0.00
    0.0038534638 = product of:
      0.0077069276 = sum of:
        0.0077069276 = product of:
          0.015413855 = sum of:
            0.015413855 = weight(_text_:22 in 4610) [ClassicSimilarity], result of:
              0.015413855 = score(doc=4610,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.09672529 = fieldWeight in 4610, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4610)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    24.10.2008 14:19:22
  10. Information science in transition (2009) 0.00
    0.0038534638 = product of:
      0.0077069276 = sum of:
        0.0077069276 = product of:
          0.015413855 = sum of:
            0.015413855 = weight(_text_:22 in 634) [ClassicSimilarity], result of:
              0.015413855 = score(doc=634,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.09672529 = fieldWeight in 634, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=634)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.2013 11:35:35
  11. Booth, P.F.: Indexing : the manual of good practice (2001) 0.00
    0.0032158147 = product of:
      0.0064316294 = sum of:
        0.0064316294 = product of:
          0.012863259 = sum of:
            0.012863259 = weight(_text_:subject in 1968) [ClassicSimilarity], result of:
              0.012863259 = score(doc=1968,freq=2.0), product of:
                0.16275941 = queryWeight, product of:
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.04550679 = queryNorm
                0.079032354 = fieldWeight in 1968, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1968)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Indexing is an activity which often goes unnoticed and can be taken for granted by reades. Indexing.- The Manual of Good Practice covers all aspects of whole document indexing of books, serial publications, images and sound materials. The book gives the purpose and principles of indexing, and covers areas such as managing the work, technology and other subject specialisms. The Manual takes the reader through the basic principles of indexing an to expert approaches, and therefore has a broad appeal for both indexers and prospective indexers whether they work freelance or in-house.
  12. Ackermann, A.: Zur Rolle der Inhaltsanalyse bei der Sacherschließung : theoretischer Anspruch und praktische Wirklichkeit in der RSWK (2001) 0.00
    0.0032158147 = product of:
      0.0064316294 = sum of:
        0.0064316294 = product of:
          0.012863259 = sum of:
            0.012863259 = weight(_text_:subject in 2061) [ClassicSimilarity], result of:
              0.012863259 = score(doc=2061,freq=2.0), product of:
                0.16275941 = queryWeight, product of:
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.04550679 = queryNorm
                0.079032354 = fieldWeight in 2061, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2061)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die vorliegende Arbeit ist einem Teilbereich der Sacherschließung gewidmet, dem erst in den letzten zehn Jahren etwas mehr Aufmerksamkeit zuteil geworden ist: der Inhaltsanalyse. Dabei handelt es sich um die Frage, wie sich Inhalte von Dokumenten' adäquat beschreiben lassen. Damit der Inhalt eines Dokuments im Anschluß an eine solche Beschreibung in einem Sachkatalog erfaßt werden kann, muß zunächst die Frage beantwortet werden, aufgrund welcher Kriterien wir entscheiden, was denn den Inhalt eines Dokuments ausmacht. Es läßt sich mit guten Gründen vermuten, daß die Antworten auf diese Frage sehr unterschiedlich ausfallen können. Anliegen dieser Arbeit ist es jedoch nicht, im Durchgang durch die bisher zu diesem Thema erschienene Literatur'- eine ganze Reihe von Antworten auf die eingangs formulierte Frage zu liefern. Derek Langridge hat mit seiner 1989 veröffentlichen Arbeit "Subject Analysis: Principles and Procedures" (dt. 1994) ein sehr grundlegendes und komplexes Konzept für die Inhaltsanalyse vorgelegt, das immer noch als einzigartig gelten kann. Durch die Beschränkung auf diesen einen, bislang differenziertesten Ansatz wird eine bessere Einsicht in die mit der Inhaltsanalyse verbundenen Probleme geboten als bei einer Behandlung sehr unterschiedlicher Modelle. Die Diskussion von Langridge's Konzeption wird deutlich machen, mit wievielen Problemen ein universaler Entwurf für die Inhaltsanalyse schon von der Sache her behaftet ist. Der erste Teil der Arbeit beschäftigt sich also mit einem theoretischen Konzept zur Inhaltsanalyse, das die begriffliche Folie für den zweiten Teil der Arbeit bildet. wo es um die Frage geht, inwieweit die "Regeln für die Schlagwortkatalogisierung" Inhaltsanalyse thematisieren und deren Forderungen auch an eine Schlagwortkata- logisierung angemessen berücksichtigen. Die ausführliche Erörterung der mit der Inhaltsanalyse zusammenhängenden theoretischen Probleme und ihrer oft philosophischen Implikationen ist deshalb notwendig, weil andernfalls die im zweiten Teil der Arbeit geäußerte Kritik an einer bestimmten Praxis deutlich an Gewicht verlöre. Daß auch der zweite Teil der Arbeit, wenn auch in anderer Form als der erste, einen theoretischen Fokus hat, hängt mit dem Umstand zusammen, daß sich die weitreichenden praktischen Auswirkungen eines Regelwerks wie den RSWK immer theoretischen Überlegungen verdanken, die in bestimmten Regeln Gestalt annehmen. Das einleitende zweite Kapitel der Arbeit beantwortet die Frage nach dem genauen Ort der Inhaltsanalyse im Kontext der Sacherschliessung und benennt allgemeine methodische Schwierigkeiten, die eine Inhaltsanalyse zu bewältigen hat. Außerdem wird hier die wachsende Bedeutung der Inhaltsanalyse angesichts der "Informationsflut'` im Internet expliziert. Das dritte Kapitel diskutiert Langridge's Modell. Nach der Ausführung von grundsätzlichen Überzeugungen Langridge's zum Auftrag von Bibliothekaren und zur Rolle der Bibliothekspraxis im Wissenschaftsbetrieb wird seine Konzeption einer Neuordnung des gesamten menschlichen Wissens im Detail vorgestellt. An die Klärung seiner Grundbegriffe schließt sich eine praktische Anleitung zur Inhaltsanalyse an. Ein kurzes Resümee bildet den Abschluß des Kapitels. Im vierten, den RSWK gewidmeten Kapitel werden zunächst in einem Exkurs Normierungsversuche der Inhaltsanalyse durch den ISO-Standard 5963 und die DIN-Norm 31623 vorgestellt, auf die die RSWK ausdrücklich Bezug nehmen. Der Diskussion des theoretischen Konzepts der Inhaltsanalyse schließen sich Erörterungen von praktischen Problemen an, die sich aus der Behandlung von inhaltsanalytisch relevanten Gesichtspunkten in den RSWK wie etwa dem .,engen Schlagwort". Weltanschauungen oder Zielgruppen von Dokumenten ergeben. Dabei werden vor allem Beispiele untersucht, die von den RSWK zur Illustration ihrer Regeln selbst angeführt werden. Das abschließende Resümee im fünften Kapitel reformuliert nocheinmal wesentliche Ergebnisse der vorliegenden Arbeit
  13. Exploring artificial intelligence in the new millennium (2003) 0.00
    0.0032158147 = product of:
      0.0064316294 = sum of:
        0.0064316294 = product of:
          0.012863259 = sum of:
            0.012863259 = weight(_text_:subject in 2099) [ClassicSimilarity], result of:
              0.012863259 = score(doc=2099,freq=2.0), product of:
                0.16275941 = queryWeight, product of:
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.04550679 = queryNorm
                0.079032354 = fieldWeight in 2099, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2099)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    In Chapter 7, Jeff Rickel and W. Lewis Johnson have created a virtual environment, with virtual humans for team training. The system is designed to allow a digital character to replace team members that may not be present. The system is also designed to allow students to acquire skills to occupy a designated role and help coordinate their activities with their teammates. The paper presents a complex concept in a very manageable fashion. In Chapter 8, Jonathan Yedidia et al. study the initial issues that make up reasoning under uncertainty. This type of reasoning, in which the system takes in facts about a patient's condition and makes predictions about the patient's future condition, is a key issue being looked at by many medical expert system developers. Their research is based an a new form of belief propagation, which is derived from generalized existing probabilistic inference methods that are widely used in AI and numerous other areas such as statistical physics. The ninth chapter, by David McAllester and Robert E. Schapire, looks at the basic problem of learning a language model. This is something that would not be challenging for most people, but can be quite arduous for a machine. The research focuses an a new technique called leave-one-out estimator that was used to investigate why statistical language models have had such success in this area of research. In Chapter 10, Peter Baumgartner looks at simplified theorem proving techniques, which have been applied very effectively in propositional logie, to first-ordered case. The author demonstrates how his new technique surpasses existing techniques in this area of AI research. The chapter simplifies a complex subject area, so that almost any reader with a basic Background in AI could understand the theorem proving. In Chapter 11, David Cohen et al. analyze complexity issues in constraint satisfaction, which is a common problem-solving paradigm. The authors lay out how tractable classes of constraint solvers create new classes that are tractable and more expressive than previous classes. This is not a chapter for an inexperienced student or researcher in AI. In Chapter 12, Jaana Kekalaine and Kalervo Jarvelin examine the question of finding the most important documents for any given query in text-based retrieval. The authors put forth two new measures of relevante and attempt to show how expanding user queries based an facets about the domain benefit retrieval. This is a great interdisciplinary chapter for readers who do not have a strong AI Background but would like to gain some insights into practical AI research. In Chapter 13, Tony Fountain et al. used machine learning techniques to help lower the tost of functional tests for ICs (integrated circuits) during the manufacturing process. The researchers used a probabilistic model of failure patterns extracted from existing data, which allowed generating of a decision-theoretic policy that is used to guide and optimize the testing of ICs. This is another great interdisciplinary chapter for a reader interested in an actual physical example of an AI system, but this chapter would require some AI knowledge.
  14. Wannags, M.-M.; Schäfers, S.: 7. InetBib-Tagung : 12. bis 14. November 2003 in Frankfurt am Main (2004) 0.00
    0.0032158147 = product of:
      0.0064316294 = sum of:
        0.0064316294 = product of:
          0.012863259 = sum of:
            0.012863259 = weight(_text_:subject in 2113) [ClassicSimilarity], result of:
              0.012863259 = score(doc=2113,freq=2.0), product of:
                0.16275941 = queryWeight, product of:
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.04550679 = queryNorm
                0.079032354 = fieldWeight in 2113, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2113)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Im Zentrum der Tagung standen die Präsentationen des Entwicklungsstands zahlreicher Projekte, die sich mit der Thematik des freien Zugriffs auf elektronische Dokumente und Dokumentenserver beschäftigen: Dr. Bruno Klotz-Berendes präsentierte einen umfangreichen Workshop zur 2000 gegründeten Open Archives Initiative (OAI). Die OAI sei weltweit tätig, mit dem Ziel wissenschaftliche Archive zu konsolidieren. Dass auch OCLC seine Metadaten über OAI zugänglich mache, unterstreiche die Bedeutung der Initiative. Mit OAI-PMH v. 2.0 lege ein "low barrier"-Protokoll für den Metadatenaustausch zwischen Daten- und Service-Providern vor. Es sei kein Endbenutzersuchprotokoll, wie Z39.50, sondern unterstütze als Einsammel(Harvesting)-Prozess den Datenfluss zwischen Servern. Wobei die Lieferung einzelner Datenprovider (Open Archives oder Repositories) durch Aggregatoren, wie z.B. Bibliotheksverbünde zusammengefasst werden könne. Zwischen Daten- und Service-Providern sollten Absprachen zur Kennzeichnung von Sets getroffen werden, damit der Service-Provider (Subject Gateways, Suchmaschinen, Mehrwertdienste) die für seinen Dienst geeigneten Objekte abholen könne. Über das EPICUR-Projekt der Deutschen Bibliothek berichtete Kathrin Schnöder. Ziel sei ein standardisierter, zitierfähiger Identifier (URN), der mittelfristig die URL ersetze. Dieses könne, auch in Hinblick auf die Langzeitverfügbarkeit, nur im Rahmen einer institutionalisierten Infrastruktur gewährleistet werden. Dr. Peter Schirmbachen stellte das "Das DINI-Zertifikat für Dokumenten- und Publikationsserver" vor, das, von der Arbeitsgruppe "Elektronisches Publizieren" der Deutschen Initiative für Netzwerkinformation (DINI) herausgegeben wurde. Dies soll ab 1.1.2004 die Unsicherheit beenden, welche Punkte beim Betrieb eines Dokumentenservers zu beachten sind. Das Zertifikat führe einen Qualitätsstandard ein, indem es Mindestkriterien und Empfehlungen festlege für: Leitlinien (Policy), Autorenbetreuung, rechtliche Aspekte, Authentizität und Integrität, Erschließung, Zugriffsstatistik und Langzeitverfügbarkeit.
  15. Crowley, W.: Spanning the theory-practice divide in library and information science (2005) 0.00
    0.0032158147 = product of:
      0.0064316294 = sum of:
        0.0064316294 = product of:
          0.012863259 = sum of:
            0.012863259 = weight(_text_:subject in 439) [ClassicSimilarity], result of:
              0.012863259 = score(doc=439,freq=2.0), product of:
                0.16275941 = queryWeight, product of:
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.04550679 = queryNorm
                0.079032354 = fieldWeight in 439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.015625 = fieldNorm(doc=439)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    "Theory and Revelation" is devoted to encouraging LIS researchers, in any capacity, not to dismiss the role of faith, beliefs, and religion. The ending section presents "A Nine-Step Model for Pragmatic Research," which stops just short of being a "how-to" by not elucidating on the methodological considerations for each step. The model, while textual, bears a striking resemblance to the flow charts for approaching research found in many research instructional works, even though the entertaining of "solutions" to problems is an iterative element of the process. The text concludes with "The Foundations for Building Bridges," a fivepage summary section, almost woefully inadequate given the substantial issues developed and presented throughout the work. Crowley must be commended for his comprehensive approach to the subject, the detailed annotations, the glossary, the summary of works cited, and the index. The format of starting each chapter with a themed scenario prevented the writing from becoming dry and sleepinducing. Most of the chapters end with a specific section addressing how the issues relate to LIS. The overall structure of the text follows logically from the more theoretical to the more applicable. However, there is a definite bias towards occurrences where practitioners and academicians tend to co-exist and function in a research environment, i.e., library science and academic institutions. Information professionals working in public and community college libraries are discussed in a rather superficial manner. How cultural pragmatism can influence research and theory centered in the information science domain must still be considered in more depth than presented in this text. Further expansion on, and a critical analysis of, cultural pragmatism as a metatheoretical perspective is definitely in order. Hopefully, Spanning the Theory-Practice Divide in Library and Information Science will be an introduction to the use of cultural pragmatism in LIS research and in the development of useful theory. In response to an e-mail from me upon first reading the text, the author informed me of his contact with several other doctoral students interested in furthering their understanding of cultural pragmatism. Inspiring other professionals is certainly a testament to the value of the work and supports my recommendation for this text as essential reading for LIS professionals interested in producing research and theory that are truly useful."
  16. Net effects : how librarians can manage the unintended consequenees of the Internet (2003) 0.00
    0.0032158147 = product of:
      0.0064316294 = sum of:
        0.0064316294 = product of:
          0.012863259 = sum of:
            0.012863259 = weight(_text_:subject in 1796) [ClassicSimilarity], result of:
              0.012863259 = score(doc=1796,freq=2.0), product of:
                0.16275941 = queryWeight, product of:
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.04550679 = queryNorm
                0.079032354 = fieldWeight in 1796, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.576596 = idf(docFreq=3361, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1796)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Some of the pieces are more captivating than others and less "how-to" in nature, providing contextual discussions as well as pragmatic advice. For example, Darlene Fichter's "Blogging Your Life Away" is an interesting discussion about creating and maintaining blogs. (For those unfamiliar with the term, blogs are frequently updated Web pages that ]ist thematically tied annotated links or lists, such as a blog of "Great Websites of the Week" or of "Fun Things to Do This Month in Patterson, New Jersey.") Fichter's article includes descriptions of sample blogs and a comparison of commercially available blog creation software. Another article of note is Kelly Broughton's detailed account of her library's experiences in initiating Web-based reference in an academic library. "Our Experiment in Online Real-Time Reference" details the decisions and issues that the Jerome Library staff at Bowling Green State University faced in setting up a chat reference service. It might be useful to those finding themselves in the same situation. This volume is at its best when it eschews pragmatic information and delves into the deeper, less ephemeral libraryrelated issues created by the rise of the Internet and of the Web. One of the most thought-provoking topics covered is the issue of "the serials pricing crisis," or the increase in subscription prices to journals that publish scholarly work. The pros and cons of moving toward a more free-access Web-based system for the dissemination of peer-reviewed material and of using university Web sites to house scholars' other works are discussed. However, deeper discussions such as these are few, leaving the volume subject to rapid aging, and leaving it with an audience limited to librarians looking for fast technological fixes."
  17. Hassemer, W.: Haltet den geborenen Dieb! (2010) 0.00
    0.0030827709 = product of:
      0.0061655417 = sum of:
        0.0061655417 = product of:
          0.012331083 = sum of:
            0.012331083 = weight(_text_:22 in 173) [ClassicSimilarity], result of:
              0.012331083 = score(doc=173,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.07738023 = fieldWeight in 173, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=173)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Vgl. die Erwiderungs- und Fortsetzungsbeiträge: Roth, G., G. Merkel: Haltet den Richter!: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 26.06.2010, S.xx. Walter, M.: Unzulässige Überinterpretation: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 05.07.2010, S.xx. Janich, P.: Stillschweigende Hirngespinste: Die FR-Debatte zur Willensfreiheit. In: Frankfurter Rundschau. Nr.158 vom 12.07.2010, S.20-21. Lüderssen, K.: Wer determiniert die Hirnforscher?: Was ist Willensfreiheit (4). [Interview]. In: Frankfurter Rundschau. Nr.164 vom 19.07.2010, S.20-21. Pauen, M.: Das Schuldprinzip antasten, ohne es abzuschaffen: Was ist Willensfreiheit (5) oder: Wer ist verantwortlich für die Abschaffung von Verantwortung?. In: Frankfurter Rundschau. Nr.170 vom 26.07.2010, S.22-23. Vgl.: http://www.faz.net/s/RubCF3AEB154CE64960822FA5429A182360/Doc~E384DC40FFB99469F8C26751F979BFCBF~ATpl~Ecommon~Scontent~Afor~Eprint.html.
  18. Hilberer, T.: Aufwand vs. Nutzen : Wie sollen deutsche wissenschaftliche Bibliotheken künftig katalogisieren? (2003) 0.00
    0.0030827709 = product of:
      0.0061655417 = sum of:
        0.0061655417 = product of:
          0.012331083 = sum of:
            0.012331083 = weight(_text_:22 in 1733) [ClassicSimilarity], result of:
              0.012331083 = score(doc=1733,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.07738023 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2003 12:13:13
  19. Johannsen, J.: InetBib 2004 in Bonn : Tagungsbericht: (2005) 0.00
    0.0030827709 = product of:
      0.0061655417 = sum of:
        0.0061655417 = product of:
          0.012331083 = sum of:
            0.012331083 = weight(_text_:22 in 3125) [ClassicSimilarity], result of:
              0.012331083 = score(doc=3125,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.07738023 = fieldWeight in 3125, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3125)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2005 19:05:37
  20. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.00
    0.0030827709 = product of:
      0.0061655417 = sum of:
        0.0061655417 = product of:
          0.012331083 = sum of:
            0.012331083 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.012331083 = score(doc=4871,freq=2.0), product of:
                0.15935703 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550679 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2006 18:34:49

Authors

Languages

Types

  • a 5574
  • m 625
  • el 322
  • s 247
  • b 49
  • r 45
  • x 41
  • i 38
  • p 18
  • ? 14
  • d 12
  • n 7
  • h 5
  • u 2
  • z 2
  • au 1
  • l 1
  • More… Less…

Themes

Subjects

Classifications