Search (1318 results, page 2 of 66)

  • × language_ss:"e"
  • × year_i:[2000 TO 2010}
  1. Oehlschläger, S.: Treffpunkt Standardisierung : Der Standardisierungsausschuss beim 94. Deutschen Bibliothekartag in Düsseldorf (2005) 0.09
    0.087963834 = product of:
      0.23750235 = sum of:
        0.022656096 = weight(_text_:und in 3691) [ClassicSimilarity], result of:
          0.022656096 = score(doc=3691,freq=76.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3773797 = fieldWeight in 3691, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.021327708 = weight(_text_:aus in 3691) [ClassicSimilarity], result of:
          0.021327708 = score(doc=3691,freq=12.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.23080753 = fieldWeight in 3691, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.025713598 = weight(_text_:dem in 3691) [ClassicSimilarity], result of:
          0.025713598 = score(doc=3691,freq=20.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.28795293 = fieldWeight in 3691, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.026397973 = weight(_text_:der in 3691) [ClassicSimilarity], result of:
          0.026397973 = score(doc=3691,freq=100.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.43628258 = fieldWeight in 3691, product of:
              10.0 = tf(freq=100.0), with freq of:
                100.0 = termFreq=100.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.022656096 = weight(_text_:und in 3691) [ClassicSimilarity], result of:
          0.022656096 = score(doc=3691,freq=76.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3773797 = fieldWeight in 3691, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.026397973 = weight(_text_:der in 3691) [ClassicSimilarity], result of:
          0.026397973 = score(doc=3691,freq=100.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.43628258 = fieldWeight in 3691, product of:
              10.0 = tf(freq=100.0), with freq of:
                100.0 = termFreq=100.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.01690087 = weight(_text_:geschichte in 3691) [ClassicSimilarity], result of:
          0.01690087 = score(doc=3691,freq=2.0), product of:
            0.12874028 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.027087249 = queryNorm
            0.1312788 = fieldWeight in 3691, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.026397973 = weight(_text_:der in 3691) [ClassicSimilarity], result of:
          0.026397973 = score(doc=3691,freq=100.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.43628258 = fieldWeight in 3691, product of:
              10.0 = tf(freq=100.0), with freq of:
                100.0 = termFreq=100.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.026397973 = weight(_text_:der in 3691) [ClassicSimilarity], result of:
          0.026397973 = score(doc=3691,freq=100.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.43628258 = fieldWeight in 3691, product of:
              10.0 = tf(freq=100.0), with freq of:
                100.0 = termFreq=100.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.022656096 = weight(_text_:und in 3691) [ClassicSimilarity], result of:
          0.022656096 = score(doc=3691,freq=76.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3773797 = fieldWeight in 3691, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
      0.37037036 = coord(10/27)
    
    Content
    "Nach Augsburg, Bielefeld und Leipzig hat der Standardisierungsausschuss beim 94. Deutschen Bibliothekartag in Düsseldorf zum vierten Mal in Folge eine Veranstaltung zum Themenfeld Standardisierung durchgeführt, die vom Vorsitzenden, Berndt Dugall, moderiert wurde. Auch in diesem Jahr konnten dafür wieder zwei Referenten aus dem Ausland gewonnen werden, die einen Einblick in internationale Aktivitäten gewährten. Den Auftakt bildete Jeffrey Garrett von der Northwestern University Library in Evanston, Illinois mit seinem Vortrag »Entscheidend auch hier der Einstieg - Wandel und Kontinuität im Ethos des Katalogisierens in den USA«. Zunächst erläuterte der Referent die Losung aus dem Titel, die aus dem Werk »Bücherlabyrinthe: Suchen und Finden im alexandrinischen Zeitalter« von Nikolaus Wegmann stammt. Dieses Buch erinnere daran, dass der Katalog in der Nachfolge von Schrettinger und Dewey den Einstieg des Benutzers in die ansonsten gewaltige Unordnung der Bibliothek ermögliche, und dadurch die »Sichtbarkeit« der modernen Forschungsbibliothek erst her- bzw. sicherstellt. Garrett stellte die Frage nach dem Sinn von Katalogen im elektronischen Zeitalter, einer Zeit, in der bibliografische Angaben beziehungsweise Schlagworte durch Volltextrecherchen, die sich gleichzeitig auf mehrere tausend Publikationen erstrecken können, umgangen werden können, und in welcher der Inhalt eines Textes in ständigem Wandel begriffen ist. In seinem Vortrag hat der Referent einige Entwicklungen auf dem Gebiet des Katalogisierens in den USA teils theoretisch, teils konkret nachgezeichnet, in der Absicht, sowohl den Wandel als auch die Kontinuität im Bereich der Erschließung aufzuzeigen. Die bisweilen geäußerte Feststellung, dass Kataloge auf den Müllhaufen der Geschichte gehörten, bezeichnete Garrett als maßlos übertrieben und nur angesichts des »Google-Schocks« in den USA zu erklären. Der Katalog diene nach wie vor als Beschreibung des Volltexts. Der Moderator kommentierte dazu, dass der Gedanke des »Vanishing catalogue« vergleichbar sei mit dem Traum vom papierlosen Büro. Patrick Le Boeuf, der Vorsitzende der IFLA FRBR Review Group, referierte in seinem Vortrag »Zwischen Traum und Wirklichkeit« über die Functional Requirements for Bibliographic Records (FRBR). Anhand von leicht verständlichen Beispielen erläuterte er, was die FRBR mit den vier Entitäten der Gruppe 1: Werk (work), Fassung (expression), Erscheinungsform (manifestation) und Exemplar (item) sind. Ausführlich ging er auch darauf ein, was die FRBR nicht sind und was sie nicht leisten können. Es handelt sich dabei weder um eine Norm, noch um ein Datenmodell oder gar ein Format. Dennoch haben die FRBR Einfluss auf die Standardisierungsaktivitäten auf internationaler wie nationaler Ebene. In einigen Systemen, Prototypen und Projekten lässt sich das Potenzial des FRBRModells für bibliografische Informationen bereits aufzeigen. Ganz konkret werden die FRBR in die Überlegungen der IFLA Meetings of Experts an an International Cataloguing Code einbezogen und haben Einzug in die »Frankfurt principles« gefunden, deren Ziel eine Aktualisierung der »Paris principles« ist, und die bei nachfolgenden Regionaltreffen bis 2007 von Kolleginnen und Kollegen aus allen Teilen der WeIt weiter diskutiert und modifiziert werden. Durch die gegenwärtige Revision der Anglo-American Cataloguing Rules (AACR) werden die FRBR auch Einzug in das internationale Regelwerk halten.
    Mit großer Spannung wurde der Vortrag von Elisabeth Niggemann und Reiner Diedrichs über das weitere Vorgehen nach Abschluss des Projekts »Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)« erwartet. Unter dem programmatischen Titel »Hinter dem Horizont geht es weiter« stellten der Vorsitzende der Arbeitsgemeinschaft der Verbundsysteme und die Generaldirektorin Der Deutschen Bibliothek vor, wie die Internationalisierung der deutschen Standards im Einzelnen aussehen soll, und welche Maßnahmen erforderlich sind. Die Arbeitsgemeinschaft der Verbundsysteme hatte in ihrer Herbstsitzung 2004 verschiedene Beschlüsse getroffen, welche die Zusammenarbeit der Verbundsysteme fördern und erleichtern sollen. Dazu gehören u. a. die Entwicklung eines prototypischen Verfahrens für einen Neukatalogisierungsdienst mit einheitlichen Datenstrukturen und einheitlichen Formatanwendungen, die Verwendung von MARC21 als einheitlichem Austauschformat und die Entwicklung eines Matchkey-Verfahrens zur verbundübergreifenden Titelerkennung. Außerdem wurden grundsätzliche Anforderungen an das künftige Regelwerk und für eine Reorganisation der Normdatenarbeit formuliert, die die Ziele der Arbeitsgemeinschaft effektiv unterstützen sollen. Der Standardisierungsausschuss hat diese Beschlüsse in seiner 9. Sitzung im Dezember 2004 begrüßt, bestätigt und konkretisiert. Nun gilt es, die Beschlüsse zügig umzusetzen, um die gesteckten Ziele zu verfolgen: einfacher Zugang zu bibliografischer Information national wie international für wissenschaftliche und andere persönliche Nutzer, leichte Austauschbarkeit von bibliografischer Information zwischen professionellen Benutzergruppen und Anwendern und last but not least Kostenreduktion bei der Erschließung. Im Anschluss stellte Renate Gömpel, Die Deutsche Bibliothek, die IFLA-CDNL Allianz für Bibliografische Standards (ICABS) vor, die während des Weltkongresses Bibliothek und Information in Berlin als ein neues strategisches Vorhaben ins Leben gerufen wurde. Mit ICABS streben die National Library of Australia, die Library of Congress, die British Library, die Koninklijke Bibliotheek der Niederlande und Die Deutsche Bibliothek gemeinsam mit der Biblioteca Nacional Portugals, der IFLA und der Conference of Directors of National Libraries (CDNL) die Fortsetzung und Unterstützung von Schlüsselaktivitäten im Bereich der bibliografischen und der Ressourcenkontrolle sowie damit zusammenhängender Formatstandards an. Die Allianz führt damit die Arbeit der Geschäftsstellen der früheren IFLA-Kernprogramme UBCIM (Universal Bibliographic Control and International MARC) und UDT (Universal Dataflow and Telecommunications) fort. In dem Vortrag wurde ein Überblick über Ziele und Vorhaben von ICABS, ihre Organisation sowie deren Arbeit als Dach für facettenreiche Aktivitäten im Bereich bibliografischer Standards gegeben. Koordiniert wird die Arbeit von ICABS durch das Advisory Board, das aus Vertretern aller beteiligten Institutionen und Organisationen besteht und dessen Vorsitz gegenwärtig ebenso wie das Sekretariat bei Der Deutschen Bibliothek angesiedelt ist. Der Standardisierungsausschuss hat bereits erste Planungen für eine Veranstaltung beim 95. Deutschen Bibliothekartag in Dresden angestellt. Dort soll über den Stand der Internationalisierung des deutschen Regelwerks, den Umstieg auf MARC21 und die Weiterentwicklung der Normdateien berichtet werden. Darüber hinaus erwartet die Teilnehmerinnen und Teilnehmer ein Bericht aus dem Joint Steering Committee for Revision of Anglo-American Cataloguing Rules (JSC) über den Stand der AACR3. Es wird sicherlich spannend, merken Sie sich diesen Termin vor."
  2. Rösch, H.: Entwicklungsstand und Qualitätsmanagement digitaler Auskunft in Bibliotheken (2007) 0.09
    0.08748097 = product of:
      0.23619862 = sum of:
        0.032969866 = weight(_text_:allgemeine in 400) [ClassicSimilarity], result of:
          0.032969866 = score(doc=400,freq=2.0), product of:
            0.14215381 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.027087249 = queryNorm
            0.23193093 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.024948793 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.024948793 = score(doc=400,freq=36.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41556883 = fieldWeight in 400, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.019701693 = weight(_text_:aus in 400) [ClassicSimilarity], result of:
          0.019701693 = score(doc=400,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.21321087 = fieldWeight in 400, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.022534266 = weight(_text_:dem in 400) [ClassicSimilarity], result of:
          0.022534266 = score(doc=400,freq=6.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.2523493 = fieldWeight in 400, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.021536605 = weight(_text_:der in 400) [ClassicSimilarity], result of:
          0.021536605 = score(doc=400,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 400, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.024948793 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.024948793 = score(doc=400,freq=36.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41556883 = fieldWeight in 400, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.021536605 = weight(_text_:der in 400) [ClassicSimilarity], result of:
          0.021536605 = score(doc=400,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 400, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.021536605 = weight(_text_:der in 400) [ClassicSimilarity], result of:
          0.021536605 = score(doc=400,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 400, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.021536605 = weight(_text_:der in 400) [ClassicSimilarity], result of:
          0.021536605 = score(doc=400,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 400, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.024948793 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.024948793 = score(doc=400,freq=36.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41556883 = fieldWeight in 400, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
      0.37037036 = coord(10/27)
    
    Abstract
    Zunächst wird die aktuelle Bedeutung digitaler Auskunft in der Informationsgesellschaft angesprochen. Anschließend folgt ein Überblick über den bislang erreichten Entwicklungsstand dieser relativ neuen Dienstleistung. Dabei werden die Vor- und Nachteile der technischen und organisatorischen Varianten erläutert. Schließlich richtet sich der Blick auf Qualitätskriterien zur Bewertung und Verbesserung digitaler Auskunft in der Praxis.
    Content
    "Die Ursprünge digitaler Auskunft reichen zurück in die 1980er Jahre. Aus bescheidenen Anfängen hat sich inzwischen eine bibliothekarische Standarddienstleistung entwickelt. Mit dem digitalen Umbruch stellten die Bibliotheken zunächst ihre Kataloge im Web für die Recherche bereit und boten FAQs zur Beantwortung von Standardfragen an. Um den vollen Umfang bibliothekarischer Dienstleistungen im Internet präsentieren zu können, bedurfte es darüber hinaus der Entwicklung eines Äquivalents für die klassische Auskunft im WWW. Die Entwicklung von digitaler Auskunft drängte sich aber nicht nur aus diesem Grund auf; das Web veränderte (und verändert) zudem die Informationskultur der Kunden; diese erwarten schnelleren und einfacheren Service. Alles soll so unmittelbar und so unkompliziert recherchierbar sein, wie man es von Google, Yahoo und anderen gewohnt ist. Außerdem hat die bibliothekarische Auskunft mit "Yahoo Clever" oder "Lycos IQ" kommerzielle Konkurrenten erhalten. Digitale Auskunft musste also als Antwort auf die Herausforderungen der kommerziellen Konkurrenz und der veränderten Benutzergewohnheiten schnell entwickelt werden. Denn nur so konnte und kann rechtzeitig unter Beweis gestellt werden, dass Bibliotheken für viele Auskunftsfälle gegenüber Suchmaschinen und Webkatalogen einen ungeheueren Vorteil besitzen: Die klassische und damit auch die digitale Auskunft zielt nicht darauf, die Fragen zu beantworten, die Benutzer stellen, sondern (idealerweise) darauf, ihnen die Informationen zu verschaffen, die sie tatsächlich benötigen.
    Schon in der ersten Hälfte des 20. Jahrhunderts war in der Praxis des Auskunftsdienstes in den USA bekannt geworden, dass Benutzer häufig nicht nach dem fragen was sie eigentlich suchen, sondern meist allgemeine und nicht selten irreführende Fragen stellen. Dafür ist die Technik des Auskunftsinterviews entwickelt worden, um gemeinsam mit dem Kunden zu ermitteln, welche Informationen exakt gesucht werden. Während Suchmaschinen nur die syntaktische und (in Ausnahmefällen) die semantische Ebene der gestellten Frage abarbeiten können, vermag bibliothekarische Auskunft einer dritten, nämlich jener pragmatischen Dimension gerecht zu werden. Anders ausgedrückt: Suchmaschinen und andere Navigationsinstrumente des Internet arbeiten objektorientiert, digitale Auskunft durch bibliothekarische Experten hingegen erbringt subjekt- bzw. kundenorientierte Dienstleistungen. Bibliotheken mit elaborierter digitaler Auskunft sind den Herausforderungen der Informationsgesellschaft damit gewachsen: ja sie sind noch unverzichtbarer als zuvor. Speziell in Deutschland allerdings ist es nicht damit getan, digitale Auskunft mit Engagement zu entwickeln. Darüber hinaus müssen große Anstrengungen unternommen werden, um die Leistungsfähigkeit dieser bibliothekarischen Dienstleistung in das Bewusstsein der realen und potentiellen Kunden zu rücken."
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.4, S.197-202
  3. New directions in cognitive information retrieval (2005) 0.09
    0.08739278 = product of:
      0.21450955 = sum of:
        0.020606166 = weight(_text_:allgemeine in 338) [ClassicSimilarity], result of:
          0.020606166 = score(doc=338,freq=2.0), product of:
            0.14215381 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.027087249 = queryNorm
            0.14495683 = fieldWeight in 338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.020130472 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.020130472 = score(doc=338,freq=60.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33531067 = fieldWeight in 338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.015080968 = weight(_text_:aus in 338) [ClassicSimilarity], result of:
          0.015080968 = score(doc=338,freq=6.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.16320558 = fieldWeight in 338, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.016262705 = weight(_text_:dem in 338) [ClassicSimilarity], result of:
          0.016262705 = score(doc=338,freq=8.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.1821174 = fieldWeight in 338, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.019035852 = weight(_text_:der in 338) [ClassicSimilarity], result of:
          0.019035852 = score(doc=338,freq=52.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.31460786 = fieldWeight in 338, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.020130472 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.020130472 = score(doc=338,freq=60.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33531067 = fieldWeight in 338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.019035852 = weight(_text_:der in 338) [ClassicSimilarity], result of:
          0.019035852 = score(doc=338,freq=52.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.31460786 = fieldWeight in 338, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.019035852 = weight(_text_:der in 338) [ClassicSimilarity], result of:
          0.019035852 = score(doc=338,freq=52.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.31460786 = fieldWeight in 338, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.02602491 = weight(_text_:allgemeinen in 338) [ClassicSimilarity], result of:
          0.02602491 = score(doc=338,freq=2.0), product of:
            0.15975504 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.027087249 = queryNorm
            0.1629051 = fieldWeight in 338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.019035852 = weight(_text_:der in 338) [ClassicSimilarity], result of:
          0.019035852 = score(doc=338,freq=52.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.31460786 = fieldWeight in 338, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.020130472 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.020130472 = score(doc=338,freq=60.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33531067 = fieldWeight in 338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
      0.4074074 = coord(11/27)
    
    Classification
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.95-98 (O. Oberhauser): "Dieser Sammelband der Herausgeber A. Spink & C. Cole ist kurz vor ihrem im letzten Heft der Mitteilungen der VÖB besprochenen zweiten Buch erschienen. Er wendet sich an Informationswissenschaftler, Bibliothekare, Sozialwissenschaftler sowie Informatiker mit Interesse am Themenbereich Mensch-Computer-Interaktion und präsentiert einen Einblick in die aktuelle Forschung zum kognitiv orientierten Information Retrieval. Diese Richtung, die von der Analyse der Informationsprobleme der Benutzer und deren kognitivem Verhalten bei der Benutzung von Informationssystemen ausgeht, steht in einem gewissen Kontrast zum traditionell vorherrschenden IR-Paradigma, das sich auf die Optimierung der IR-Systeme und ihrer Effizienz konzentriert. "Cognitive information retrieval" oder CIR (natürlich geht es auch hier nicht ohne ein weiteres Akronym ab) ist ein interdisziplinärer Forschungsbereich, der Aktivitäten aus Informationswissenschaft, Informatik, Humanwissenschaften, Kognitionswissenschaft, Mensch-Computer-Interaktion und anderen informationsbezogenen Gebieten inkludiert.
    New Directions ist nach demselben, durchaus ansprechenden Muster "gestrickt" wie das oben erwähnte zweite Buch (tatsächlich war es ja wohl umgekehrt) Der vorliegende Band beinhaltet ebenfalls zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich bei den Sektionen 1 und 5 (=Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Erstere ist eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden. Letztere dagegen möchte ein eigenständiger Beitrag sein, der die in diesem Band angesprochenen Aspekte in einen gemeinsamen Bezugsrahmen stellt; de facto ist dies aber weniger gut gelungen als im zweiten Buch, zumal hier hauptsächlich eine Wiederholung des früher Gesagten geboten wird. Die Beiträge aus den drei verbleibenden Hauptsektionen sollen im Folgenden kurz charakterisiert werden:
    CIR Concepts - Interactive information retrieval: Bringing the user to a selection state, von Charles Cole et al. (Montréal), konzentriert sich auf den kognitiven Aspekt von Benutzern bei der Interaktion mit den bzw. der Reaktion auf die vom IR-System ausgesandten Stimuli; "selection" bezieht sich dabei auf die Auswahl, die das System den Benutzern abverlangt und die zur Veränderung ihrer Wissensstrukturen beiträgt. - Cognitive overlaps along the polyrepresentation continuum, von Birger Larsen und Peter Ingwersen (Kopenhagen), beschreibt einen auf Ingwersens Principle of Polyrepresentation beruhenden methodischen Ansatz, der dem IR-System ein breiteres Bild des Benutzers bzw. der Dokumente vermittelt als dies bei herkömmlichen, lediglich anfragebasierten Systemen möglich ist. - Integrating approaches to relevance, von Ian Ruthven (Glasgow), analysiert den Relevanzbegriff und schlägt anstelle des gegenwärtig in IR-Systemverwendeten, eindimensionalen Relevanzkonzepts eine multidimensionale Sichtweise vor. - New cognitive directions, von Nigel Ford (Sheffield), führt neue Begriffe ein: Ford schlägt anstelle von information need und information behaviour die Alternativen knowledge need und knowledge behaviour vor.
    CIR Processes - A multitasking framework for cognitive information retrieval, von Amanda Spink und Charles Cole (Australien/Kanada), sieht - im Gegensatz zu traditionellen Ansätzen - die simultane Bearbeitung verschiedener Aufgaben (Themen) während einer Informationssuche als den Normalfall an und analysiert das damit verbundene Benutzerverhalten. - Explanation in information seeking and retrieval, von Pertti Vakkari und Kalervo Järvelin (Tampere), plädiert anhand zweier empirischer Untersuchungen für die Verwendung des aufgabenorientierten Ansatzes ("task") in der IR-Forschung, gerade auch als Bindeglied zwischen nicht ausreichend mit einander kommunizierenden Disziplinen (Informationswissenschaft, Informatik, diverse Sozialwissenschaften). - Towards an alternative information retrieval system for children, von Jamshid Beheshti et al. (Montréal), berichtet über den Stand der IR-Forschung für Kinder und schlägt vor, eine Metapher aus dem Sozialkonstruktivismus (Lernen als soziales Verhandeln) als Gestaltungsprinzip für einschlägige IR-Systeme zu verwenden. CIR Techniques - Implicit feedback: using behavior to infer relevance, von Diane Kelly (North Carolina), setzt sich kritisch mit den Techniken zur Analyse des von Benutzern von IR-Systemen geäußerten Relevance-Feedbacks - explizit und implizit - auseinander. - Educational knowledge domain visualizations, von Peter Hook und Katy Börner (Indiana), beschreibt verschiedene Visualisierungstechniken zur Repräsentation von Wissensgebieten, die "Novizen" bei der Verwendung fachspezifischer IR-Systeme unterstützen sollen. - Learning and training to search, von Wendy Lucas und Heikki Topi (Massachusetts), analysiert, im breiteren Kontext der Information- Seeking-Forschung, Techniken zur Schulung von Benutzern von IRSystemen.
    Sämtliche Beiträge sind von hohem Niveau und bieten anspruchsvolle Lektüre. Verallgemeinert formuliert, fragen sie nach der Verknüpfung zwischen dem breiteren Kontext des Warum und Wie der menschlichen Informationssuche und den technischen bzw. sonstigen Randbedingungen, die die Interaktion zwischen Benutzern und Systemen bestimmen. Natürlich liegt hier kein Hand- oder Lehrbuch vor, sodass man - fairerweise - nicht von einer systematischen Behandlung dieses Themenbereichs oder einem didaktischen Aufbau ausgehen bzw. derlei erwarten darf. Das Buch bietet jedenfalls einen guten und vielfältigen Einstieg und Einblick in dieses interessante Forschungsgebiet. Fachlich einschlägige und größere allgemeine Bibliotheken sollten es daher jedenfalls in ihren Bestand aufnehmen. Schon die Rezension des oben zitierten zweiten Buches des Herausgeber-Duos Spink-Cole enthielt einen kritischen Hinweis auf das dortige Sachregister. Der vorliegende Band erfordert noch stärkere Nerven, denn der hier als "Index" bezeichnete Seitenfüller spottet geradezu jeder Beschreibung, umso mehr, als wir uns in einem informationswissenschaftlichen Kontext befi nden. Was soll man denn tatsächlich mit Einträgen wie "information" anfangen, noch dazu, wenn dazu über 150 verschiedene Seitenzahlen angegeben werden? Ähnlich verhält es sich mit anderen allgemeinen Begriffen wie z.B. "knowledge", "model", "tasks", "use", "users" - allesamt mit einer gewaltigen Menge von Seitenzahlen versehen und damit ohne Wert! Dieses der Leserschaft wenig dienliche Register ist wohl dem Verlag anzulasten, auch wenn die Herausgeber selbst seine Urheber gewesen sein sollten. Davon abgesehen wurde wieder einmal ein solide gefertigter Band vorgelegt, der allerdings wegen seines hohen Preis eher nur institutionelle Käufer ansprechen wird."
    RVK
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
  4. St. Clair, G.: Beyond degrees : professional learning for knowledge services (2003) 0.09
    0.08551736 = product of:
      0.23089689 = sum of:
        0.02533562 = weight(_text_:und in 2301) [ClassicSimilarity], result of:
          0.02533562 = score(doc=2301,freq=66.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42201215 = fieldWeight in 2301, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2301)
        0.036194324 = weight(_text_:aus in 2301) [ClassicSimilarity], result of:
          0.036194324 = score(doc=2301,freq=24.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.3916934 = fieldWeight in 2301, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2301)
        0.02181871 = weight(_text_:dem in 2301) [ClassicSimilarity], result of:
          0.02181871 = score(doc=2301,freq=10.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.24433616 = fieldWeight in 2301, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2301)
        0.02284302 = weight(_text_:der in 2301) [ClassicSimilarity], result of:
          0.02284302 = score(doc=2301,freq=52.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3775294 = fieldWeight in 2301, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2301)
        0.02533562 = weight(_text_:und in 2301) [ClassicSimilarity], result of:
          0.02533562 = score(doc=2301,freq=66.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42201215 = fieldWeight in 2301, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2301)
        0.02284302 = weight(_text_:der in 2301) [ClassicSimilarity], result of:
          0.02284302 = score(doc=2301,freq=52.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3775294 = fieldWeight in 2301, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2301)
        0.02284302 = weight(_text_:der in 2301) [ClassicSimilarity], result of:
          0.02284302 = score(doc=2301,freq=52.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3775294 = fieldWeight in 2301, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2301)
        0.02284302 = weight(_text_:der in 2301) [ClassicSimilarity], result of:
          0.02284302 = score(doc=2301,freq=52.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3775294 = fieldWeight in 2301, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2301)
        0.02533562 = weight(_text_:und in 2301) [ClassicSimilarity], result of:
          0.02533562 = score(doc=2301,freq=66.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42201215 = fieldWeight in 2301, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2301)
        0.005504922 = product of:
          0.011009844 = sum of:
            0.011009844 = weight(_text_:22 in 2301) [ClassicSimilarity], result of:
              0.011009844 = score(doc=2301,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.116070345 = fieldWeight in 2301, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2301)
          0.5 = coord(1/2)
      0.37037036 = coord(10/27)
    
    Date
    11. 6.2004 14:52:22
    Footnote
    Rez. in BuB 56(2004) H.2, S.148-149 (J. Plieninger): "Guy St. Clair wagt mit diesem Buch den ganz großen Wurf, er diskutiert nicht weniger als ein neues Profil für die Informationsberufe, deren Aus- und Fortbildung sowie ein Entwicklungskonzept für das Wissensmanagement in Unternehmen. Im Informationsmanagement ist er als Autor wohl bekannt - er gibt bei Saur die Reihe heraus, in der auch dieses Buch erschienen ist-, im Bibliothekswesen war er für den Bereich der One-Person Librarians (OPL) von Bedeutung, stand er doch in den USA und auch in Deutschland am Anfang deren »Bewegung«. Nun also ein neues Berufsbild und neue Ausbildungsformen als Entwurf, sagen wir gleich: als Utopie. Schauen wir aber ein wenig genauerhin. Zertifizierte Aus- und Fortbildung Am Anfang seiner Überlegungen steht die These, dass keiner der herkömmlichen Informationsberufe - Bibliothekar, Dokumentar und Archivar - den Anforderungen so ganz entspricht, dass auch die Aus- und Fortbildung für diese Berufe im Argen liegt, wie Schließungen von Hochschulen und fortwährende Studiengangs- und Curriculumsrevisionen zeigen. Er versucht daher, den gordischen Knoten zu durchschlagen, indem er einen neuen Beruf des »Knowledge Workers« konzipiert, der sich aus der Konvergenz des Informationsmanage ments, Wissensmanagements und des strategischen, arbeitsorientierten Lernens ergeben soll. Obwohl er zu Anfang neben Spezialbibliotheken auch wissenschaftliche und Offentliche Bibliotheken diskutiert, beziehen sich seine späteren Überlegungen vor allem auf die Spezial- und hier insbesondere auf die Firmenbibliotheken beziehungsweise -informationszentren. Und auch hier sind es weniger die kleinen und mittleren Firmen mit ihren One-Person Libraries als die großen Firmen mit umfangreicheren Informationsdienstleistungseinheiten, auf die seine Überlegungen passen. Bei ihnen soll, ähnlich den Firmen-»Universitäten«, wie wir sie bereits von großen Konzernen her kennen, ein »Knowledge Services Learning Institute« implementiert werden, das die Ausund Fortbildung für die im Informationssektor Beschäftigten organisieren und zertifizierte Kurse und Abschlüsse anbieten soll.
    Dadurch wäre gewährleistet, dass die Aus- und Fortbildung nahe an den aktuellen Bedürfnissen der Arbeitsstelle und doch nach hohem Standard durchgeführtwird. Für die Zertifizierung der Kurse und Abschlüsse soll ein unabhängiges, internationales »Knowledge Council« eingerichtetwerden, das neben der Zertifi-zierung auch Forschung betreiben und einen Austausch ermöglichen soll. Es werden also internationale Standards angestrebt, die die Qualitätssicherung und Vergleichbarkeit der bei den lokalen Trägern angesiedelten Fortbildung gewährleisten sollen. Konzept fiir große Verhältnisse Das Ziel dieses Konzepts ist die Einführung eines Systems des professionellen Lernens für Wissensarbeiter, das der Wissensentwicklung und der Wissensverteilung (»Knowledge Development and Knowledge Sharing«) im Unternehmen direkt zugute kommen soll. Ziel soll ein exzellenter Service im Wissensmanagement sein und ein sich selbst verstärkender Prozess des Lernens der Organisation in Gang gebrachtwerden. Man könnte St. Clair vorwerfen, dass seine mit vielen Zitaten aus der Managementliteratur versehenen Überlegungen nicht konkret genug seien, er möchte aber erklärtermaßen erst einmal einen Rahmen abstecken, in dem so etwas funktionieren könnte. Und das macht er gut: In den Kapiteln, in denen es um die Einführung des Lernzentrums geht, werden knüppeldick strategische Hinweise samt Checklisten gegeben, wie man das innerhalb der Firma angehen kann, um ein solches Projekt einzuführen. Am Anfang der Konzeption steht beispielsweise ein »LearningAudit«, der ähnlich dem aus dem Bibliotheksmanagement bekannten »Information Audit« die Bedürfnisse und Strukturen im Aus- und Fortbildung erhebt. Und da St. Clair Management aus dem Effeff kann, sind auch die folgenden Schritte hervorragend beschrieben. Die Vision und ihre Umsetzung kann also sehr gut nachvollzogen werden.
    Schwerpunkt betriebliche Bildung Wie schon gesagt, es ist ein Konzept, das auf große Verhältnisse passt. Eine Anpassung der primär auf Firmen bezogenen Überlegungen an größere wissenschaftliche und Öffentliche Bibliotheken wäre leichter zu vollziehen als eine Anpassung an kleinere Einheiten. Hier wäre eine solche permanente Fortbildung innerhalb des Trägerrahmens sicher schwer zu organisieren und ihr eine solche Priorität einzuräumen, wie St. Clair es vorschlägt. Wenn aber die Ausund Fortbildung Träger übergreifend, beispielsweise bei einem Regionalverband, organisiert wird, verpufft der starke Impuls, der auf die Organisation selbst zurückwirken soll. Weiter stimmt skeptisch, dass das Konzept sich ganz und gar auf die betriebliche Bildung stützt. Wie wir aus mannigfachen Umstrukturierungsprozessen von Organisationen wissen, wird da oft lediglich mit Begriffen an der Oberfläche operiert, ohne dass - beispielsweise aus Gründen der Macht oder der Trägheit von Mitarbeitern - tiefere Veränderungen stattfinden. Blaupause für Veränderungsprozesse Insofern also ist dieser Rahmen nur bedingt tauglich für eine Umsetzung. Dennoch gehört dieses Buch nicht nur in die Hand von Hochschullehrern, Bibliotheksleitern und von Managern größerer Firmen, sondern auch in die Hand jener, die mit der Weiterentwicklung des Informationswesens betraut oder daran interessiert sind: Selbst wenn keine Umsetzung eins zu eins infrage kommt, so ist der Text sehr inspirierend für die Antwort auf die Frage, wie die Aus- und Fortbildung vor dem Hintergrund steigender Anforderungen in Folge der Entwicklung des Informationsbedarfs hin zu einem Wissensbedarf umstrukturiert werden könnte. Und nicht nur das: Von St. Clair kann man allemal lernen, wie man einen Veränderungsprozess strukturell anpacken kann. Der Text eignet sich daher sowohl als großes Konzept oder als »Denkpartner« für eigene konzeptionelle Überlegungen. Inspirierend ist er allemal, das beigefügte Sachregister hilft beim punktuellen Zugriff auf einzelne Sachverhalte."
  5. Stock, M.; Stock, W.G.: LexisNexis Recht und LexisNexis Wirtschaft : Informationsprodukte für den deutschen Markt (2005) 0.09
    0.085406594 = product of:
      0.25621977 = sum of:
        0.03111661 = weight(_text_:und in 3352) [ClassicSimilarity], result of:
          0.03111661 = score(doc=3352,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.51830536 = fieldWeight in 3352, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3352)
        0.02602033 = weight(_text_:dem in 3352) [ClassicSimilarity], result of:
          0.02602033 = score(doc=3352,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.29138786 = fieldWeight in 3352, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0625 = fieldNorm(doc=3352)
        0.020691702 = weight(_text_:der in 3352) [ClassicSimilarity], result of:
          0.020691702 = score(doc=3352,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34197432 = fieldWeight in 3352, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3352)
        0.03111661 = weight(_text_:und in 3352) [ClassicSimilarity], result of:
          0.03111661 = score(doc=3352,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.51830536 = fieldWeight in 3352, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3352)
        0.020691702 = weight(_text_:der in 3352) [ClassicSimilarity], result of:
          0.020691702 = score(doc=3352,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34197432 = fieldWeight in 3352, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3352)
        0.05408278 = weight(_text_:geschichte in 3352) [ClassicSimilarity], result of:
          0.05408278 = score(doc=3352,freq=2.0), product of:
            0.12874028 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.027087249 = queryNorm
            0.42009214 = fieldWeight in 3352, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0625 = fieldNorm(doc=3352)
        0.020691702 = weight(_text_:der in 3352) [ClassicSimilarity], result of:
          0.020691702 = score(doc=3352,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34197432 = fieldWeight in 3352, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3352)
        0.020691702 = weight(_text_:der in 3352) [ClassicSimilarity], result of:
          0.020691702 = score(doc=3352,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34197432 = fieldWeight in 3352, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3352)
        0.03111661 = weight(_text_:und in 3352) [ClassicSimilarity], result of:
          0.03111661 = score(doc=3352,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.51830536 = fieldWeight in 3352, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3352)
      0.33333334 = coord(9/27)
    
    Abstract
    LexisNexis ist einer der weltgrößten Anbieter von Wirtschafts- und Rechtsinformationen. Die Geschichte des heute zu Reed Elsevier gehörenden Unternehmens reicht bis in die 60er Jahre des 20. Jahrhunderts. Von Anfang an verfolgte LexisNexis Volltextretrieval. Die internationale Abteilung von LexisNexis führt auf wichtigen nationalen Märkten jeweils regionale Produkte ein. In Deutschland sind dies "LexisNexis Recht" und "LexisNexis Wirtschaft". Der Artikel beschreibt auf der Basis von Nutzertests die genannten Produkte und analysiert den deutschen Markt und sein Umfeld. Abschließend werden Stärken und Schwächen, Chancen und Risiken von LexisNexis auf dem deutschen Informationsmarkt diskutiert.
  6. Voß, J.; Hellmich, J.: »Am Kerngeschäft der Bibliothekare kann sich plötzlich jeder beteiligen« (2007) 0.08
    0.08489232 = product of:
      0.22920926 = sum of:
        0.023011046 = weight(_text_:und in 397) [ClassicSimilarity], result of:
          0.023011046 = score(doc=397,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38329202 = fieldWeight in 397, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.0243796 = weight(_text_:aus in 397) [ClassicSimilarity], result of:
          0.0243796 = score(doc=397,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.26383498 = fieldWeight in 397, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.02276779 = weight(_text_:dem in 397) [ClassicSimilarity], result of:
          0.02276779 = score(doc=397,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.25496438 = fieldWeight in 397, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.020906128 = weight(_text_:der in 397) [ClassicSimilarity], result of:
          0.020906128 = score(doc=397,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34551817 = fieldWeight in 397, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.023011046 = weight(_text_:und in 397) [ClassicSimilarity], result of:
          0.023011046 = score(doc=397,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38329202 = fieldWeight in 397, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.020906128 = weight(_text_:der in 397) [ClassicSimilarity], result of:
          0.020906128 = score(doc=397,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34551817 = fieldWeight in 397, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.020906128 = weight(_text_:der in 397) [ClassicSimilarity], result of:
          0.020906128 = score(doc=397,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34551817 = fieldWeight in 397, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.020906128 = weight(_text_:der in 397) [ClassicSimilarity], result of:
          0.020906128 = score(doc=397,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34551817 = fieldWeight in 397, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.023011046 = weight(_text_:und in 397) [ClassicSimilarity], result of:
          0.023011046 = score(doc=397,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38329202 = fieldWeight in 397, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.029404227 = product of:
          0.058808453 = sum of:
            0.058808453 = weight(_text_:philosophie in 397) [ClassicSimilarity], result of:
              0.058808453 = score(doc=397,freq=2.0), product of:
                0.14351615 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.027087249 = queryNorm
                0.40976888 = fieldWeight in 397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=397)
          0.5 = coord(1/2)
      0.37037036 = coord(10/27)
    
    Abstract
    Der Wikipedia-Experte Jakob Voß plädiert dafür, Opacs mit Inhalten aus Wikis, Weblogs und Bookmarking-Diensten anzureichern Auf dem Leipziger Bibliothekskongress hat Jakob Voß einen Vortrag zum Thema »Soziale Software - Hype oder Verheißung?« gehalten - und damit eine der bestbesuchten Veranstaltungen eingeleitet. Der 28-Jährige hat Informatik, Bibliothekswissenschaft und Philosophie in Chemnitz und Berlin studiert und arbeitet als Entwickler beim Gemeinsamen Bibliotheksverbund GBV in Göttingen. Seit 2002 gehörter zum Vorstand von Wikimedia Deutschland, einem »Verein zur Förderung des freien Wissens«, dessen prominentestes Förderprojekt die Web-Enzyklopädie Wikipedia ist. BuB-Redakteurin Julia Hellmich hat Jakob Voß in Leipzig interviewt.
  7. TIB weltweit erste zentrale Registrierungsagentur für Primärdaten (2005) 0.08
    0.08292047 = product of:
      0.22388528 = sum of:
        0.021202397 = weight(_text_:und in 3997) [ClassicSimilarity], result of:
          0.021202397 = score(doc=3997,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 3997, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3997)
        0.019701693 = weight(_text_:aus in 3997) [ClassicSimilarity], result of:
          0.019701693 = score(doc=3997,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.21321087 = fieldWeight in 3997, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=3997)
        0.031868264 = weight(_text_:dem in 3997) [ClassicSimilarity], result of:
          0.031868264 = score(doc=3997,freq=12.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.35687578 = fieldWeight in 3997, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=3997)
        0.025342057 = weight(_text_:der in 3997) [ClassicSimilarity], result of:
          0.025342057 = score(doc=3997,freq=36.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4188313 = fieldWeight in 3997, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3997)
        0.021202397 = weight(_text_:und in 3997) [ClassicSimilarity], result of:
          0.021202397 = score(doc=3997,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 3997, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3997)
        0.025342057 = weight(_text_:der in 3997) [ClassicSimilarity], result of:
          0.025342057 = score(doc=3997,freq=36.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4188313 = fieldWeight in 3997, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3997)
        0.025342057 = weight(_text_:der in 3997) [ClassicSimilarity], result of:
          0.025342057 = score(doc=3997,freq=36.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4188313 = fieldWeight in 3997, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3997)
        0.025342057 = weight(_text_:der in 3997) [ClassicSimilarity], result of:
          0.025342057 = score(doc=3997,freq=36.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4188313 = fieldWeight in 3997, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3997)
        0.021202397 = weight(_text_:und in 3997) [ClassicSimilarity], result of:
          0.021202397 = score(doc=3997,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 3997, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3997)
        0.0073398966 = product of:
          0.014679793 = sum of:
            0.014679793 = weight(_text_:22 in 3997) [ClassicSimilarity], result of:
              0.014679793 = score(doc=3997,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.15476047 = fieldWeight in 3997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3997)
          0.5 = coord(1/2)
      0.37037036 = coord(10/27)
    
    Content
    "Die TI B ist die weltweit erste Registrierungsagentur fürwissenschaftliche Primärdaten. In Zusammenarbeit mit dem Weltklimadatenzentrum am Max-Planck-Institut für Meteorologie (Hamburg), dem Geoforschungszentrum (Potsdam), dem Weltdatenzentrum MARE am Alfred-Wegener-Institut (Bremerhaven) und der Universität Bremen sowie dem Forschungszentrum L3S (Hannover) wurde das DFG-finanzierte Projekt Codata »Publikation und Zitierfähigkeit wissenschaftlicher Primärdaten« 2004 mit dem Ziel aus der Taufe gehoben, den Zugang zu wissenschaftlichen Primärdaten zu verbessern. In Codata wurde ein Modell entwickelt, welches erstmals den Nachweis und die Zitierfähigkeit von Primärdaten ermöglicht und eine dauerhafte Adressierbarkeit gewährleistet. Nutznießer dieses neuen Verfahrens sind in erster Linie Wissenschaftler, die eigene Primärdaten erheben, sowie diejenigen, die diese Daten für eigene, weiterführende Arbeiten nutzen wollen. Der klassische Weg der Veröffentlichung von Forschungsergebnissen führt über Aufsätze in Fachzeitschriften, welche im »Citation Index« aufgelistet werden. Anhand dessen findet eine Leistungsbewertung der Wissenschaftler statt. Veröffentlichungen von Primärdaten, die für Wissenschaftler zusätzliche Arbeit hinsichtlich Aufbereitung, Dokumentation und Qualitätssicherung bedeuten, wurden bisher nicht in die Bewertung mit aufgenommen. Wissenschaftliches Fehlverhalten in der Vergangenheit führte zu den so genannten »Regeln zur guten wissenschaftlichen Praxis«, empfohlen von der Deutschen Forschungsgemeinschaft (DFG). Diese Regeln beinhalten Richtlinien hinsichtlich Datenzugang und Langzeitarchivierung. Daten, die allgemein verfügbaren Publikationen zugrunde liegen, sollen auch für andere überprüfbar und ihre Erhebung nachvollziehbar sein. Gleichzeitig trägt Codata der seit langem formulierten Forderung nach freiem Online-Zugang zu jeder Art wissenschaftlicher Information Rechnung und unterstützt damit die Open Access-Initiative. Das neue Konzept der Zitierfähigkeit von Primärdaten verbindet wissenschaftliche Langzeitarchive mit traditionellen Bibliothekskatalogen, um wissenschaftliche Daten nachweisbar und zusammen mit alternativen Informationsressourcen suchbarzu machen. Die TIB speichert die Informationen zu den Primärdaten ab und versieht die Daten mit einer eindeutigen Identifikationsnummer, einem Digital Object Identifier (DOI). Nun ist jeder Wissenschaftler in der Lage, die Daten in seiner Arbeit mit der DOI als einzigartiger Kennung zu zitieren. Zitiert werden Autor, Jahr der Veröffentlichung, Titel sowie der DOI als einzigartige Zugangskennung. Wissenschaftliche Primärdaten bekommen dadurch eine eigene Identität und können als unabhängige, eigenständige Informationseinheit genutzt werden. Inzwischen wurden bereits 220000 Datensätze in der TIB registriert. Vierzig Datensätze sind mittlerweile über Tiborder, das Bestell- und Liefersystem der TIB, nachweisbar und zugänglich. Bis Ende des Jahres sollen rund 1,5 Millionen Datensätze von der TIB registriert sein. Zurzeit sind vornehmlich Messdaten aus dem Gebiet der Geowissenschaften registriert, ab 2006 wird die Registrierung von Primärdaten auch auf andere Sammelgebiete ausgeweitet."
    Date
    22. 9.2005 19:38:42
    Footnote
    Weitere Informationen finden sich auf der Projekt Webseite <www.std-doi.de>
  8. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.08
    0.08170873 = product of:
      0.44122714 = sum of:
        0.04302173 = product of:
          0.12906519 = sum of:
            0.12906519 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.12906519 = score(doc=562,freq=2.0), product of:
                0.229646 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027087249 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.12906519 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.12906519 = score(doc=562,freq=2.0), product of:
            0.229646 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027087249 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.12906519 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.12906519 = score(doc=562,freq=2.0), product of:
            0.229646 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027087249 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.12906519 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.12906519 = score(doc=562,freq=2.0), product of:
            0.229646 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027087249 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.011009844 = product of:
          0.022019688 = sum of:
            0.022019688 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.022019688 = score(doc=562,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.18518518 = coord(5/27)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  9. b2i: Alles auf einen Klick : Nationales Informationsportal für die Bibliotheks-, Buch- und Informationswissenschaften gestartet (2007) 0.08
    0.081197605 = product of:
      0.2435928 = sum of:
        0.027581926 = weight(_text_:und in 427) [ClassicSimilarity], result of:
          0.027581926 = score(doc=427,freq=44.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.4594286 = fieldWeight in 427, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=427)
        0.0278624 = weight(_text_:aus in 427) [ClassicSimilarity], result of:
          0.0278624 = score(doc=427,freq=8.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.30152568 = fieldWeight in 427, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=427)
        0.018399153 = weight(_text_:dem in 427) [ClassicSimilarity], result of:
          0.018399153 = score(doc=427,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.20604233 = fieldWeight in 427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=427)
        0.028646363 = weight(_text_:der in 427) [ClassicSimilarity], result of:
          0.028646363 = score(doc=427,freq=46.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.473442 = fieldWeight in 427, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=427)
        0.027581926 = weight(_text_:und in 427) [ClassicSimilarity], result of:
          0.027581926 = score(doc=427,freq=44.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.4594286 = fieldWeight in 427, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=427)
        0.028646363 = weight(_text_:der in 427) [ClassicSimilarity], result of:
          0.028646363 = score(doc=427,freq=46.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.473442 = fieldWeight in 427, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=427)
        0.028646363 = weight(_text_:der in 427) [ClassicSimilarity], result of:
          0.028646363 = score(doc=427,freq=46.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.473442 = fieldWeight in 427, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=427)
        0.028646363 = weight(_text_:der in 427) [ClassicSimilarity], result of:
          0.028646363 = score(doc=427,freq=46.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.473442 = fieldWeight in 427, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=427)
        0.027581926 = weight(_text_:und in 427) [ClassicSimilarity], result of:
          0.027581926 = score(doc=427,freq=44.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.4594286 = fieldWeight in 427, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=427)
      0.33333334 = coord(9/27)
    
    Abstract
    Seit Mai ist b2i, das zentrale Wissenschaftsportal für die Bibliotheks-, Buch- und Informationswissenschaften, online (www.b2i.de). Dies teilte die Fachhochschule Potsdam mit. Der Name »b2i« fasst die Anfangsbuchstaben der beteiligten drei Wissenschaftsdisziplinen (Bibliotheks-, Buch- und Informationswissenschaften) zusammen. Mit diesem Portal steht den drei Disziplinen zum ersten Mal ein umfassendes Angebot an Fachinformation mit bibliografischen Nachweisen und Zugang zu wissenschaftlichen Texten interdisziplinär zur Verfügung. Eine Reihe von Datenbanken wurde überhaupt erst im Zusammenhang mit dem Projekt erarbeitet beziehungsweise digitalisiert.
    Content
    "Das Fachportal wird von der Deutschen Forschungsgemeinschaft (DFG) gefördert. Partner in diesem Kooperationsprojekt sind die Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB), der als zuständiger Sondersammelgebietsbibliothek auch die Koordination obliegt, das Informationszentrum für Informationswissenschaft und -praxis (IZ) der Fachhochschule Potsdam, der Fachbereich Informationswissenschaften der Fachhochschule Potsdam, das Kompetenznetzwerk für Bibliotheken (KNB) beim Deutschen Bibliotheksverband Berlin und die Buchwissenschaft der FriedrichAlexander-Universität Erlangen-Nürnberg. Nach dem Vorbild der virtuellen Fachbibliotheken bündelt b2i Fachinformation, Datenbanken und Bibliothekskataloge der Bibliotheks-, Buch- und Informationswissenschaften und macht sie über eine gemeinsame Oberfläche zugänglich. Eine integrierte Suchmaschine ermöglicht die gleichzeitige Recherche in einer Vielzahl von Nachweisinstrumenten für gedruckte und elektronische Materialien, qualitätskontrollierten Internetressourcen und Fakteninformationen. Zum Service gehören außerdem Bestellmöglichkeiten für Monografien-, Zeitschriften- und Aufsatzliteratur sowie für elektronische Materialien, die als Datei oder Druckausgabe angefordert werden können. Damit wird b2i für Interessierte aus Wissenschaft, Studium und Praxis zu einem interdisziplinären »one-stop-shop« der Fachinformation für die Informationswissenschaften.
    Zum Angebot von b2i gehört auch Volltextrecherche. Bereits jetzt sind der Potsdamer Volltextserver INFODATA eDepot und der GOEDOCDokumentenserver der SUB Göttingen einbezogen. Thematisch erschlossene Nachweise auf Artikelebene bieten die informationswissenschaftliche Datenbank INFODATA und der spezifische Fachausschnitt »Informations-, Buch- und Bibliothekswesen« aus der Aufsatzdatenbank Online Contents (OLC-SSG). Für die Buch- und Bibliothekswissenschaft verbessert sich die Nachweissituation erheblich durch die Einbindung der nunmehr erstmals in elektronischer Form verfügbaren »Bibliographie zur Buch- und Bibliotheksgeschichte« (BBB) und des von Bernhard Fabian herausgegebenen »Handbuch der historischen Buchbestände«, das in Form eines interaktiven Wikis kostenfrei zugänglich gemacht wird. Der »b2i Guide« enthält eine Sammlung von intellektuell erschlossenen, fachrelevanten Internetquellen, in die auch die Fachausschnitte aus der Elektronischen Zeitschriftenbibliothek (EZB) und des DatenbankInformationssystems (DBIS) eingebunden sind. Beiträge zu aktuellen Fachthemen aus der Bibliotheksszene ergänzen das Bibliotheksportal des Kompetenznetzwerks für Bibliotheken. Ansprechpartner für weitergehende Informationen an der Fachhochschule Potsdam sind: Prof. Hans-Christoph Hobohm (Fachbereich Informationswissenschaften, 03 31/580-15 14, hobohm@fh-potsdam.de) und Karen Falke (Informationszentrum / IZ, 0331/580-2210, falke@fh-potsdam.de) sowie an der SUB Göttingen Kristine Hillenkötter (0551/39-38 82, hillenkoetter@mail.sub.uni-goettingen.de)."
  10. ¬Der Kongreß 'In der Bildung liegt die Zukunft' legte den Grundstein für eine neue Bildungsdebatte (2000) 0.08
    0.080856755 = product of:
      0.24257027 = sum of:
        0.019723753 = weight(_text_:und in 4765) [ClassicSimilarity], result of:
          0.019723753 = score(doc=4765,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 4765, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4765)
        0.020896798 = weight(_text_:aus in 4765) [ClassicSimilarity], result of:
          0.020896798 = score(doc=4765,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.22614425 = fieldWeight in 4765, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=4765)
        0.04363742 = weight(_text_:dem in 4765) [ClassicSimilarity], result of:
          0.04363742 = score(doc=4765,freq=10.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.48867232 = fieldWeight in 4765, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=4765)
        0.029716194 = weight(_text_:der in 4765) [ClassicSimilarity], result of:
          0.029716194 = score(doc=4765,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4911232 = fieldWeight in 4765, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4765)
        0.019723753 = weight(_text_:und in 4765) [ClassicSimilarity], result of:
          0.019723753 = score(doc=4765,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 4765, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4765)
        0.029716194 = weight(_text_:der in 4765) [ClassicSimilarity], result of:
          0.029716194 = score(doc=4765,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4911232 = fieldWeight in 4765, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4765)
        0.029716194 = weight(_text_:der in 4765) [ClassicSimilarity], result of:
          0.029716194 = score(doc=4765,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4911232 = fieldWeight in 4765, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4765)
        0.029716194 = weight(_text_:der in 4765) [ClassicSimilarity], result of:
          0.029716194 = score(doc=4765,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4911232 = fieldWeight in 4765, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4765)
        0.019723753 = weight(_text_:und in 4765) [ClassicSimilarity], result of:
          0.019723753 = score(doc=4765,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 4765, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4765)
      0.33333334 = coord(9/27)
    
    Abstract
    Am 25. Januar kamen fast 1.000 Teilnehmerinnen und Teilnehmer aus dem weitverzweigten Bildungsbereich zu dem Kongreß zusammen, um eine zukunftsweisende sozialdemokratische Bildungspolitik zu diskutieren, die sowohl der Chancengleichheit als auch der Leistungsförderung verpflichtet ist. schon im Vorfeld des Kongresses hatten einige führende Politikerinnen und Politiker der SPD das Bildungsmanifest 'Bildung entscheidet über unsere Zukunft. Für eine neue Bildungsinitiative' der Öffentlichkeit vorgestellt. Darin werden die bildungspolitischen Traditionen der SPD aufgegriffen und für unsere Zeit neu formuliert. Dabei stellen sie fest: Bildung ist nicht ein Thema unter vielen, sondern auf dem Wege, die soziale Frage des 21. Jahrhunderts zu werden. Bildung ist immer weniger auf eine Lebensphase, Kindheit und Jugend, zu begrenzen und wird in der Zukunft immer mehr als kontinuierliche Herausforderung die Menschen beschäftigen. Bildung wird in allen Teilen der Gesellschaft einen Ort haben. Die Bildungspolitik hat dementsprechend in dem Handeln der Bundesregierung Vorrang
    Content
    Enthält neben einer Einführung die Beiträge: CLEMENT, W.: Rede zur Einführung in das Thema; SCHRÖDER, G.: Chanchengleichheit in der lernenden Gesellschaft - Herausforderung an die Bildungspolitik; DELORS, J.: Auf dem Weg zum lebenslangen Lernen; BULMAHN, E.: Rede zum Abschluß des Kongresses
  11. Savelsberg, S.: Informationsgesellschaft - ein neues Paradigma für Bibliotheken : Ein Kolloquium in Brasilien (2005) 0.08
    0.08076554 = product of:
      0.21806696 = sum of:
        0.02242839 = weight(_text_:und in 4769) [ClassicSimilarity], result of:
          0.02242839 = score(doc=4769,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3735868 = fieldWeight in 4769, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4769)
        0.0243796 = weight(_text_:aus in 4769) [ClassicSimilarity], result of:
          0.0243796 = score(doc=4769,freq=8.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.26383498 = fieldWeight in 4769, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4769)
        0.019717483 = weight(_text_:dem in 4769) [ClassicSimilarity], result of:
          0.019717483 = score(doc=4769,freq=6.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.22080563 = fieldWeight in 4769, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4769)
        0.025065567 = weight(_text_:der in 4769) [ClassicSimilarity], result of:
          0.025065567 = score(doc=4769,freq=46.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.41426173 = fieldWeight in 4769, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4769)
        0.02242839 = weight(_text_:und in 4769) [ClassicSimilarity], result of:
          0.02242839 = score(doc=4769,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3735868 = fieldWeight in 4769, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4769)
        0.025065567 = weight(_text_:der in 4769) [ClassicSimilarity], result of:
          0.025065567 = score(doc=4769,freq=46.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.41426173 = fieldWeight in 4769, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4769)
        0.025065567 = weight(_text_:der in 4769) [ClassicSimilarity], result of:
          0.025065567 = score(doc=4769,freq=46.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.41426173 = fieldWeight in 4769, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4769)
        0.025065567 = weight(_text_:der in 4769) [ClassicSimilarity], result of:
          0.025065567 = score(doc=4769,freq=46.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.41426173 = fieldWeight in 4769, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4769)
        0.02242839 = weight(_text_:und in 4769) [ClassicSimilarity], result of:
          0.02242839 = score(doc=4769,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3735868 = fieldWeight in 4769, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4769)
        0.0064224093 = product of:
          0.012844819 = sum of:
            0.012844819 = weight(_text_:22 in 4769) [ClassicSimilarity], result of:
              0.012844819 = score(doc=4769,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.1354154 = fieldWeight in 4769, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4769)
          0.5 = coord(1/2)
      0.37037036 = coord(10/27)
    
    Abstract
    Theorie und Praxis der Informationsgesellschaft standen im Mittelpunkt des deutsch-französischen Kolloquiums, das die Goethe-Institute Rio und Sao Paulo in Zusammenarbeit mit der Alliance Francaise, der Maison de France sowie den Bibliotheksräten der Bundesländer Rio und Sao Paulo im Mai anboten.
    Content
    "An der hochkarätig besetzten Veranstaltung nahmen insgesamt mehr als tausend Besucher teil, unter ihnen KollegInnen aus Öffentlichen Bibliotheken, StudentInnen und Professorlnneu der Fachbereiche Bibliothek, Informations- und Kommunikationswissenschaften. Diese unerwartet hohe Teilnehmerzahl zeigt, dass das brasilianische Fachpublikum ein reges Interesse daran hat, neben den in Praxis und Lehre oftmals vorherrschenden amerikanischen Modellen auch europäische Konzepte im Bibliotheks- und Informationsbereich kennen zu lernen. Ziel des Kolloquiums war es, den Wissensaustausch zwischen europäischen und brasilianischen Experten im Informationsbereich zu vertiefen und mit Blick auf den World Summit an the Information Society II im November in Tunis die Strukturen der globalen Informationsgesellschaft kritisch zu hinterfragen sowie die für Schwellenländer eklatante Diskrepanz zwischen Kommerzialisierung von Information einerseits und freiem Zugang andererseits zu thematisieren. Dabei sollte insbesondere die Rolle der Öffentlichen Bibliotheken bei der Vermittlung von Informations- und Lesekompetenz hervorgehoben werden. Der erste Teil der Veranstaltung stellte mit zwei renommierten Wissenschaftlern informationspolitische Aspekte in den Mittelpunkt: - Information: Öffentliches oder privates Gut - eine globale Perspektive (Rainer Kuhlen, Universität Konstanz, Fachbereich Informationswissenschaft und Mitglied der Deutschen UnescoKommission) - Eine Informations-Utopie (Armand Mattelart, Universität Paris, Fachbereich Kommunikationswissenschaften)
    Um die zentrale Rolle der Öffentlichen Bibliotheken in der Informationsgesellschaft aufzuzeigen, stellten im zweiten Teil Bibliotheksexperten innovative Modelle zur Vermittlung von Informations- und Medienkompetenz vor. Anhand deutscher und französischer Vorbilder wollten wir - insbesondere vor dem Hintergrund der defizitären öffentlichen Bildungslandschaft Brasiliens - Möglichkeiten aufzeigen, wie Bibliotheken sich durch gezielte Maßnahmen auf die Anforderungen des 21. Jahrhunderts vorbereiten und ihre Position stärken können. - Die Öffentliche Bibliothek als Partner für Information und lebenslanges Lernen (Barbara Lison, Leiterin Stadtbibliothek Bremen) - Die sich wandelnde Bibliothek (Patrick Bazin, Leiter Bibliotheque Municipale Lyon) - Informations- und Kommunikationstechnik in Bibliotheken - Das Beispiel der BPI (Gerald Grunberg, Direktor Bibliotheque Publique d'Information im Centre Pompidou) Auch von brasilianischer Seite konnten renommierte Experten als Referenten gewonnen werden: Maria Ines Bastos, Koordinatorin des Fachausschusses »Kommunikation und Information« der brasilianischen Unesco-Komission; José Marcos Nogueira Viana, Berater des brasilianischen Außenministeriums sowie Vorsitzender der ständigen Vertretung Brasiliens bei der International Telecommunication Union (ITU); Ana Lizia Medeiros, Direktorin der Öffentlichen Bibliotheken des Bundeslandes Rio de Janeiro, sowie Galeno Amorim vom brasilianischen Kulturministerium.
    Neben einem Zuschuss von fünftausend Euro aus dem Elysée-Fonds und einigen Sponsoren, die sich mit nicht unerheblichen Sachspenden beteiligten, wurde die Veranstaltung aus den Projektmitteln der französischen Partner sowie des GoetheInstitutes unterstützt. Sie hat dazu beigetragen, die deutschfranzösische Zusammenarbeit zu intensivieren, denn für den Arbeitsbereich Information & Bibliothek war dies die erste Veranstaltung dieser Art in Brasilien. Nach dem großen Erfolg sowie den vielen begeisterten Kommentaren aus der Fachszene gibt es nun Überlegungen, diese Kooperation in den nächsten Jahren fortzusetzen. Schließen möchte ich meinen Bericht mit einem Zitat der französischen KollegInnen schließen: »La programmation du colloque, alliant réflexion théorique et présentation détaillée de situations exemplaires, entendait fournir aux professionnels brésiliens des outils européens pour penser une politique de la lecture publique au 21ème siècle. La forte participation enregistrée à Sao Paulo comme à Rio et les interventions d'éminents acteurs brésiliens traduisent bien l'intéret porté par les professionnels locaux pour notre expertise dans ce domaine. Cette opération a en outre permis de se rapprocher dans de bonnes conditions de plusieurs institutions-cles.«"
    Date
    22. 9.2005 20:46:16
  12. ¬Der Alte Realkatalog der Staatsbibliothek ist online (2006) 0.08
    0.07984468 = product of:
      0.23953405 = sum of:
        0.01944788 = weight(_text_:und in 4876) [ClassicSimilarity], result of:
          0.01944788 = score(doc=4876,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.32394084 = fieldWeight in 4876, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4876)
        0.024627116 = weight(_text_:aus in 4876) [ClassicSimilarity], result of:
          0.024627116 = score(doc=4876,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.2665136 = fieldWeight in 4876, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4876)
        0.02299894 = weight(_text_:dem in 4876) [ClassicSimilarity], result of:
          0.02299894 = score(doc=4876,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.25755292 = fieldWeight in 4876, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4876)
        0.03339109 = weight(_text_:der in 4876) [ClassicSimilarity], result of:
          0.03339109 = score(doc=4876,freq=40.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.55185866 = fieldWeight in 4876, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4876)
        0.01944788 = weight(_text_:und in 4876) [ClassicSimilarity], result of:
          0.01944788 = score(doc=4876,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.32394084 = fieldWeight in 4876, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4876)
        0.03339109 = weight(_text_:der in 4876) [ClassicSimilarity], result of:
          0.03339109 = score(doc=4876,freq=40.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.55185866 = fieldWeight in 4876, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4876)
        0.03339109 = weight(_text_:der in 4876) [ClassicSimilarity], result of:
          0.03339109 = score(doc=4876,freq=40.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.55185866 = fieldWeight in 4876, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4876)
        0.03339109 = weight(_text_:der in 4876) [ClassicSimilarity], result of:
          0.03339109 = score(doc=4876,freq=40.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.55185866 = fieldWeight in 4876, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4876)
        0.01944788 = weight(_text_:und in 4876) [ClassicSimilarity], result of:
          0.01944788 = score(doc=4876,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.32394084 = fieldWeight in 4876, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4876)
      0.33333334 = coord(9/27)
    
    Abstract
    Wissenschaftshistoriker schätzen den Alten Realkatalog (ARK) der Staatsbibliothek zu Berlin als beinahe unerschöpfliche Quelle der Information; aber auch für alle anderen historisch ausgerichteten wissenschaftlichen Disziplinen, die Literatur aus der Zeit von 1501 bis 1955 benötigen, ist der ARK von unschätzbarem Wert. Ab sofort steht dieses unverzichtbare Nachweisinstrument der internationalen Wissenschaft und Forschung online zur Verfügung: http://ark.staatsbibliothek-berlin.de
    Content
    "Der Alte Realkatalog erschließt rund drei Millionen Titel, den umfangreichsten historischen Druckschriftenbestand in einer deutschen Bibliothek, nach inhaltlich-sachlichen Kriterien. Die Bedeutung des ARK liegt nicht nur in seinem Umfang und seiner feinen Gliederung, sondern auch in seiner fachlichen, geographischen und sprachli chen Universalität begründet. Entstanden ist der rund 1800 Sachbände umfassende Katalog in der zweiten Hälfte des 19. Jahrhunderts; mit dem Erscheinungsjahr 1955 wurde er abgeschlossen, da die Weiterentwicklung der Wissenschaften eine modernere Klassifikation erforderte. Bis heute jedoch werden alle antiquarischen Neuerwerbungen der Staatsbibliothek aus dem Zeitraum 1501 bis 1955 über die ARK-Systematik erschlossen. Bislang konnten Titel, die zwischen 1501 und 1955 erschienen sind, nur auf konventionelle Weise in den Folio-Bänden beziehungsweise in der Mikrofiche-Ausgabe des Alten Realkataloges nach sachlichen Kriterien ermittelt werden. Nun kann dies mit vielfach erweiterten und verbesserten Recherchemöglichkeiten sukzessive auch auf elektronischem Wege erfolgen. Im Rahmen eines Erschließungsprojekts der Abteilung Historische Drucke wurden bereits vierzig Prozent der gesamten Systematik (darunter die Katalogteile Jurisprudenz, Kunst, Orientalische Sprachen und die so genannten Kriegsammlungen) elektronisch erfasst, sodass in ihr geblättert oder mit Suchbegriffen recherchiert werden kann; als Ergebnis werden sämtliche Titel der jeweiligen Systemstelle angezeigt. Insgesamt sind auf diese Weise schon weit über eine Million Bücher zu ermitteln. Dabei werden auch jene Titel angezeigt, die einst zum Bestand der Bibliothek gehörten, jedoch als Kriegsverlust einzustufen sind; so bleibt der bibliographische Nachweis der Werke erhalten und der ursprüngliche Sammlungszusammenhang weiterhin erkennbar."
  13. Conaway, J.: America's library : the story of the Library of Congress, 1800-2000 (2000) 0.08
    0.07932767 = product of:
      0.21418472 = sum of:
        0.01684236 = weight(_text_:und in 1790) [ClassicSimilarity], result of:
          0.01684236 = score(doc=1790,freq=42.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.280541 = fieldWeight in 1790, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1790)
        0.008707 = weight(_text_:aus in 1790) [ClassicSimilarity], result of:
          0.008707 = score(doc=1790,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.09422678 = fieldWeight in 1790, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1790)
        0.018182259 = weight(_text_:dem in 1790) [ClassicSimilarity], result of:
          0.018182259 = score(doc=1790,freq=10.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.20361347 = fieldWeight in 1790, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1790)
        0.023013221 = weight(_text_:der in 1790) [ClassicSimilarity], result of:
          0.023013221 = score(doc=1790,freq=76.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.38034233 = fieldWeight in 1790, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1790)
        0.01684236 = weight(_text_:und in 1790) [ClassicSimilarity], result of:
          0.01684236 = score(doc=1790,freq=42.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.280541 = fieldWeight in 1790, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1790)
        0.023013221 = weight(_text_:der in 1790) [ClassicSimilarity], result of:
          0.023013221 = score(doc=1790,freq=76.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.38034233 = fieldWeight in 1790, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1790)
        0.044715498 = weight(_text_:geschichte in 1790) [ClassicSimilarity], result of:
          0.044715498 = score(doc=1790,freq=14.0), product of:
            0.12874028 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.027087249 = queryNorm
            0.34733105 = fieldWeight in 1790, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1790)
        0.023013221 = weight(_text_:der in 1790) [ClassicSimilarity], result of:
          0.023013221 = score(doc=1790,freq=76.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.38034233 = fieldWeight in 1790, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1790)
        0.023013221 = weight(_text_:der in 1790) [ClassicSimilarity], result of:
          0.023013221 = score(doc=1790,freq=76.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.38034233 = fieldWeight in 1790, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1790)
        0.01684236 = weight(_text_:und in 1790) [ClassicSimilarity], result of:
          0.01684236 = score(doc=1790,freq=42.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.280541 = fieldWeight in 1790, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1790)
      0.37037036 = coord(10/27)
    
    Classification
    AN 88320 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliothekswesen in einzelnen Ländern und einzelne Bibliotheken / Ausländische Bibliotheken / Amerika, Indianische Welt / Nordamerika / USA / Oststaaten / New-England-Staaten (Maine, New Hampshire, Vermont, Massachusetts, Rhode Island, Connecticut)
    Footnote
    Rez. in: ZfBB 50(2003) H.4, S.234-235 (S. Kuttner): "Als 1800 die Library of Congress mit einer bescheidenen Sammlung von 740 Büchern ins Leben gerufen wurde, bestand ihre Aufgabe zunächst allein darin, das Parlament der Vereinigten Staaten mit »books as may be necessary for the use of Congress« zu versorgen, wie es in dem von Präsident John Adams am 24. April 1800 unterzeichneten Gesetz hieß. Während der letzten zwei Jahrhunderte wuchs die Parlamentsbibliothek zu einem der größten Wissensarsenale heran, dessen Bedeutung weit über Nordamerika hinausreicht. Sie verfügt heute über einen Bestand von annähernd 119 Millionen Büchern, Karten, Handschriften, Kunstwerken, Fotografien, Film- und Tonaufnahmen in rund 460 Sprachen. James Conaway erzählt in dem ebenso reich bebilderten wie anschaulich geschriebenen Band die turbulente Historie der amerikanischen Parlamentsbibliothek vor allem anhand der 13 Männer, die vom Präsidenten derVereinigten Staaten zum Librarian of Congress ernannt wurden und die Institution leiteten. Der Autor spannt so den Bogen der ereignisreichen Geschichte der Kongressbibliothek von lohn Beckley, den Thomas Jefferson 1802 an die Spitze der Bibliothek stellte, über Herbert Putnam, der 40 Jahre lang, von 1899 bis 1939, die Belange der Einrichtung nach innen und außen vertrat, bis zu James H. Billington, den Ronald Reagan 1987 ernannte. Den ansonsten streng chronologischen Aufbau der Darstellung lockert der Verfasser mit vielen Illustrationen und kleineren Essays über zentrale Persönlichkeiten der Zeit, großzügige Förderer und Mäzene, besondere Sammlungen sowie einzigartige Erwerbungen und größere Ereignisse auf, die der Entwicklung der Washingtoner Bibliothek ihren Stempel aufdrückten. Dabei spürt er den Erfahrungen und Beiträgen der einzelnen Bibliothekare nach, deren Leben und Leistung er bisweilen detailliert nachzeichnet. Gleichwohl beschränkt Conaway seinen Blick nicht allein auf die Verhältnisse innerhalb der Bibliotheksmauern; er bettet seine Geschichte der Library of Congress in einen breiten Zusammenhang mit der WeIt um sie herum ein und vermittelt so anschaulich,wie die einzelnen Sammlungen in der Zoo-jährigen Geschichte der Parlamentsbibliothek das politische und geistige Leben der USA widerspiegeln.
    Jeder der Bibliotheksdirektoren sah sich mit einer besonderen Herausforderung während seiner Amtszeit konfron tiert: So wurde die gesamte Bibliothek durch den Brand des Kapitols während des britischen Angriffs auf Washington im August 1814 ein Raub der Flammen und mit Thomas Jeffersons Privatbibliothek ein Jahr später wieder errichtet. In den 40er Jahren des vergangenen Jahrhunderts musste ein immenser Rückstand von eineinhalb Millionen Bänden katalogisiert werden. Die gigantische Aufgabe,den Kartenkatalog in einen EDV-Katalog umzuwandeln, war in den 80er Jahren zu bewältigen; und die 90er Jahre standen im Zeichen des National Digital Library Program. Gleichwohl prägten auch einzigartige Erwerbungen die Amtszeiten der 13 Bibliotheksdirektoren: Anschaulich erzählt Conaway unter anderem vom Spazierstock Walt Whitmans, dem Nachlass der Gebrüder Wright, den Fotografien aus der Zeit des Bürgerkrieges von Mathew B. Brady, den fünf Stradivariinstrumenten Gertrude Clarke Whitalls oder der Sammlung Leonard Bernsteins. Wer eine wissenschaftlich fundierte, gar kritische Geschichte der Library of Congress erwartet, wird diesen in der Tradition der nordamerikanischen coffee-table books stehenden Band eher enttäuscht zur Seite legen. Der Autor stellt die Einzig- und Großartigkeit der US-Parlamentsbibliothek in den Mittelpunkt seiner Darstellung, deren bisweilen recht ehrfürchtiger Erzählton insofern nicht Wunder nehmen darf, als sie in enger Kooperation mit dem Gegenstand des Buches entstand, der Bibliothek und ihren Bibliothekaren. Sein mit einer kleinen, überschaubaren Auswahlbibliografie endendes Werk richtet sich vor allem an ein interessiertes Laienpublikum, dem die zentrale Bedeutung der de facto zur Nationalbibliothek gewordenen Kongressbibliothek als Schatzkammer nordamerikanischer Kultur und Tradition nahe gebracht werden soll. Die große Resonanz, die Conaways Bildund Textband im Feuilleton einer beachtlichen Anzahl nordamerikanischer Zeitungen und Magazine erzielte, dürfte den Autor in seinem Anliegen mehr als bestätigt haben; und seine Lektüre ist auch für ein außeramerikanisches Fachpublikum, selbst wenn es mit der Geschichte der Library of Congress schon vertraut ist, ebenso unterhaltsam wie informativ."
    RSWK
    Washington <DC> / Library of Congress / Geschichte : 1800-2000
    RVK
    AN 88320 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliothekswesen in einzelnen Ländern und einzelne Bibliotheken / Ausländische Bibliotheken / Amerika, Indianische Welt / Nordamerika / USA / Oststaaten / New-England-Staaten (Maine, New Hampshire, Vermont, Massachusetts, Rhode Island, Connecticut)
    Subject
    Washington <DC> / Library of Congress / Geschichte : 1800-2000
  14. McCorduck, P.: Machines who think : a personal inquiry into the history and prospects of artificial intelligence (2004) 0.08
    0.079299614 = product of:
      0.19464451 = sum of:
        0.01602028 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.01602028 = score(doc=4335,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.26684773 = fieldWeight in 4335, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4335)
        0.012313558 = weight(_text_:aus in 4335) [ClassicSimilarity], result of:
          0.012313558 = score(doc=4335,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.1332568 = fieldWeight in 4335, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4335)
        0.014083916 = weight(_text_:dem in 4335) [ClassicSimilarity], result of:
          0.014083916 = score(doc=4335,freq=6.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.1577183 = fieldWeight in 4335, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4335)
        0.021445816 = weight(_text_:der in 4335) [ClassicSimilarity], result of:
          0.021445816 = score(doc=4335,freq=66.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35443765 = fieldWeight in 4335, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4335)
        0.01602028 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.01602028 = score(doc=4335,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.26684773 = fieldWeight in 4335, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4335)
        0.021445816 = weight(_text_:der in 4335) [ClassicSimilarity], result of:
          0.021445816 = score(doc=4335,freq=66.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35443765 = fieldWeight in 4335, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4335)
        0.023901438 = weight(_text_:geschichte in 4335) [ClassicSimilarity], result of:
          0.023901438 = score(doc=4335,freq=4.0), product of:
            0.12874028 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.027087249 = queryNorm
            0.18565625 = fieldWeight in 4335, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4335)
        0.021445816 = weight(_text_:der in 4335) [ClassicSimilarity], result of:
          0.021445816 = score(doc=4335,freq=66.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35443765 = fieldWeight in 4335, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4335)
        0.021445816 = weight(_text_:der in 4335) [ClassicSimilarity], result of:
          0.021445816 = score(doc=4335,freq=66.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35443765 = fieldWeight in 4335, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4335)
        0.01602028 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.01602028 = score(doc=4335,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.26684773 = fieldWeight in 4335, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4335)
        0.0105015095 = product of:
          0.021003019 = sum of:
            0.021003019 = weight(_text_:philosophie in 4335) [ClassicSimilarity], result of:
              0.021003019 = score(doc=4335,freq=2.0), product of:
                0.14351615 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.027087249 = queryNorm
                0.14634603 = fieldWeight in 4335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4335)
          0.5 = coord(1/2)
      0.4074074 = coord(11/27)
    
    Footnote
    Rez. in. Spektrum der Wissenschaft. 2005, H.4, S.106-108 (A. Leßmöllmann): "Bereits im Titel steckt Stoff für ein paar grüblerische Nachmittage: »Maschinen, die denken«, provokant mit dem englischen Relativpronomen »who« formuliert, das doch für Belebtes, sogar Vernunftbegabtes reserviert ist. Denken Maschinen denn? Ja, sagt Pamela McCorduck in ihrer Nacherzählung der Geschichte der künstlichen Intelligenz (KI). Fußball spielende Roboter, Schach spielende Computerprogramme, »Such-Bots«, die auf kluge Weise Datenbanken durchstöbern - das sind alles Denker. Allerdings nutzen sie ihre künstlichen Hirne auf eigene Art. Maschinendenken kann ganz anders ablaufen als Menschendenken und trotzdem Denken sein, so das Credo der Autorin. Um das zu zeigen, entfacht sie ein DenkmaschinenFeuerwerk: Sie hat klug beobachtet, kennt die KI-Szene (zumindest in den USA) und nimmt uns mit auf eine unterhaltsame Reise durch die Geschichte der KI-Tüftelei. Eine Reise, die für sie mit der alten Frage verknüpft ist, wie wir Wissen sammeln, mit Maschinen spielen, denkende Maschinen zu unseren Gefährten machen: Bereits der hinkende Schmied und Zeussohn Hephaistos hatte intelligente Blasebälge, die ihm aufs Wort gehorchten. McCorduck berichtet vom Enthusiasmus der Pioniere wie des Kybernetikers Norbert Wiener (1894-1964) und des Mathematikers John von Neumann (1903-1957), auf den die Idee eines gespeicherten Computerprogramms zurückgeht; beide sahen sich durchaus in der Tradition eines Rabbi Löw (1520-1609), der im frühneuzeitlichen Prag den Golem erschuf. Sie erzählt von der folgenschweren Dartmouth-Konferenz 1956, bei der Marvin Minsky und andere, auch heute noch aktive Wortführer entschieden: Ein künstliches Hirn kann wie ein menschliches arbeiten, ohne notwendigerweise wie ein solches gebaut zu sein. Künstliches Denken kann also auf algorithmischem Weg funktionieren - indem ein Programm Befehle ausführt, genauer: Symbole verarbeitet. Nebenbei erklärt McCorduck auch dem technisch unwilligen Leser, wie das legendäre »Psychotherapie«-Programm Eliza (das zwar unintelligent, aber überraschend wirkungsvoll plapperte) und all die anderen Maschinchen im Inneren ticken. Auch die Kritiker lässt sie zu Wort kommen, Joseph Weizenbaum beispielsweise, den schon der Erfolg seiner Eliza ängstigte: Offenbar seien Menschen viel zu schnell bereit, in Maschinen Intelligenz - sogar Gefühl! - zu vermuten, und deswegen sollten wir lieber die Finger von der KI lassen, um uns nicht selbst eine Falle zu stellen. Das ist alles wunderbar durchdacht und mit Herzblut berichtet. Allerdings nicht neu: Der größte Teil des Buchs er schien bereits 1981, wurde in den USA ein Bestseller und in viele Sprachen übersetzt, auch ins Deutsche (»Denkmaschinen«).
    Die Neuauflage hat McCorduck mit einem Nachwort versehen. Auf diesen 100 Seiten durcheilt sie das fehlende Vierteljahrhundert: Die »Eiszeit« in den 1980ern, als sich niemand mehr von denkenden Maschinen zu reden traute - zu grandios waren selbst »einfache« Projekte, wie die maschinelle Übersetzung, mitsamt den investierten Forschungsmillionen den Bach hinuntergegangen. KI galt als Hort der Hybris und der haltlosen Versprechungen, die Idee, ein künstliches Gehirn zu erstellen, als absurd. Die Forschungsförderung, auch des Militärs, versiegte. Danach kam wieder Leben in die Eiswüste: »Deep Blue« schlug den Schachmeister Garri Kasparow; das künstliche Denken war plötzlich wieder salonfähig. Und auch die Ängste waren wieder da: Bill Joy, Erster Wissenschaftler des Betriebssysteme-Bauers Sun Microsystems, belebte passgenau vor der Jahrtausendwende auch deutsche Feuilletons, indem er vor einer Machtübernahme durch die Maschinen warnte. All das gibt einen guten Überblick. Die Inspiration der Erstauflage hat das Nachwort aber nicht: McCorduck reiht Ereignisse aneinander, spürt jedoch den tiefer liegenden Strömungen wenig nach. Überhaupt wirkt es verlegerisch ungeschickt, die letzten 25 Jahre als Appendix an das große Werk zu fügen. Denn in diesen Jahren hat eine Zäsur stattgefunden: Das »heroische« Zeitalter der KI - wie McCorduck es charakterisiert - ist in den meisten Labors längst abgeblasen worden. Heute spricht kaum noch jemand davon, eine intelligente Maschine schaffen zu wollen; selbst das Wort »Intelligenz« meidet man eher, um weder falsche Hoffnungen noch unnötige Ängste zu schüren. Bis auf wenige Ausnahmen wie den Roboterbauer Hans Moravec, der vollintegrierte und gesellschaftsfähige Kunstmenschen unverdrossen für das Jahr 2050 prophezeit, ist die KI pragmatisch geworden. Sie hat sich, wie McCorduck durchaus bemerkt, in viele Teildisziplinen aufgespalten und konzentriert sich aufs Machbare: Der Fußballroboter soll den Ball treffen, der Kanalkrabbler das Leck im Rohr finden, der Suchalgorithmus das richtige Ergebnis liefern, die Wissensbasis funktionieren. »Heroische« Großprojekte werden da eher mit schiefem Grinsen angesehen, wie die Wissensbasis »CyC« des Stanford-Professors Douglas Lenat, in der das gesamte Alltagswissen eines Menschen in Form von Regeln wie »Schneeweiß« und »Zahnarzt gelegentlich Schmerzen« codiert werden soll, um einer Maschine dadurch menschenähnliches Wissen einzuhauchen. Pamela McCorduck aber referiert über diese seit 1994 andauernde Hamsterarbeit stoisch ohne einen Anflug von Kritik. Auch die Hinwendung zum Körper schwingt bei ihr implizit mit, wenn sie die neuen Roboter bespricht, wird aber nicht als der Trend, der er ist, gewürdigt: Embodied AI, »verkörperte KI«, ermöglicht durch die boomende Sensortechnik, lagert viele Funktionen der zentralen Steuerung in die Peripherie aus, lässt also, anthropomorph gesprochen, den Körper zu Wort kommen und entlastet den Kopf. Ein schönes Pferd, auf das McCorduck hätte aufspringen können: Schließlich ist es genau ihr Metier, den Computer nicht bloß als Werkzeug, sondern als Erkenntnisobjekt zu nutzen, wie der Mensch sich selbst sieht - denn auch in die Philosophie haben ja Diskussionen zur Körperlichkeit Einzug gefunden. Weil sich so vieles geändert hat, wäre es vielleicht klug gewesen, ein neues Buch zu schreiben, statt einfach die neuen Entwicklungen an die alten anzuhängen. Und es ist wirklich schade, dass die Autorin, wie sie im Vorwort schreibt, nicht die Zeit fand, über die Grenzen der USA hinauszugehen. Auch in Lund, Darmstadt und Tokio werden interessante Dinge gebaut. Jedenfalls ist es inzwischen klar: »Machines who think« - dieser Satz ist an den Schläfen so grau wie viele der Pioniere der KI aus dem vergangenen heroischen Zeitalter. Heute ergänzt man den Ausspruch mit einem »nun ja, irgendwie - kind of«, zieht den Laborkittel an und schraubt weiter. Das Zeitalter der großen Versprechungen ist vorbei. Und das ist gut so."
  15. Woldering, B.: Auf dem Weg zu einer Europäischen Digitalen Bibliothek (2006) 0.08
    0.07928465 = product of:
      0.21406856 = sum of:
        0.01764146 = weight(_text_:und in 556) [ClassicSimilarity], result of:
          0.01764146 = score(doc=556,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.29385152 = fieldWeight in 556, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=556)
        0.036194324 = weight(_text_:aus in 556) [ClassicSimilarity], result of:
          0.036194324 = score(doc=556,freq=6.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.3916934 = fieldWeight in 556, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=556)
        0.033801403 = weight(_text_:dem in 556) [ClassicSimilarity], result of:
          0.033801403 = score(doc=556,freq=6.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.37852395 = fieldWeight in 556, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=556)
        0.020034654 = weight(_text_:der in 556) [ClassicSimilarity], result of:
          0.020034654 = score(doc=556,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3311152 = fieldWeight in 556, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=556)
        0.01764146 = weight(_text_:und in 556) [ClassicSimilarity], result of:
          0.01764146 = score(doc=556,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.29385152 = fieldWeight in 556, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=556)
        0.020034654 = weight(_text_:der in 556) [ClassicSimilarity], result of:
          0.020034654 = score(doc=556,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3311152 = fieldWeight in 556, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=556)
        0.020034654 = weight(_text_:der in 556) [ClassicSimilarity], result of:
          0.020034654 = score(doc=556,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3311152 = fieldWeight in 556, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=556)
        0.020034654 = weight(_text_:der in 556) [ClassicSimilarity], result of:
          0.020034654 = score(doc=556,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3311152 = fieldWeight in 556, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=556)
        0.01764146 = weight(_text_:und in 556) [ClassicSimilarity], result of:
          0.01764146 = score(doc=556,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.29385152 = fieldWeight in 556, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=556)
        0.011009844 = product of:
          0.022019688 = sum of:
            0.022019688 = weight(_text_:22 in 556) [ClassicSimilarity], result of:
              0.022019688 = score(doc=556,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.23214069 = fieldWeight in 556, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=556)
          0.5 = coord(1/2)
      0.37037036 = coord(10/27)
    
    Abstract
    Mehr als 130 gleichzeitig durchsuchbare Kataloge und Sammlungen sowie Links zu rund 80 digitalen Sammlungen von 19 europäischen Nationalbibliotheken, das ist das aktuelle Angebot von The European Library. Darüber hinaus bietet dieses Portal der Konferenz der Europäischen Nationalbibliothekare (Conference of European National Librarians, CENL) umfassende Informationen zu den 45 europäischen Nationalbibliotheken aus 43 Ländern, die in CENL vertreten sind. The European Library ist aus dem gleichnamigen, von der Europäischen Union (EU) teilfinanzierten Projekt hervorgegangen, das im Februar 2004 erfolgreich abgeschlossen und danach in den Echtbetrieb überführt wurde. Unter dem Dach der CENL wird The European Library an der Königlichen Bibliothek in Den Haag von einem Team weiterentwickelt und gepflegt, das aus sieben Personen besteht. Finanziert wird dieser Service von den europäischen Nationalbibliotheken: von den derzeit 19 Vollmitgliedern von The European Library sowie mit einem Teil des CENL-Jahresbeitrags aller Nationalbibliotheken. Mittelfristiges Ziel ist, alle CENL-Bibliotheken als Vollmitglieder in den Service von The European Library einzubinden, das heißt alle Kataloge und Sammlungen aller 45 Bibliotheken integriert suchbar zu machen.
    Source
    Dialog mit Bibliotheken. 18(2006) H.2, S.19-22
  16. Vickery, B.C.; Vickery, A.: Information science in theory and practice (2004) 0.08
    0.07924627 = product of:
      0.19451356 = sum of:
        0.020606166 = weight(_text_:allgemeine in 4320) [ClassicSimilarity], result of:
          0.020606166 = score(doc=4320,freq=2.0), product of:
            0.14215381 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.027087249 = queryNorm
            0.14495683 = fieldWeight in 4320, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
        0.021113016 = weight(_text_:und in 4320) [ClassicSimilarity], result of:
          0.021113016 = score(doc=4320,freq=66.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3516768 = fieldWeight in 4320, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
        0.012313558 = weight(_text_:aus in 4320) [ClassicSimilarity], result of:
          0.012313558 = score(doc=4320,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.1332568 = fieldWeight in 4320, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
        0.016262705 = weight(_text_:dem in 4320) [ClassicSimilarity], result of:
          0.016262705 = score(doc=4320,freq=8.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.1821174 = fieldWeight in 4320, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
        0.016272806 = weight(_text_:der in 4320) [ClassicSimilarity], result of:
          0.016272806 = score(doc=4320,freq=38.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.26894265 = fieldWeight in 4320, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
        0.021113016 = weight(_text_:und in 4320) [ClassicSimilarity], result of:
          0.021113016 = score(doc=4320,freq=66.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3516768 = fieldWeight in 4320, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
        0.016272806 = weight(_text_:der in 4320) [ClassicSimilarity], result of:
          0.016272806 = score(doc=4320,freq=38.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.26894265 = fieldWeight in 4320, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
        0.01690087 = weight(_text_:geschichte in 4320) [ClassicSimilarity], result of:
          0.01690087 = score(doc=4320,freq=2.0), product of:
            0.12874028 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.027087249 = queryNorm
            0.1312788 = fieldWeight in 4320, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
        0.016272806 = weight(_text_:der in 4320) [ClassicSimilarity], result of:
          0.016272806 = score(doc=4320,freq=38.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.26894265 = fieldWeight in 4320, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
        0.016272806 = weight(_text_:der in 4320) [ClassicSimilarity], result of:
          0.016272806 = score(doc=4320,freq=38.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.26894265 = fieldWeight in 4320, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
        0.021113016 = weight(_text_:und in 4320) [ClassicSimilarity], result of:
          0.021113016 = score(doc=4320,freq=66.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3516768 = fieldWeight in 4320, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
      0.4074074 = coord(11/27)
    
    Footnote
    Rez. in: BuB 56(2004) H.12, S.743 (H, Meinhardt): "1987 erstmals erschienen und seitdem ein Klassiker unter den Lehrbüchern im Feld der Information Science, liegt nunmehr die dritte, deutlich veränderte Auflage vor. Notwendig geworden war die Überarbeitung vor allem durch die Dynamik im Bereich der Informationstechnologien und deren Auswirkungen sowohl auf die Praxis der Informationsspezialisten wie auch die Disziplin selber. Augenfälligste Veränderung ist denn auch ein neues Kapitel zu »Internet und Informationswissenschaft«. »Chemical librarians« Zunächst einige Worte zu den Autoren, die dem einen oder anderen vielleicht nicht bekannt sind: Brian C. Vickery und Alina Vickery sind beide von ihrer Ausbildung her Chemiker und waren als Ehepartner (Alina Vickery starb Ende 2001) auch beruflich vielfältig gemeinsam tätig. Wie viele Chemiker (man denke nur Eugene Garfield, den Begründer der modernen Szientometrie) sensibilisiert für den Umgang mit enormen Informationsmengen und damit Informationsproblemen, zudem als »chemical librarian« (Brian C. Vickery) und Mitarbeiter von chemischen Fachzeitschriften auch professionell beschäftigt mit Fragen des Fachinformationstransfers, haben sie sich (insbesondere Brian C. Vickery) frühzeitig und kontinuierlich informationswissenschaftlich betätigt. Resultat ist eine Fülle von Publikationen, vor allem zu den Bereichen Indexieren, Klassifizieren, Information Retrieval, auch zur Geschichte der wissenschaftlichen Kommunikation (alle Arbeiten sind im Anhang aufgelistet). Brian C. Vickery war außerdem, das dürfte für Bibliothekare von Interesse sein, als Deputy beim Aufbau der National Lending Library for Science and Technology (NLLST) in Boston Spa beteiligt, die ihre Arbeit 1961 aufnahm und 1973 mit in die neu gegründete British Library einging. Und es sei hier schon vorab bemerkt, dass der immer wiederkehrende Bezug von informationswissenschaftlichen Fragestellungen auf die bibliothekarische Praxis ein Vorzug dieses Buches ist.
    Ungewohnte Einordnung und Gewichtung Von der Konzeption her ist das Buch am ehesten als eine Art einführendes Handbuch zu beschreiben, das sehr stark Querschnittscharakter hat. Dem entspricht die inhaltlich weit gespannte Gliederung, die die meisten informationswissenschaftlichen Bereiche streift. Die Autoren verfolgen explizit nicht das Ziel, eine Art Manual für die Informationspraxis oder für das Informationsmanagement vorzulegen, sondern versprechen einen Mix aus theoretischer Annäherung und praxisorientierter Handreichung - und enttäuschen damit nicht. Der deutsche Leser, der mit hiesigen Lehrbüchern zur Informationswissenschaft nicht gerade verwöhnt ist und sich in aller Regel aus vielen Quellen Puzzleartig sein Bild von »Informationswissenschaft« zusammenstoppeln muss (eine nach wie vor rühmliche Ausnahme sind die mehrbändigen »Grundlagen der praktischen Information und Dokumentation«, deren Neuauflage gerade erschienen sind), wird vieles, allerdings in ungewohnter Einordnung und Gewichtung, hier gesammelt vorfinden. Im Einzelnen gehen Vickery auf folgende Bereiche ein: Information und Gesellschaft, Informationstransfer in natürlichen, sozialen, maschinellen Umgebungen, Besonderheiten und Ausprägungen menschlicher Kommunikation und Informationsbedürfnisse, das gesamte Gebiet des Information Retrieval, Wissensrepräsentation, Informationsvermittlung, Informationssysteme und deren Evaluation, Internet und Informationswissenschaft.
    Soziologisch geprägt Das alles auf nicht einmal 350 Seiten: Hier kann es also immer nur um ein »Anreißen« gehen, was sich immer wieder, zum Beispiel in den Abschnitten zu Information Retrieval oder zu Formen der Wissensrepräsentation, schmerzhaft bemerkbar macht. Auf Klassifikationen, Thesauri, Formen des Abstracting und so weiter wird so gut wie nicht eingegangen. Hier ist generell zu fragen, ob die Gewichtung, die die Autoren vornehmen, sinnvoll ist. Ihr Ansatz, Informationswissenschaft zu beschreiben als »the study of the communication of information in sociery«, ist ein sehr weiter und findet seinen Niederschlag in überdimensionierten Abschnitten, die stark soziologisch geprägt sind, ohne wirklich erhellend zu sein; dazu sind die Aussagen, zum Beispiel zu Reichweiten von Kommunikation oder zu verschiedenen Kommunikationstypen, zu allgemein. Bedeutsamer, da dieser umfassende Ansatz überhaupt nicht durchgehalten wird, sondern sich immer stärker verengt hin auf Kommunikation von wissenschaftlicher Information, ist jedoch, dass auch dieses Buch letztlich den Eindruck hinterlässt, Informationswissenschaft sei ein Konglomerat miteinander relativ unverbundener Theorien und Bausteine. Dieser Eindruck, der sich beim Lesen auch deshalb immer wieder aufdrängt, weil sowohl die historische EntwicklungderDisziplin nur sehr verknappt (generell USA-zentriert) wie auch die Abgrenzung/Überschneidungzu anderen Wissenschaften wenig thematisiert wird (ganz stark spürbarim Kapitel 3 »Widercontexts of information transfer«), mildert sich etwas durch die sehr verdienstvolle Auflistung von bekannten Informationsspezialisten im Anhang und die Visualisierung der Informationswissenschaft, ihrer Zweige und bedeutender Vertreter, in Form einer Art »Landkarte«.
    Ein Anliegen aller Das neu hinzugekommene Kapitel zu Informationswissenschaft und Internet versucht auf rund 40 Seiten einen Rundumschlag zu informationswissenschaftlichen Fragestellungen von HTML bis hin zu digitalen Bibliotheken. Auch wenn dieses Kapitel nicht konsistent erscheint, knüpfen die Autoren hier an unmittelbar zurückliegende Forschungen an und fordern ein neues und erweitertes Verständnis von Informationswissenschaft, die die Informationsbedürfnisse aller sozialen Gruppen zu ihrem Anliegen machen müsse. Hier am ehesten schließt sich der Kreis zu dem eingangs bekundeten Verständnis von Informationswissenschaft. Kritische Anmerkung Kritisch muss angemerkt werden, dass es mit den Aktualisierungen, ausgenommen das neu hinzugekommene Kapitel zum Internet, so weit nicht her ist. Besonders ärgerlich sind die vielen Verweise auf Studien und Forschungsergebnisse der Sechziger- und Siebzigerjahre. Unbenommen dieser kritischen Hinweise, bleibt der Titel der Vickerys ein einführendes Buch, dessen Lektüre Gewinn bringend ist und das nach wie vor ein Grundlagenwerk genannt werden kann."
    Weitere Rezension in. Mitteilungen VÖB 57(2004) H.3/4, S.84-86 (O. Oberhauser): " ... Fazit: Wer sich von der Neuauflage von Vickery & Vickery eine auf dem neuesten Stand befindliche Einführung in die Informationswissenschaft erhofft hat, wird enttäuscht sein. Für jene Personen, die das Buch hingegen noch nicht kannten, bzw. jene Bibliotheken, die die ältere Auflage nicht im Bestand haben, ist diese dritte Auflage, ungeachtet ihrer Schwächen und des überhöhten Preises, ein "Muss"!
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  17. Richter, K.: Weimarer Schüler erobern Wissen (2007) 0.08
    0.077087015 = product of:
      0.23126103 = sum of:
        0.024676595 = weight(_text_:und in 398) [ClassicSimilarity], result of:
          0.024676595 = score(doc=398,freq=46.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41103485 = fieldWeight in 398, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=398)
        0.021113355 = weight(_text_:aus in 398) [ClassicSimilarity], result of:
          0.021113355 = score(doc=398,freq=6.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.22848782 = fieldWeight in 398, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=398)
        0.019717483 = weight(_text_:dem in 398) [ClassicSimilarity], result of:
          0.019717483 = score(doc=398,freq=6.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.22080563 = fieldWeight in 398, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=398)
        0.0291001 = weight(_text_:der in 398) [ClassicSimilarity], result of:
          0.0291001 = score(doc=398,freq=62.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48094094 = fieldWeight in 398, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=398)
        0.024676595 = weight(_text_:und in 398) [ClassicSimilarity], result of:
          0.024676595 = score(doc=398,freq=46.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41103485 = fieldWeight in 398, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=398)
        0.0291001 = weight(_text_:der in 398) [ClassicSimilarity], result of:
          0.0291001 = score(doc=398,freq=62.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48094094 = fieldWeight in 398, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=398)
        0.0291001 = weight(_text_:der in 398) [ClassicSimilarity], result of:
          0.0291001 = score(doc=398,freq=62.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48094094 = fieldWeight in 398, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=398)
        0.0291001 = weight(_text_:der in 398) [ClassicSimilarity], result of:
          0.0291001 = score(doc=398,freq=62.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48094094 = fieldWeight in 398, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=398)
        0.024676595 = weight(_text_:und in 398) [ClassicSimilarity], result of:
          0.024676595 = score(doc=398,freq=46.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41103485 = fieldWeight in 398, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=398)
      0.33333334 = coord(9/27)
    
    Abstract
    Weimarer Schülern und Lehrern eine frühzeitige und kontinuierliche Orientierung bei der Informationsbeschaffung zu geben - diesen Leitgedanken verfolgen die Weimarer Bibliotheken seit Anfang 2006 in diversen Projekten.
    Content
    "Zunächst wurde ein gemeinsamer Flyer »Wissen erobern. Schüler entdecken Weimarer Bibliotheken« erarbeitet, der die wichtigsten Informationen über die Bibliotheken vor Ort enthält. Der Flyer wurde in Kooperation mit dem Staatlichen Schulamt Weimar zum Anlass genommen, um den unmittelbaren Kontakt zu Fachberatern, Seminarfachlehrern an Gymnasien und Projektlehrern an Regelschulen zu pflegen und sowohl Unterstützungsangebote als auch Kooperationsmöglichkeiten der Bibliotheken aufzuzeigen. Aus diesen Begegnungen entwickelte sich die Idee, alle Schüler der gymnasialen Oberstufe im Rahmen des in Thüringen obligatorischen Seminarfachs praktisch über die Recherchemöglichkeiten der Weimarer Bibliotheken während einer Vorlesung zu informieren. Um das Vorhaben in die Tat umzusetzen, wurde eine Projektgruppe bestehend aus Bibliothekaren und Seminarfachlehrern gebildet. In die Konzeption für diese Informationsveranstaltung wurden vor allem die Anforderungen an die Schüler im Rahmen der Seminarfacharbeit, ihre Gewohnheiten bei der Informationssuche sowie die bisherigen Erfahrungen der Zusammenarbeit von Lehrern und Bibliothekaren einbezogen. Eine wichtige Voraussetzung für die Akzeptanz der Veranstaltung bestand darin, dass das Weimarer Schulamt diese in den Stundenplan integrierte und damit die Teilnahme für die Schüler verpflichtend war.
    Am 27. März war es dann soweit: 300 Zehntklässler der Weimarer Gymnasien belebten das Audimax der Bauhaus-Universität Weimar, um die Bibliotheken der Stadt genauer unter die Lupe zu nehmen und Anregungen für potenzielle Seminarfachthemen zu erhalten. Mit den Worten des Erfinders Thomas A. Edison - dass, wenn es jemandem gelänge, die Bibliotheken und sämtliche Bücher zu vernichten, 30 Jahre später kein Schlosser mehr auch nur eine Schraube anziehen könnte - begrüßte der Direktor der Universitätsbibliothek, Frank Simon-Ritz, die Lehrer und Schüler. Für einen wichtigen Impuls sorgte im Anschluss der Prorektor für Studium und Lehre der Bauhaus-Universität Weimar, Prof. Lorenz Engell, der die Erwartungen einer Universität an die künftigen Studierenden verdeutlichte. Er beschrieb sehr anschaulich, worum es im Leben wirklich geht, und dass es dafür notwendig sei, an richtige, relevante und neue Informationen zu gelangen. In einem dritten Teil wurden die Schüler mit den Möglichkeiten der Bibliotheksrecherche bekannt gemacht. Sie erhielten mittels des fiktiven Seminarfachthemas »Graffiti« mögliche Anhaltspunkte, wie sie bei einer Recherche vorgehen können und welche Vorteile verschiede ne Quellen - von Suchmaschinen über Bibliothekskataloge bis hin zu Volltextdatenbanken - bieten. Auch ein kostenfreies Literaturverwaltungssystem wurde den Schülern nahe gebracht, damit sie auf diese Weise problemlos eine Literaturliste erstellen können.
    Kompetente Unterstützung Im weiteren Verlauf der Veranstaltung verdeutlichten die Vertreterinnen von Stadtbücherei, Herzogin Anna Amalia Bibliothek, Hochschulbibliothek der Hochschule für Musik, Bibliothek der Gedenkstätte Buchenwald, Umweltbibliothek und Universitätsbibliothek anhand der realen und virtuellen Zugänge zu den Bibliotheksbeständen zugleich die Wichtigkeit von fachkompetenter Unterstützung, damit ein Recherchethema optimal bearbeitet werden kann. Während der Veranstaltung beantworteten die Schüler einen Fragebogen, der in die Bewertung der Seminarfacharbeit einfließt. Im Anschluss an die Vorlesung, die von den Schülern und Lehrern mit viel Aufmerksamkeit und auch mit reichlich Applaus für die einzelnen Beiträge honoriert wurde, gab es in Zusammenarbeit mit dem Dezernat Studium und Lehre der Bauhaus-Unversität Weimar das fakultative Angebot, an einer Führung zu den BauhausStätten oder einer Bibliotheksbesichtigung teilzunehmen. Nach der knapp 80-minütigen Veranstaltung resümierte die 16-jährige Laura Vogt aus dem Weimarer Schillergymnasium ziemlich selbstverständlich: »Ich war heute das erste Mal in der Uni-Bibliothek und denke, dass ich mich zurecht finde.« Mit diesem Fazit geht es nun für die Weimarer Projektgruppe darum, das Potenzial der Konstellation - Schüler und Lehrer, die die Bibliotheksangebote wahrnehmen und nutzen - mit diesem Angebot zu verstetigen. Bereits am 12. Juni wird eine weitere Veranstaltung am gleichen Ort stattfinden, die sich an die Zehntklässler der Gymnasien des Weimarer Lands und die nichtstaatlichen Schulen Weimars richtet."
  18. Hunter, E.J.: Classification - made simple : an introduction to knowledge organisation and information retrieval (2009) 0.08
    0.076950654 = product of:
      0.20776677 = sum of:
        0.032969866 = weight(_text_:allgemeine in 3394) [ClassicSimilarity], result of:
          0.032969866 = score(doc=3394,freq=2.0), product of:
            0.14215381 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.027087249 = queryNorm
            0.23193093 = fieldWeight in 3394, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
        0.016632527 = weight(_text_:und in 3394) [ClassicSimilarity], result of:
          0.016632527 = score(doc=3394,freq=16.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27704588 = fieldWeight in 3394, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
        0.024129549 = weight(_text_:aus in 3394) [ClassicSimilarity], result of:
          0.024129549 = score(doc=3394,freq=6.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.26112893 = fieldWeight in 3394, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
        0.029091615 = weight(_text_:dem in 3394) [ClassicSimilarity], result of:
          0.029091615 = score(doc=3394,freq=10.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.32578155 = fieldWeight in 3394, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
        0.017919539 = weight(_text_:der in 3394) [ClassicSimilarity], result of:
          0.017919539 = score(doc=3394,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29615843 = fieldWeight in 3394, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
        0.016632527 = weight(_text_:und in 3394) [ClassicSimilarity], result of:
          0.016632527 = score(doc=3394,freq=16.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27704588 = fieldWeight in 3394, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
        0.017919539 = weight(_text_:der in 3394) [ClassicSimilarity], result of:
          0.017919539 = score(doc=3394,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29615843 = fieldWeight in 3394, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
        0.017919539 = weight(_text_:der in 3394) [ClassicSimilarity], result of:
          0.017919539 = score(doc=3394,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29615843 = fieldWeight in 3394, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
        0.017919539 = weight(_text_:der in 3394) [ClassicSimilarity], result of:
          0.017919539 = score(doc=3394,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.29615843 = fieldWeight in 3394, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
        0.016632527 = weight(_text_:und in 3394) [ClassicSimilarity], result of:
          0.016632527 = score(doc=3394,freq=16.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27704588 = fieldWeight in 3394, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
      0.37037036 = coord(10/27)
    
    Footnote
    Rez. in: Mitt. VÖB 63(2010) H.1, S.143-147 (O. Oberhauser): " ... Kommen wir zur Kritik, die in den letzten Absätzen ansatzweise schon angeklungen ist. Das Anliegen des Buches ist, wie dem ersten Satz der Einleitung zu entnehmen ist, "to simplify the initial study of classification as used for knowledge organisation and information retrieval" (p. xi). Dies ist dem Autor in den ersten Kapiteln wohl auch gelungen. Die Einführung in die beiden Grundtypen - hier facettierte, dort hierarchische Systeme - ist verständlich und für Anfänger zweifellos gut geeignet. In den folgenden Kapiteln beginnt man sich aber zu fragen, wer eigentlich die Zielgruppe des Buches sein mag. Für Anfänger wird vieles zu schwierig sein, da gerade bei den anspruchsvolleren Aspekten der Text zu oberflächlich ist, keine didaktisch befriedigende Darstellung erfolgt und gelegentlich sogar Fachkenntnisse vorausgesetzt werden. Für Praktiker aus dem Bibliothekswesen fehlt vielfach der Bezug zur alltäglichen Realität, da z.B. Probleme der Buchaufstellung allenfalls am Rande zur Sprache kommen. Hochschullehrer, die eine Lehrveranstaltung zu Klassifikationsthemen vorbereiten müssen, werden manches an dem Buch nützlich finden, vielfach aber ob der mangelnden Detailliertheit zu anderen Unterlagen greifen. So bleibt der oder die "an Fragen der Klassifikation Interessierte" - ein undefiniertes und nicht allzu häufig anzutreffendes Wesen, das aber wahrscheinlich auch existiert und hier eine Fülle von Punkten angerissen findet, die zu einer weiteren Recherche in anderen Quellen animieren. Gut gelungen sind die zahlreichen Beispiele, selbst wenn dafür nicht immer sehr glückliche Notationssysteme gewählt wurden. Auch in sprachlicher Hinsicht ist - zumindest in den Anfangskapiteln - nichts zu bemängeln. Dass die beiden letzten Kapitel eher misslungen sind, wurde bereits oben angedeutet. In den übrigen Abschnitten merkt man dem Buch ebenfalls immer wieder an, dass es in seinen Grundzügen aus der Papier- und nicht aus der Online-Zeit stammt. Dennoch will ich nicht über Gebühr lamentieren, schon deshalb, da es gar nicht so viele brauchbare Lehrbücher zu Klassifikationsthemen gibt. Und in diese letztere Kategorie gehört Hunters Text alldieweil."
    RSWK
    Bibliothek / Klassifikation / Information und Dokumentation
    Subject
    Bibliothek / Klassifikation / Information und Dokumentation
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  19. Mitchell, J.S.: Dewey Decimal Classification : 125 and still growing (2001) 0.08
    0.07650334 = product of:
      0.25819877 = sum of:
        0.01764146 = weight(_text_:und in 5534) [ClassicSimilarity], result of:
          0.01764146 = score(doc=5534,freq=2.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.29385152 = fieldWeight in 5534, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5534)
        0.031037556 = weight(_text_:der in 5534) [ClassicSimilarity], result of:
          0.031037556 = score(doc=5534,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5129615 = fieldWeight in 5534, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5534)
        0.01764146 = weight(_text_:und in 5534) [ClassicSimilarity], result of:
          0.01764146 = score(doc=5534,freq=2.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.29385152 = fieldWeight in 5534, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5534)
        0.031037556 = weight(_text_:der in 5534) [ClassicSimilarity], result of:
          0.031037556 = score(doc=5534,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5129615 = fieldWeight in 5534, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5534)
        0.08112417 = weight(_text_:geschichte in 5534) [ClassicSimilarity], result of:
          0.08112417 = score(doc=5534,freq=2.0), product of:
            0.12874028 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.027087249 = queryNorm
            0.6301382 = fieldWeight in 5534, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.09375 = fieldNorm(doc=5534)
        0.031037556 = weight(_text_:der in 5534) [ClassicSimilarity], result of:
          0.031037556 = score(doc=5534,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5129615 = fieldWeight in 5534, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5534)
        0.031037556 = weight(_text_:der in 5534) [ClassicSimilarity], result of:
          0.031037556 = score(doc=5534,freq=6.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5129615 = fieldWeight in 5534, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5534)
        0.01764146 = weight(_text_:und in 5534) [ClassicSimilarity], result of:
          0.01764146 = score(doc=5534,freq=2.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.29385152 = fieldWeight in 5534, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5534)
      0.2962963 = coord(8/27)
    
    Abstract
    Kurzer Beitrag zur Entwicklung, der Publikationsgeschichte und zum gegenwärtigen Stad der DDC
    Theme
    Geschichte der Klassifikationssysteme
  20. Vom Inhaltsverzeichnis bis zur Hörprobe : Nationalbibliothek erweitert Katalogdaten (2007) 0.08
    0.076480314 = product of:
      0.22944094 = sum of:
        0.02437921 = weight(_text_:und in 668) [ClassicSimilarity], result of:
          0.02437921 = score(doc=668,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40608138 = fieldWeight in 668, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
        0.017414 = weight(_text_:aus in 668) [ClassicSimilarity], result of:
          0.017414 = score(doc=668,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.18845356 = fieldWeight in 668, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
        0.03983533 = weight(_text_:dem in 668) [ClassicSimilarity], result of:
          0.03983533 = score(doc=668,freq=12.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.44609472 = fieldWeight in 668, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
        0.024763495 = weight(_text_:der in 668) [ClassicSimilarity], result of:
          0.024763495 = score(doc=668,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 668, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
        0.02437921 = weight(_text_:und in 668) [ClassicSimilarity], result of:
          0.02437921 = score(doc=668,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40608138 = fieldWeight in 668, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
        0.024763495 = weight(_text_:der in 668) [ClassicSimilarity], result of:
          0.024763495 = score(doc=668,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 668, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
        0.024763495 = weight(_text_:der in 668) [ClassicSimilarity], result of:
          0.024763495 = score(doc=668,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 668, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
        0.024763495 = weight(_text_:der in 668) [ClassicSimilarity], result of:
          0.024763495 = score(doc=668,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 668, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
        0.02437921 = weight(_text_:und in 668) [ClassicSimilarity], result of:
          0.02437921 = score(doc=668,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40608138 = fieldWeight in 668, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=668)
      0.33333334 = coord(9/27)
    
    Abstract
    Die Kataloginformationen der Deutschen Nationalbibliothek werden für die aktuelle monografische Literatur weiter ausgebaut. Pro Jahr sollen, wie die Einrichtung mitteilt, Inhaltsverzeichnisse von rund 75000 Neuerscheinungen aus dem Verlagsbuchhandel gescannt und zusätzlich zu den Titeldaten im Internet verfügbar gemacht werden. Es ist geplant, noch in diesem Jahr mit der Ergänzung der Katalogdaten zu beginnen.
    Content
    "Darüber hinaus wird die Nutzung von Zusatzinformationen, die von Verlagen elektronisch bereitgestellt werden, optimiert: Inhaltsverzeichnisse, Probekapitel und Hörproben, die über das Verzeichnis lieferbarer Bücher (VLB - ein Produkt der Marketing- und Verlagsservice des Buchhandels GmbH/MVB) abrufbar sind, werden zusätzlich zu den bibliografischen Nachweisen der Deutschen Nationalbibliothek angeboten. Schon seit dem Jahr 2003 bietet die Deutsche Nationalbibliothek in ihren Katalogen und Datendiensten über rein bibliografische Angaben hinausgehende Informationen zu einzelnen Publikationen an. Sie erhält diese Daten von der MVB und gibt sie im Rahmen ihres Neuerscheinungsdienstes weiter. M it dem jetzt geplanten eigenen Anreicherungsservice wird ein neuer Standard der Zusatzinformationen für monografische Publikationen des Verlagsbuchhandels realisiert. Die Deutsche Nationalbibliothek kommt damit dem aktuellen Wunsch von Benutzern und Kunden des Datenservices nach umfassenden Auskünften bei der Buch recherche nach. Urheberrechtliche Fragen der Kataloganreicherung wurden in den vergangenen Monaten in Gesprächen zwischen der Deutschen Nationalbibliothek, dem Börsenverein des Deutschen Buchhandels und dem Deutschen Bibliotheksverband geklärt. Die Nutzung von Titelblatt, Inhalts-, Tabellen-, Abbildungs- und Literaturverzeichnissen sowie von Personen-, Sach- und Ortsregistern wird als unproblematisch angesehen. Auch die Nutzung der Umschlags- und Klappentexte ist möglich. Für die Nutzung von Schutzumschlägen und Zusam- menfassungen wissenschaft- licher Bücher in Bibliothekskatalogen müssen dagegen die Rechte bei den Rechteinhabern eingeholt werden."

Authors

Languages

  • d 22
  • m 2

Types

  • a 979
  • m 219
  • el 121
  • s 80
  • b 25
  • x 7
  • r 6
  • n 5
  • i 4
  • More… Less…

Themes

Subjects

Classifications