Search (1162 results, page 1 of 59)

  • × year_i:[2000 TO 2010}
  • × type_ss:"a"
  1. ws: Universalwissen für jedermann : das neue Bertelsmann-Lexikon setzt vermehrt auf Online-Anbindung (2002) 0.11
    0.11035332 = product of:
      0.22070664 = sum of:
        0.22070664 = sum of:
          0.1661804 = weight(_text_:500 in 971) [ClassicSimilarity], result of:
            0.1661804 = score(doc=971,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.5403525 = fieldWeight in 971, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.0625 = fieldNorm(doc=971)
          0.054526232 = weight(_text_:22 in 971) [ClassicSimilarity], result of:
            0.054526232 = score(doc=971,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.30952093 = fieldWeight in 971, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=971)
      0.5 = coord(1/2)
    
    Content
    115.000 Stichwörter mit mehr als 3.000 Sonderartikeln - Timeline mit ca. 10.000 Einträgen - Atlas mit 500 Landkarten und 192 Länderinfos - Ca. 80 Diashows zu Geographie, Kultur und Geschichte - Ca 10.000 Fotos und 39 videos, 40 Animationen aus Wissenschaft, Technik und Kulturgeschichte - Ca. 20.000 Links zu Web-Seiten
    Source
    CD-Info. 2002, H.1, S.22
  2. Shen, X.; Li, D.; Shen, C.: Evaluating China's university library Web sites using correspondence analysis (2006) 0.11
    0.11035332 = product of:
      0.22070664 = sum of:
        0.22070664 = sum of:
          0.1661804 = weight(_text_:500 in 5277) [ClassicSimilarity], result of:
            0.1661804 = score(doc=5277,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.5403525 = fieldWeight in 5277, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.0625 = fieldNorm(doc=5277)
          0.054526232 = weight(_text_:22 in 5277) [ClassicSimilarity], result of:
            0.054526232 = score(doc=5277,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.30952093 = fieldWeight in 5277, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=5277)
      0.5 = coord(1/2)
    
    Date
    22. 7.2006 16:40:18
    Source
    Journal of the American Society for Information Science and Technology. 57(2006) no.4, S.493-500
  3. Seiffert, F.: Aleph 500 als neues Verbundsystem (2000) 0.11
    0.107937336 = product of:
      0.21587467 = sum of:
        0.21587467 = product of:
          0.43174934 = sum of:
            0.43174934 = weight(_text_:500 in 4814) [ClassicSimilarity], result of:
              0.43174934 = score(doc=4814,freq=6.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                1.403877 = fieldWeight in 4814, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4814)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Seit dem vergangenen Jahr führt das HBZ Aleph 500 als neue Verbundsoftware ein. Historie und aktueller Stand (27.3.2000) werden dargestellt
    Object
    Aleph 500
  4. Praetorius, S.: ALEPH 500 als lokales System in der Universitätsbibliothek Duisburg (2001) 0.10
    0.10281888 = product of:
      0.20563775 = sum of:
        0.20563775 = product of:
          0.4112755 = sum of:
            0.4112755 = weight(_text_:500 in 6303) [ClassicSimilarity], result of:
              0.4112755 = score(doc=6303,freq=4.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                1.3373042 = fieldWeight in 6303, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6303)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Object
    Aleph 500
  5. ¬Der Bayerische Verbund setzt auf Aleph 500 und SFX (2003) 0.10
    0.10281888 = product of:
      0.20563775 = sum of:
        0.20563775 = product of:
          0.4112755 = sum of:
            0.4112755 = weight(_text_:500 in 1435) [ClassicSimilarity], result of:
              0.4112755 = score(doc=1435,freq=4.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                1.3373042 = fieldWeight in 1435, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1435)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Object
    Aleph 500
  6. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.10
    0.10034672 = sum of:
      0.079899386 = product of:
        0.23969816 = sum of:
          0.23969816 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
            0.23969816 = score(doc=562,freq=2.0), product of:
              0.4264955 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.050306078 = queryNorm
              0.56201804 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.33333334 = coord(1/3)
      0.020447336 = product of:
        0.040894672 = sum of:
          0.040894672 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
            0.040894672 = score(doc=562,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.23214069 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.5 = coord(1/2)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  7. Goldschmidt, R.: Mehrwertdienste für den Zugang zur globalen Information : Optimierung der Benutzerversorgung. Bericht von der Bielefeld 2000 Conference, 8.-10.2.2000 (2000) 0.10
    0.09655915 = product of:
      0.1931183 = sum of:
        0.1931183 = sum of:
          0.14540786 = weight(_text_:500 in 4955) [ClassicSimilarity], result of:
            0.14540786 = score(doc=4955,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.47280845 = fieldWeight in 4955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4955)
          0.047710452 = weight(_text_:22 in 4955) [ClassicSimilarity], result of:
            0.047710452 = score(doc=4955,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.2708308 = fieldWeight in 4955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4955)
      0.5 = coord(1/2)
    
    Abstract
    Zum nunmehr fünften Mal veranstaltete die Bibliothek der Universität Bielefeld gemeinsam mit dem British Council Köln und der Buchhändler-Vereinigung GmbH Frankfurt an Main das internationale Spitzentreffen von Verlegern, Bibliothekaren und Agenturen. An den Vorträgen und Diskussionen nahmen in diesem Jahr weit über 500 Teilnehmer aus 22 Ländern teil. Mehr als 30 Aussteller präsentierten sich mit Ständen im vorraum der Stadthalle sowie mit Vorführungen und Firmenvorträgen. Ziel der Veranstalter war es auch dieses Mal, Verlegern, Händlern und Bibliothekaren ein Forum für nationale und internationale Kooperation bei der elektronischen Vermittlung von Fachinformation zu bieten
  8. ChaPudhry, A.S.; Periasamy, M.: ¬A study of current practices of selected libraries in cataloguing electronic journals (2001) 0.10
    0.09655915 = product of:
      0.1931183 = sum of:
        0.1931183 = sum of:
          0.14540786 = weight(_text_:500 in 746) [ClassicSimilarity], result of:
            0.14540786 = score(doc=746,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.47280845 = fieldWeight in 746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.0546875 = fieldNorm(doc=746)
          0.047710452 = weight(_text_:22 in 746) [ClassicSimilarity], result of:
            0.047710452 = score(doc=746,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.2708308 = fieldWeight in 746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=746)
      0.5 = coord(1/2)
    
    Abstract
    MARC records and online policy documents of selected libraries were reviewed to study the approaches taken by libraries worldwide to catalogue electronic journals. In general, libraries catalogue those electronic journals that are subscribed by them on priority basis. Most of them annotate the e-journal to the print record, some prefer to catalogue them separately, while the majority of the libraries adopt both approaches. While most of the libraries studied prefer full record, cataloguing e-journals separately with a brief record (at least containing MARC fields 245, 500, and 856) that identifies and locates the resource seems to be the best practice.
    Date
    22. 1.2007 20:46:57
  9. Oberhauser, O.: Implementierung und Parametrisierung klassifikatorischer Recherchekomponenten im OPAC (2005) 0.07
    0.07489106 = product of:
      0.14978212 = sum of:
        0.14978212 = sum of:
          0.1259269 = weight(_text_:500 in 3353) [ClassicSimilarity], result of:
            0.1259269 = score(doc=3353,freq=6.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.40946415 = fieldWeight in 3353, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3353)
          0.023855226 = weight(_text_:22 in 3353) [ClassicSimilarity], result of:
            0.023855226 = score(doc=3353,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.1354154 = fieldWeight in 3353, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3353)
      0.5 = coord(1/2)
    
    Abstract
    Das in den letzten Jahren wiedererwachte Interesse an der klassifikatorischen Erschließung und Recherche hat sich allem Anschein nach noch nicht ausreichend bis zu den Herstellern integrierter Bibliothekssysteme herumgesprochen. Wie wäre es sonst zu erklären, dass im OPAC-Modul eines führenden Systems wie Aleph 500 so gut wie keine Features für klassifikationsbasierte Recherchen zu erblicken sind? Tatsächlich finden wir heute einen im Vergleich zum einstigen System Bibos kaum veränderten Zustand vor: Notationen eines oder mehrerer Klassifikationssysteme können in einer durch MAB dafür bestimmten Kategorie (700, nebst Indikatoren) katalogisiert und dann recherchiert bzw. angezeigt werden. Doch welcher Benutzer weiß schon, was diese Notationen im einzelnen bedeuten? Wer macht sich die Mühe, dies selbst herauszufinden, um dann danach zu recherchieren? Hier liegt im wesentlich dasselbe Problem vor, das schon dem systematischen Zettelkatalog anhaftete und ihn zu einem zwar mühevoll erstellten, aber wenig genutzten Rechercheinstrument machte, das nur dann (zwangsläufig) angenommen wurde, wenn ein verbaler Sachkatalog fehlte. Nun könnte eingewandt werden, dass im Vergleich zu früher unter Aleph 500 wenigstens das Aufblättern von Indizes möglich sei, sodass im OPAC ein Index für die vergebenen Notationen angeboten werden kann (bzw. mehrere solche Indizes bei Verwendung von mehr als nur einem Klassifikationssystem). Gewiss, doch was bringt dem Uneingeweihten das Aufblättern des Notationsindex - außer einer alphabetischen Liste von kryptischen Codes? Weiter könnte man einwenden, dass es im Aleph-500-OPAC die so genannten Suchdienste ("services") gibt, mithilfe derer von bestimmten Elementen einer Vollanzeige hypertextuell weiternavigiert werden kann. Richtig, doch damit kann man bloß wiederum den Index aufblättern oder alle anderen Werke anzeigen lassen, die dieselbe Notationen - also einen Code, dessen Bedeutung meist unbekannt ist - aufweisen. Wie populär mag dieses Feature beim Publikum wohl sein? Ein anderer Einwand wäre der Hinweis auf das inzwischen vom Hersteller angebotene Thesaurus-Modul, das vermutlich auch für Klassifikationssysteme eingesetzt werden könnte. Doch wie viele Bibliotheken unseres Verbundes waren bisher bereit, für dieses Modul, das man eigentlich als Bestandteil des Basissystems erwarten könnte, gesondert zu bezahlen? Schließlich mag man noch einwenden, dass es im Gegensatz zur Bibos-Zeit nun die Möglichkeit gibt, Systematiken und Klassifikationen als Normdateien zu implementieren und diese beim Retrieval für verbale Einstiege in die klassifikatorische Recherche oder zumindest für die Veranschaulichung der Klassenbenennungen in der Vollanzeige zu nutzen. Korrekt - dies ist möglich und wurde sogar einst für die MSC (Mathematics Subject Classification, auch bekannt als "AMS-Klassifikation") versucht. Dieses Projekt, das noch unter der Systemversion 11.5 begonnen wurde, geriet jedoch nach einiger Zeit ins Stocken und fand bedauerlicherweise nie seinen Weg in die folgende Version (14.2). Mag auch zu hoffen sein, dass es unter der neuen Version 16 wieder weitergeführt werden kann, so weist dieses Beispiel doch auf die grundsätzliche Problematik des Normdatei-Ansatzes (zusätzlicher Aufwand, Kontinuität) hin. Zudem lohnt sich die Implementierung einer eigenen Normdatei 4 wohl nur bei einem größeren bzw. komplexen Klassifikationssystem, wogegen man im Falle kleinerer Systematiken kaum daran denken würde.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.22-37
  10. Hoffmann, H.W.: Aleph - ein Meilenstein auf dem Weg in die Zukunft (2000) 0.07
    0.07270393 = product of:
      0.14540786 = sum of:
        0.14540786 = product of:
          0.2908157 = sum of:
            0.2908157 = weight(_text_:500 in 4192) [ClassicSimilarity], result of:
              0.2908157 = score(doc=4192,freq=2.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.9456169 = fieldWeight in 4192, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4192)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Object
    Aleph 500
  11. ALEPH 500 mit multilingualem Thesaurus (2003) 0.07
    0.069673255 = product of:
      0.13934651 = sum of:
        0.13934651 = product of:
          0.27869302 = sum of:
            0.27869302 = weight(_text_:500 in 1639) [ClassicSimilarity], result of:
              0.27869302 = score(doc=1639,freq=10.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.90619874 = fieldWeight in 1639, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1639)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
    Object
    Aleph 500
  12. Küssow, J.: ALEPH 500 mit multilingualem Thesaurus (2003) 0.07
    0.069673255 = product of:
      0.13934651 = sum of:
        0.13934651 = product of:
          0.27869302 = sum of:
            0.27869302 = weight(_text_:500 in 1640) [ClassicSimilarity], result of:
              0.27869302 = score(doc=1640,freq=10.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.90619874 = fieldWeight in 1640, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1640)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
    Object
    Aleph 500
  13. Bayer, M.: ¬Die Gier der Bits und Bytes auf Gutenberg : Elektronisches Publizieren, Drucken und das papierlose E-Book melden sich in Frankfurt zu Wort (2000) 0.07
    0.06897083 = product of:
      0.13794166 = sum of:
        0.13794166 = sum of:
          0.103862755 = weight(_text_:500 in 5391) [ClassicSimilarity], result of:
            0.103862755 = score(doc=5391,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.33772033 = fieldWeight in 5391, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5391)
          0.034078896 = weight(_text_:22 in 5391) [ClassicSimilarity], result of:
            0.034078896 = score(doc=5391,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.19345059 = fieldWeight in 5391, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5391)
      0.5 = coord(1/2)
    
    Abstract
    Eines ist gleich geblieben an der neuen Luxus-Variante des E-Book: der Einband aus Leder, der wenigsten ein bisschen an den guten, alten Papier-Schinken erinnert. Dazwischen verbirgt sich jede Menge Technik. Neu ist vor allem der hoch auflösende Bildschirm: Er bietet 32 000 Farben und reagiert auf Berührung; somit lassen sich handschriftliche Beinerkungen in die Bücher schreiben. Das Gerät mit der Bezeichnung REB 1200 soll den Softbook Reader ablösen. Es wiegt 940 Gramm und ist von Haus aus mit 8 MB Speicher ausgestattet. Darauf passen etwa 3000 farbige Seiten. Wer mehr Lesestoff braucht, kann eine 128 MB Steckkarte zusätzlich einstecken. Zu dem Gerät gehört ein Modern, mit dem sich Bücher auch ohne Internet-Anbindung laden lassen, und eine Ethernet-Netzwerkkarte für den schnellen Kontakt zum Computer. Kostenpunkt in den USA - 700 US-Dollar. Der kleinere REB 1100 arbeitet ohne Farbe. Daher passen auf den gleichen Speicherplatz 8000 Seiten. Die Hardware wiegt noch 500 Gramm und damit 130 Gramm weniger als sein Vorgänger, das Rocket E-Book. Sie verfügt nun ebenfalls über ein Modem. Zur Ausstattung gehört ferner ein USB-Port und eine InfrarotSchnittstelle. Kosten: 300 Dollar. Hergestellt werden beide Geräte von Thomson Multimedia. Gemstar kümmert sich nun ausschließlich um die Geschäfte mit den Verlagen
    Date
    3. 5.1997 8:44:22
  14. Hoffmann, H.W.: Systemwechsel im Hochschulbibliothekszentrum (2000) 0.06
    0.06296345 = product of:
      0.1259269 = sum of:
        0.1259269 = product of:
          0.2518538 = sum of:
            0.2518538 = weight(_text_:500 in 5423) [ClassicSimilarity], result of:
              0.2518538 = score(doc=5423,freq=6.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.8189283 = fieldWeight in 5423, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5423)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am 4. April 2000 wurde das System Aleph 500 der Firma ExLibris als neues Verbundsystem im Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen in Betrieb genommen. Die Planungen für die Ablösung der alten Software BIS der Firma DABIS gehen zurück bis in das Jahr 1993. Die Entscheidung für den Einsatz von Aleph fiel im Frühjahr 1999. Der Zeitrahmen von der Entscheidung bis zur Systerneinführung betrug weniger als 12 Monate. Während dieser Zeit mussten mehr als 60 Millionen Datensätze von BIS nach Aleph migriert und ca. 1000 Bibliothekarinnen und Bibliothekare in der Bedienung des neuen Systems geschult werden. Aleph 500 dient dem Hochschulbibliothekszentrum als Plattform für eine qualitative und quantitative Ausweitung seiner Dienstleistungen. Angestrebt ist eine Vernetzung mit lokalen Bibliothekssystemen, mit Normdatelen und mit anderen Verbundsystemen
    Object
    Aleph 500
  15. Oberhauser, O.; Labner, J.: Relevance Ranking in Online-Katalogen : Informationsstand und Perspektiven (2003) 0.06
    0.06296345 = product of:
      0.1259269 = sum of:
        0.1259269 = product of:
          0.2518538 = sum of:
            0.2518538 = weight(_text_:500 in 2188) [ClassicSimilarity], result of:
              0.2518538 = score(doc=2188,freq=6.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.8189283 = fieldWeight in 2188, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2188)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bekanntlich führen Suchmaschinen wie Google &Co. beider Auflistung der Suchergebnisse ein "Ranking" nach "Relevanz" durch, d.h. die Dokumente werden in absteigender Reihenfolge entsprechend ihrer Erfüllung von Relevanzkriterien ausgeben. In Online-Katalogen (OPACs) ist derlei noch nicht allgemein übliche Praxis, doch bietet etwa das im Österreichischen Bibliothekenverbund eingesetzte System Aleph 500 tatsächlich eine solche Ranking-Option an (die im Verbundkatalog auch implementiert ist). Bislang liegen allerdings kaum Informationen zur Funktionsweise dieses Features, insbesondere auch im Hinblick auf eine Hilfestellung für Benutzer, vor. Daher möchten wir mit diesem Beitrag versuchen, den in unserem Verbund bestehenden Informationsstand zum Thema "Relevance Ranking" zu erweitern. Sowohl die Verwendung einer Ranking-Option in OPACs generell als auch die sich unter Aleph 500 konkret bietenden Möglichkeiten sollen im folgenden näher betrachtet werden.
    Object
    Aleph 500
  16. Guidarelli, N.M.: Subject data in the metadata record (2000) 0.06
    0.062317647 = product of:
      0.124635294 = sum of:
        0.124635294 = product of:
          0.24927059 = sum of:
            0.24927059 = weight(_text_:500 in 439) [ClassicSimilarity], result of:
              0.24927059 = score(doc=439,freq=2.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.81052876 = fieldWeight in 439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.09375 = fieldNorm(doc=439)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Library collections, acquisitions and technical services. 24(2000) no.x, S.499-500
  17. Link, C.: Besserwisser : Am Online-Lexikon Wikipedia mit über 100 000 Artikeln kann jeder mitarbeiten (2004) 0.06
    0.06082304 = product of:
      0.12164608 = sum of:
        0.12164608 = sum of:
          0.0830902 = weight(_text_:500 in 5936) [ClassicSimilarity], result of:
            0.0830902 = score(doc=5936,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.27017626 = fieldWeight in 5936, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.03125 = fieldNorm(doc=5936)
          0.03855587 = weight(_text_:22 in 5936) [ClassicSimilarity], result of:
            0.03855587 = score(doc=5936,freq=4.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.21886435 = fieldWeight in 5936, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=5936)
      0.5 = coord(1/2)
    
    Content
    "Der Musiker und Produzent Dieter Bohlen wurde als Dieter Günther Bohlen am 7. Februar 1954 in Oldenburg geboren. Die Ruine Steinschloss ist die höchstgelegene Burg-Ruine in der österreichischen Steiermark. Dieses und anderes Wissen bietet die Online-Enzyklopädie www.wikipedia.de. Das besondere daran: Die mehr als 100.000 deutschsprachigen Artikel stammen nicht aus einer Lexikon-Redaktion. Denn jeder kann bei Wikipedia mitarbeiten. Tausende Autoren schreiben und recherchieren an der Wissensdatenbank - ohne Lohn und mit dem Ziel, irgendwann einmal mit dem Brockhaus konkurrieren zu können. Dabei sind die Texte mit Quellenangabe frei verfügbar. Knapp 500 Artikel kommen nach Angaben des Projektsprechers Arne Klempert täglich neu hinzu. "Die Qualität ist dabei sehr unterschiedlich, sagt Klempert. Manchmal handelt es sich um Einzeiler, die gerade noch so als Artikel durchgehen." Andererseits gebe es aber auch eine Reihe exzellenter Beiträge. - Jeder kann jeden Text verbessern - Die Wikipedianer, so nennen sich die Aktiven bei Wikipedia selbst, verfahren mit den Texten anarchisch: Jeder kann jeden Text verbessern, Passagen hinzufügen oder löschen. Da ist Vandalismus Tür und Tor geöffnet, möchte man meinen. Doch die Störer verlieren bei der Online-Enzyklopädie schnell die Lust, sagt Klempert. Alle Versionen eines Artikels sind jederzeit abrufbar, nichts geht für immer verloren. Rund 4000 registrierte und ungezählte nicht-registrierte Autoren hüten den Wissensschatz Wikipedia und stellen ihre eigenen Kenntnisse zur Verfügung, um das Lexikon weiterzuentwickeln. Viele haben Spaß daran, ihr Wissen zu teilen und durch die Verbesserungen der anderen Autoren lernt man selbst wieder etwas dazu", beschreibt Klempert das Motiv, ein Wikipedianer zu sein. Die Idee zu Wikipedia hatte der US-Amerikaner Jimmy Wales. Im Januar 2001 startete zunächst eine englischsprachige Version der Online-Enzyklopädie, bereits im Mai des gleichen Jahres entstand die deutsche Ausgabe. Unterdessen List die Online-Enzyklopädie in rund 80 Sprachen verfügbar, darunter Esperanto und Plattdeutsch. Die englische Version ist derzeit die größte, gefolgt von der deutschen Wikipedia. Die Serverfarm in Florida wird von Wales' Stiftung Wikimedia getragen. Der Brockhaus-Verlag, der im kommenden Jahr 200 Jahre alt wird, sieht die Konkurrenz aus dem Internet gelassen. Brockhaus-Sprecher Klaus Holoch glaubt nicht, dass Wikipedia einmal den Brockhaus ersetzen kann. "Die Brockhaus-Enzyklopädie bietet geprüftes Wissen, auf das man sich hundertprozentig verlassen kann.""
    Date
    3. 5.1997 8:44:22
    22. 8.2004 10:07:39
  18. Scheuerl, R.: ¬Das neue Verbundmodell des Bibliotheksverbundes Bayern : Ein Erfolgsmodell? (2005) 0.06
    0.058753643 = product of:
      0.11750729 = sum of:
        0.11750729 = product of:
          0.23501457 = sum of:
            0.23501457 = weight(_text_:500 in 2166) [ClassicSimilarity], result of:
              0.23501457 = score(doc=2166,freq=4.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.76417387 = fieldWeight in 2166, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2166)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am 1. Juli 2004 nahm der Bibliotheksverbund Bayern ein neues Verbundsystem auf Basis von Aleph 500 in Betrieb. Er verabschiedete sich damit von der rund zwanzig Jahre alten Eigenentwicklung BVB-KAT und setzt fortan auf ein Standardprodukt, das bereits bei anderen Verbünden im Einsatz ist. Die durch die bisherige Insellösung bedingte Isolierung war das Hauptmotiv des Wechsels; auch war die Weiterentwicklung des Mainframe-Systems BVB-KAT zunehmend an Grenzen gestoßen. Mit dem Entschluss, ein neues Verbundsystem einzuführen, wurde zugleich das bisherige Verbundmodell auf den Prüfstand gehoben.
    Object
    Aleph 500
  19. Hauer, M.: dandelon.com: 81.000 Anfragen pro Monat : 5. Benutzertreffen intelligentCAPTURE und dandelon.com in Neustadt/Weinstraße, Mai 2008 (2008) 0.06
    0.05517666 = product of:
      0.11035332 = sum of:
        0.11035332 = sum of:
          0.0830902 = weight(_text_:500 in 1941) [ClassicSimilarity], result of:
            0.0830902 = score(doc=1941,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.27017626 = fieldWeight in 1941, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.03125 = fieldNorm(doc=1941)
          0.027263116 = weight(_text_:22 in 1941) [ClassicSimilarity], result of:
            0.027263116 = score(doc=1941,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.15476047 = fieldWeight in 1941, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1941)
      0.5 = coord(1/2)
    
    Abstract
    Die letzten zwolf Monate war fur AGI-IMC mit Digitalisierungsprojekten in Kiel, Hamburg, Braunschweig, Hannover, Gottingen, Mainz und Berlin gut gefullt, 172.000 Titel liefen durch die drei Stationen von .intelligentCAPTURE mobile_. Der TagesrekordTagesrekord von 624 Titeln pro Tag und Person (Joel Gecelter) wurde in Kiel aufgestellt (ca. zwölf Stunden), mehrmals danach aber auch über 500 Titel pro Tag erreicht - und dies alles inklusive Übernahme der bibliografischen Angaben, Dublettenkontrolle, NER-Tagging, Scanning, OCR, maschinelle Indexierung, Qualitätskontrolle, Export ins Bibliothekssystem und in dandelon. com. Ansonsten stand die Konsolidierung von Software-Entwicklung und Server-Infrastruktur im Vordergrund. Die systematische Software-Entwicklung von Dipl.-Inf. Wolfgang Herder überzeugte. Das Suchprogramm von dandelon.com wurde komplett umgeschrieben, um der hohen Last besser Stand zu halten.
    Date
    22. 6.2008 17:09:23
  20. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.06
    0.05517666 = product of:
      0.11035332 = sum of:
        0.11035332 = sum of:
          0.0830902 = weight(_text_:500 in 2403) [ClassicSimilarity], result of:
            0.0830902 = score(doc=2403,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.27017626 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
          0.027263116 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
            0.027263116 = score(doc=2403,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.15476047 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
      0.5 = coord(1/2)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22

Languages

Types

Themes