Search (692 results, page 1 of 35)

  • × language_ss:"d"
  • × year_i:[2000 TO 2010}
  1. ws: Universalwissen für jedermann : das neue Bertelsmann-Lexikon setzt vermehrt auf Online-Anbindung (2002) 0.11
    0.11035332 = product of:
      0.22070664 = sum of:
        0.22070664 = sum of:
          0.1661804 = weight(_text_:500 in 971) [ClassicSimilarity], result of:
            0.1661804 = score(doc=971,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.5403525 = fieldWeight in 971, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.0625 = fieldNorm(doc=971)
          0.054526232 = weight(_text_:22 in 971) [ClassicSimilarity], result of:
            0.054526232 = score(doc=971,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.30952093 = fieldWeight in 971, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=971)
      0.5 = coord(1/2)
    
    Content
    115.000 Stichwörter mit mehr als 3.000 Sonderartikeln - Timeline mit ca. 10.000 Einträgen - Atlas mit 500 Landkarten und 192 Länderinfos - Ca. 80 Diashows zu Geographie, Kultur und Geschichte - Ca 10.000 Fotos und 39 videos, 40 Animationen aus Wissenschaft, Technik und Kulturgeschichte - Ca. 20.000 Links zu Web-Seiten
    Source
    CD-Info. 2002, H.1, S.22
  2. Seiffert, F.: Aleph 500 als neues Verbundsystem (2000) 0.11
    0.107937336 = product of:
      0.21587467 = sum of:
        0.21587467 = product of:
          0.43174934 = sum of:
            0.43174934 = weight(_text_:500 in 4814) [ClassicSimilarity], result of:
              0.43174934 = score(doc=4814,freq=6.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                1.403877 = fieldWeight in 4814, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4814)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Seit dem vergangenen Jahr führt das HBZ Aleph 500 als neue Verbundsoftware ein. Historie und aktueller Stand (27.3.2000) werden dargestellt
    Object
    Aleph 500
  3. Praetorius, S.: ALEPH 500 als lokales System in der Universitätsbibliothek Duisburg (2001) 0.10
    0.10281888 = product of:
      0.20563775 = sum of:
        0.20563775 = product of:
          0.4112755 = sum of:
            0.4112755 = weight(_text_:500 in 6303) [ClassicSimilarity], result of:
              0.4112755 = score(doc=6303,freq=4.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                1.3373042 = fieldWeight in 6303, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6303)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Object
    Aleph 500
  4. ¬Der Bayerische Verbund setzt auf Aleph 500 und SFX (2003) 0.10
    0.10281888 = product of:
      0.20563775 = sum of:
        0.20563775 = product of:
          0.4112755 = sum of:
            0.4112755 = weight(_text_:500 in 1435) [ClassicSimilarity], result of:
              0.4112755 = score(doc=1435,freq=4.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                1.3373042 = fieldWeight in 1435, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1435)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Object
    Aleph 500
  5. Goldschmidt, R.: Mehrwertdienste für den Zugang zur globalen Information : Optimierung der Benutzerversorgung. Bericht von der Bielefeld 2000 Conference, 8.-10.2.2000 (2000) 0.10
    0.09655915 = product of:
      0.1931183 = sum of:
        0.1931183 = sum of:
          0.14540786 = weight(_text_:500 in 4955) [ClassicSimilarity], result of:
            0.14540786 = score(doc=4955,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.47280845 = fieldWeight in 4955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4955)
          0.047710452 = weight(_text_:22 in 4955) [ClassicSimilarity], result of:
            0.047710452 = score(doc=4955,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.2708308 = fieldWeight in 4955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4955)
      0.5 = coord(1/2)
    
    Abstract
    Zum nunmehr fünften Mal veranstaltete die Bibliothek der Universität Bielefeld gemeinsam mit dem British Council Köln und der Buchhändler-Vereinigung GmbH Frankfurt an Main das internationale Spitzentreffen von Verlegern, Bibliothekaren und Agenturen. An den Vorträgen und Diskussionen nahmen in diesem Jahr weit über 500 Teilnehmer aus 22 Ländern teil. Mehr als 30 Aussteller präsentierten sich mit Ständen im vorraum der Stadthalle sowie mit Vorführungen und Firmenvorträgen. Ziel der Veranstalter war es auch dieses Mal, Verlegern, Händlern und Bibliothekaren ein Forum für nationale und internationale Kooperation bei der elektronischen Vermittlung von Fachinformation zu bieten
  6. Oberhauser, O.: Implementierung und Parametrisierung klassifikatorischer Recherchekomponenten im OPAC (2005) 0.07
    0.07489106 = product of:
      0.14978212 = sum of:
        0.14978212 = sum of:
          0.1259269 = weight(_text_:500 in 3353) [ClassicSimilarity], result of:
            0.1259269 = score(doc=3353,freq=6.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.40946415 = fieldWeight in 3353, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3353)
          0.023855226 = weight(_text_:22 in 3353) [ClassicSimilarity], result of:
            0.023855226 = score(doc=3353,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.1354154 = fieldWeight in 3353, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3353)
      0.5 = coord(1/2)
    
    Abstract
    Das in den letzten Jahren wiedererwachte Interesse an der klassifikatorischen Erschließung und Recherche hat sich allem Anschein nach noch nicht ausreichend bis zu den Herstellern integrierter Bibliothekssysteme herumgesprochen. Wie wäre es sonst zu erklären, dass im OPAC-Modul eines führenden Systems wie Aleph 500 so gut wie keine Features für klassifikationsbasierte Recherchen zu erblicken sind? Tatsächlich finden wir heute einen im Vergleich zum einstigen System Bibos kaum veränderten Zustand vor: Notationen eines oder mehrerer Klassifikationssysteme können in einer durch MAB dafür bestimmten Kategorie (700, nebst Indikatoren) katalogisiert und dann recherchiert bzw. angezeigt werden. Doch welcher Benutzer weiß schon, was diese Notationen im einzelnen bedeuten? Wer macht sich die Mühe, dies selbst herauszufinden, um dann danach zu recherchieren? Hier liegt im wesentlich dasselbe Problem vor, das schon dem systematischen Zettelkatalog anhaftete und ihn zu einem zwar mühevoll erstellten, aber wenig genutzten Rechercheinstrument machte, das nur dann (zwangsläufig) angenommen wurde, wenn ein verbaler Sachkatalog fehlte. Nun könnte eingewandt werden, dass im Vergleich zu früher unter Aleph 500 wenigstens das Aufblättern von Indizes möglich sei, sodass im OPAC ein Index für die vergebenen Notationen angeboten werden kann (bzw. mehrere solche Indizes bei Verwendung von mehr als nur einem Klassifikationssystem). Gewiss, doch was bringt dem Uneingeweihten das Aufblättern des Notationsindex - außer einer alphabetischen Liste von kryptischen Codes? Weiter könnte man einwenden, dass es im Aleph-500-OPAC die so genannten Suchdienste ("services") gibt, mithilfe derer von bestimmten Elementen einer Vollanzeige hypertextuell weiternavigiert werden kann. Richtig, doch damit kann man bloß wiederum den Index aufblättern oder alle anderen Werke anzeigen lassen, die dieselbe Notationen - also einen Code, dessen Bedeutung meist unbekannt ist - aufweisen. Wie populär mag dieses Feature beim Publikum wohl sein? Ein anderer Einwand wäre der Hinweis auf das inzwischen vom Hersteller angebotene Thesaurus-Modul, das vermutlich auch für Klassifikationssysteme eingesetzt werden könnte. Doch wie viele Bibliotheken unseres Verbundes waren bisher bereit, für dieses Modul, das man eigentlich als Bestandteil des Basissystems erwarten könnte, gesondert zu bezahlen? Schließlich mag man noch einwenden, dass es im Gegensatz zur Bibos-Zeit nun die Möglichkeit gibt, Systematiken und Klassifikationen als Normdateien zu implementieren und diese beim Retrieval für verbale Einstiege in die klassifikatorische Recherche oder zumindest für die Veranschaulichung der Klassenbenennungen in der Vollanzeige zu nutzen. Korrekt - dies ist möglich und wurde sogar einst für die MSC (Mathematics Subject Classification, auch bekannt als "AMS-Klassifikation") versucht. Dieses Projekt, das noch unter der Systemversion 11.5 begonnen wurde, geriet jedoch nach einiger Zeit ins Stocken und fand bedauerlicherweise nie seinen Weg in die folgende Version (14.2). Mag auch zu hoffen sein, dass es unter der neuen Version 16 wieder weitergeführt werden kann, so weist dieses Beispiel doch auf die grundsätzliche Problematik des Normdatei-Ansatzes (zusätzlicher Aufwand, Kontinuität) hin. Zudem lohnt sich die Implementierung einer eigenen Normdatei 4 wohl nur bei einem größeren bzw. komplexen Klassifikationssystem, wogegen man im Falle kleinerer Systematiken kaum daran denken würde.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.22-37
  7. Hoffmann, H.W.: Aleph - ein Meilenstein auf dem Weg in die Zukunft (2000) 0.07
    0.07270393 = product of:
      0.14540786 = sum of:
        0.14540786 = product of:
          0.2908157 = sum of:
            0.2908157 = weight(_text_:500 in 4192) [ClassicSimilarity], result of:
              0.2908157 = score(doc=4192,freq=2.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.9456169 = fieldWeight in 4192, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4192)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Object
    Aleph 500
  8. ALEPH 500 mit multilingualem Thesaurus (2003) 0.07
    0.069673255 = product of:
      0.13934651 = sum of:
        0.13934651 = product of:
          0.27869302 = sum of:
            0.27869302 = weight(_text_:500 in 1639) [ClassicSimilarity], result of:
              0.27869302 = score(doc=1639,freq=10.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.90619874 = fieldWeight in 1639, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1639)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
    Object
    Aleph 500
  9. Küssow, J.: ALEPH 500 mit multilingualem Thesaurus (2003) 0.07
    0.069673255 = product of:
      0.13934651 = sum of:
        0.13934651 = product of:
          0.27869302 = sum of:
            0.27869302 = weight(_text_:500 in 1640) [ClassicSimilarity], result of:
              0.27869302 = score(doc=1640,freq=10.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.90619874 = fieldWeight in 1640, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1640)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
    Object
    Aleph 500
  10. Bayer, M.: ¬Die Gier der Bits und Bytes auf Gutenberg : Elektronisches Publizieren, Drucken und das papierlose E-Book melden sich in Frankfurt zu Wort (2000) 0.07
    0.06897083 = product of:
      0.13794166 = sum of:
        0.13794166 = sum of:
          0.103862755 = weight(_text_:500 in 5391) [ClassicSimilarity], result of:
            0.103862755 = score(doc=5391,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.33772033 = fieldWeight in 5391, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5391)
          0.034078896 = weight(_text_:22 in 5391) [ClassicSimilarity], result of:
            0.034078896 = score(doc=5391,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.19345059 = fieldWeight in 5391, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5391)
      0.5 = coord(1/2)
    
    Abstract
    Eines ist gleich geblieben an der neuen Luxus-Variante des E-Book: der Einband aus Leder, der wenigsten ein bisschen an den guten, alten Papier-Schinken erinnert. Dazwischen verbirgt sich jede Menge Technik. Neu ist vor allem der hoch auflösende Bildschirm: Er bietet 32 000 Farben und reagiert auf Berührung; somit lassen sich handschriftliche Beinerkungen in die Bücher schreiben. Das Gerät mit der Bezeichnung REB 1200 soll den Softbook Reader ablösen. Es wiegt 940 Gramm und ist von Haus aus mit 8 MB Speicher ausgestattet. Darauf passen etwa 3000 farbige Seiten. Wer mehr Lesestoff braucht, kann eine 128 MB Steckkarte zusätzlich einstecken. Zu dem Gerät gehört ein Modern, mit dem sich Bücher auch ohne Internet-Anbindung laden lassen, und eine Ethernet-Netzwerkkarte für den schnellen Kontakt zum Computer. Kostenpunkt in den USA - 700 US-Dollar. Der kleinere REB 1100 arbeitet ohne Farbe. Daher passen auf den gleichen Speicherplatz 8000 Seiten. Die Hardware wiegt noch 500 Gramm und damit 130 Gramm weniger als sein Vorgänger, das Rocket E-Book. Sie verfügt nun ebenfalls über ein Modem. Zur Ausstattung gehört ferner ein USB-Port und eine InfrarotSchnittstelle. Kosten: 300 Dollar. Hergestellt werden beide Geräte von Thomson Multimedia. Gemstar kümmert sich nun ausschließlich um die Geschäfte mit den Verlagen
    Date
    3. 5.1997 8:44:22
  11. Hoffmann, H.W.: Systemwechsel im Hochschulbibliothekszentrum (2000) 0.06
    0.06296345 = product of:
      0.1259269 = sum of:
        0.1259269 = product of:
          0.2518538 = sum of:
            0.2518538 = weight(_text_:500 in 5423) [ClassicSimilarity], result of:
              0.2518538 = score(doc=5423,freq=6.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.8189283 = fieldWeight in 5423, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5423)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am 4. April 2000 wurde das System Aleph 500 der Firma ExLibris als neues Verbundsystem im Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen in Betrieb genommen. Die Planungen für die Ablösung der alten Software BIS der Firma DABIS gehen zurück bis in das Jahr 1993. Die Entscheidung für den Einsatz von Aleph fiel im Frühjahr 1999. Der Zeitrahmen von der Entscheidung bis zur Systerneinführung betrug weniger als 12 Monate. Während dieser Zeit mussten mehr als 60 Millionen Datensätze von BIS nach Aleph migriert und ca. 1000 Bibliothekarinnen und Bibliothekare in der Bedienung des neuen Systems geschult werden. Aleph 500 dient dem Hochschulbibliothekszentrum als Plattform für eine qualitative und quantitative Ausweitung seiner Dienstleistungen. Angestrebt ist eine Vernetzung mit lokalen Bibliothekssystemen, mit Normdatelen und mit anderen Verbundsystemen
    Object
    Aleph 500
  12. Oberhauser, O.; Labner, J.: Relevance Ranking in Online-Katalogen : Informationsstand und Perspektiven (2003) 0.06
    0.06296345 = product of:
      0.1259269 = sum of:
        0.1259269 = product of:
          0.2518538 = sum of:
            0.2518538 = weight(_text_:500 in 2188) [ClassicSimilarity], result of:
              0.2518538 = score(doc=2188,freq=6.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.8189283 = fieldWeight in 2188, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2188)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bekanntlich führen Suchmaschinen wie Google &Co. beider Auflistung der Suchergebnisse ein "Ranking" nach "Relevanz" durch, d.h. die Dokumente werden in absteigender Reihenfolge entsprechend ihrer Erfüllung von Relevanzkriterien ausgeben. In Online-Katalogen (OPACs) ist derlei noch nicht allgemein übliche Praxis, doch bietet etwa das im Österreichischen Bibliothekenverbund eingesetzte System Aleph 500 tatsächlich eine solche Ranking-Option an (die im Verbundkatalog auch implementiert ist). Bislang liegen allerdings kaum Informationen zur Funktionsweise dieses Features, insbesondere auch im Hinblick auf eine Hilfestellung für Benutzer, vor. Daher möchten wir mit diesem Beitrag versuchen, den in unserem Verbund bestehenden Informationsstand zum Thema "Relevance Ranking" zu erweitern. Sowohl die Verwendung einer Ranking-Option in OPACs generell als auch die sich unter Aleph 500 konkret bietenden Möglichkeiten sollen im folgenden näher betrachtet werden.
    Object
    Aleph 500
  13. Link, C.: Besserwisser : Am Online-Lexikon Wikipedia mit über 100 000 Artikeln kann jeder mitarbeiten (2004) 0.06
    0.06082304 = product of:
      0.12164608 = sum of:
        0.12164608 = sum of:
          0.0830902 = weight(_text_:500 in 5936) [ClassicSimilarity], result of:
            0.0830902 = score(doc=5936,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.27017626 = fieldWeight in 5936, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.03125 = fieldNorm(doc=5936)
          0.03855587 = weight(_text_:22 in 5936) [ClassicSimilarity], result of:
            0.03855587 = score(doc=5936,freq=4.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.21886435 = fieldWeight in 5936, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=5936)
      0.5 = coord(1/2)
    
    Content
    "Der Musiker und Produzent Dieter Bohlen wurde als Dieter Günther Bohlen am 7. Februar 1954 in Oldenburg geboren. Die Ruine Steinschloss ist die höchstgelegene Burg-Ruine in der österreichischen Steiermark. Dieses und anderes Wissen bietet die Online-Enzyklopädie www.wikipedia.de. Das besondere daran: Die mehr als 100.000 deutschsprachigen Artikel stammen nicht aus einer Lexikon-Redaktion. Denn jeder kann bei Wikipedia mitarbeiten. Tausende Autoren schreiben und recherchieren an der Wissensdatenbank - ohne Lohn und mit dem Ziel, irgendwann einmal mit dem Brockhaus konkurrieren zu können. Dabei sind die Texte mit Quellenangabe frei verfügbar. Knapp 500 Artikel kommen nach Angaben des Projektsprechers Arne Klempert täglich neu hinzu. "Die Qualität ist dabei sehr unterschiedlich, sagt Klempert. Manchmal handelt es sich um Einzeiler, die gerade noch so als Artikel durchgehen." Andererseits gebe es aber auch eine Reihe exzellenter Beiträge. - Jeder kann jeden Text verbessern - Die Wikipedianer, so nennen sich die Aktiven bei Wikipedia selbst, verfahren mit den Texten anarchisch: Jeder kann jeden Text verbessern, Passagen hinzufügen oder löschen. Da ist Vandalismus Tür und Tor geöffnet, möchte man meinen. Doch die Störer verlieren bei der Online-Enzyklopädie schnell die Lust, sagt Klempert. Alle Versionen eines Artikels sind jederzeit abrufbar, nichts geht für immer verloren. Rund 4000 registrierte und ungezählte nicht-registrierte Autoren hüten den Wissensschatz Wikipedia und stellen ihre eigenen Kenntnisse zur Verfügung, um das Lexikon weiterzuentwickeln. Viele haben Spaß daran, ihr Wissen zu teilen und durch die Verbesserungen der anderen Autoren lernt man selbst wieder etwas dazu", beschreibt Klempert das Motiv, ein Wikipedianer zu sein. Die Idee zu Wikipedia hatte der US-Amerikaner Jimmy Wales. Im Januar 2001 startete zunächst eine englischsprachige Version der Online-Enzyklopädie, bereits im Mai des gleichen Jahres entstand die deutsche Ausgabe. Unterdessen List die Online-Enzyklopädie in rund 80 Sprachen verfügbar, darunter Esperanto und Plattdeutsch. Die englische Version ist derzeit die größte, gefolgt von der deutschen Wikipedia. Die Serverfarm in Florida wird von Wales' Stiftung Wikimedia getragen. Der Brockhaus-Verlag, der im kommenden Jahr 200 Jahre alt wird, sieht die Konkurrenz aus dem Internet gelassen. Brockhaus-Sprecher Klaus Holoch glaubt nicht, dass Wikipedia einmal den Brockhaus ersetzen kann. "Die Brockhaus-Enzyklopädie bietet geprüftes Wissen, auf das man sich hundertprozentig verlassen kann.""
    Date
    3. 5.1997 8:44:22
    22. 8.2004 10:07:39
  14. Scheuerl, R.: ¬Das neue Verbundmodell des Bibliotheksverbundes Bayern : Ein Erfolgsmodell? (2005) 0.06
    0.058753643 = product of:
      0.11750729 = sum of:
        0.11750729 = product of:
          0.23501457 = sum of:
            0.23501457 = weight(_text_:500 in 2166) [ClassicSimilarity], result of:
              0.23501457 = score(doc=2166,freq=4.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.76417387 = fieldWeight in 2166, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2166)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am 1. Juli 2004 nahm der Bibliotheksverbund Bayern ein neues Verbundsystem auf Basis von Aleph 500 in Betrieb. Er verabschiedete sich damit von der rund zwanzig Jahre alten Eigenentwicklung BVB-KAT und setzt fortan auf ein Standardprodukt, das bereits bei anderen Verbünden im Einsatz ist. Die durch die bisherige Insellösung bedingte Isolierung war das Hauptmotiv des Wechsels; auch war die Weiterentwicklung des Mainframe-Systems BVB-KAT zunehmend an Grenzen gestoßen. Mit dem Entschluss, ein neues Verbundsystem einzuführen, wurde zugleich das bisherige Verbundmodell auf den Prüfstand gehoben.
    Object
    Aleph 500
  15. Hauer, M.: dandelon.com: 81.000 Anfragen pro Monat : 5. Benutzertreffen intelligentCAPTURE und dandelon.com in Neustadt/Weinstraße, Mai 2008 (2008) 0.06
    0.05517666 = product of:
      0.11035332 = sum of:
        0.11035332 = sum of:
          0.0830902 = weight(_text_:500 in 1941) [ClassicSimilarity], result of:
            0.0830902 = score(doc=1941,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.27017626 = fieldWeight in 1941, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.03125 = fieldNorm(doc=1941)
          0.027263116 = weight(_text_:22 in 1941) [ClassicSimilarity], result of:
            0.027263116 = score(doc=1941,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.15476047 = fieldWeight in 1941, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1941)
      0.5 = coord(1/2)
    
    Abstract
    Die letzten zwolf Monate war fur AGI-IMC mit Digitalisierungsprojekten in Kiel, Hamburg, Braunschweig, Hannover, Gottingen, Mainz und Berlin gut gefullt, 172.000 Titel liefen durch die drei Stationen von .intelligentCAPTURE mobile_. Der TagesrekordTagesrekord von 624 Titeln pro Tag und Person (Joel Gecelter) wurde in Kiel aufgestellt (ca. zwölf Stunden), mehrmals danach aber auch über 500 Titel pro Tag erreicht - und dies alles inklusive Übernahme der bibliografischen Angaben, Dublettenkontrolle, NER-Tagging, Scanning, OCR, maschinelle Indexierung, Qualitätskontrolle, Export ins Bibliothekssystem und in dandelon. com. Ansonsten stand die Konsolidierung von Software-Entwicklung und Server-Infrastruktur im Vordergrund. Die systematische Software-Entwicklung von Dipl.-Inf. Wolfgang Herder überzeugte. Das Suchprogramm von dandelon.com wurde komplett umgeschrieben, um der hohen Last besser Stand zu halten.
    Date
    22. 6.2008 17:09:23
  16. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.06
    0.05517666 = product of:
      0.11035332 = sum of:
        0.11035332 = sum of:
          0.0830902 = weight(_text_:500 in 2403) [ClassicSimilarity], result of:
            0.0830902 = score(doc=2403,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.27017626 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
          0.027263116 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
            0.027263116 = score(doc=2403,freq=2.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.15476047 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
      0.5 = coord(1/2)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22
  17. Semantische Suche über 500 Millionen Web-Dokumente (2009) 0.05
    0.053968668 = product of:
      0.107937336 = sum of:
        0.107937336 = product of:
          0.21587467 = sum of:
            0.21587467 = weight(_text_:500 in 2434) [ClassicSimilarity], result of:
              0.21587467 = score(doc=2434,freq=6.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.7019385 = fieldWeight in 2434, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert, berichtet Technology Review in seiner Online-Ausgabe. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbstständig ermittelt.""
    Source
    http://www.heise.de/newsticker/Semantische-Suche-ueber-500-Millionen-Web-Dokumente--/meldung/140630
  18. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.05
    0.053266257 = product of:
      0.106532514 = sum of:
        0.106532514 = product of:
          0.31959754 = sum of:
            0.31959754 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.31959754 = score(doc=140,freq=2.0), product of:
                0.4264955 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.050306078 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  19. Sonnberger, H.: Digitale Zukunft der Vergangenheit : Multimediales Museum "Europeana" - EU stellt kulturellen Reichtum ins Netz (2008) 0.05
    0.053220157 = product of:
      0.10644031 = sum of:
        0.10644031 = sum of:
          0.07270393 = weight(_text_:500 in 2969) [ClassicSimilarity], result of:
            0.07270393 = score(doc=2969,freq=2.0), product of:
              0.3075407 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.050306078 = queryNorm
              0.23640423 = fieldWeight in 2969, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2969)
          0.033736385 = weight(_text_:22 in 2969) [ClassicSimilarity], result of:
            0.033736385 = score(doc=2969,freq=4.0), product of:
              0.17616332 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050306078 = queryNorm
              0.19150631 = fieldWeight in 2969, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2969)
      0.5 = coord(1/2)
    
    Content
    "Wir können und dürfen den Ländern nicht bei der Digitalisierung helfen, das ist ein ureigener kulturpolitischer Bereich", sagt Kommissionssprecher Martin Selmayr. Die EU will in den kommenden zwei Jahren aber weitere 119 Millionen Euro bereitstellen, um die Erforschung und Entwicklung von Technologien zur Digitalisierung voranzubringen. Die Slowakei habe mit dem Geld etwa einen früheren Militärkomplex mit drei Robotern ausgestattet, die Buchseiten automatisch einlesen. Die digitalisierten Objekte werden von einem Team aus Archivaren, Bibliothekaren und IT-Spezialisten in der Königlichen Bibliothek in Den Haag geordnet, vernetzt und auf Europeana bereitgestellt. Was auf die Plattform gelangt, entscheiden die Museen. Sie stehen auch dafür gerade, dass das Urheberrecht beachtet wird. "Wir müssen einen entscheidenden Schritt unternehmen, um ein Schwarzes Loch im 20. Jahrhundert zu vermeiden, so Europeana-Direktorin Jill Cousin. Es müssten Lösungen gefunden werden, um etwa auch Filme aus den 30er Jahren abspielen zu können. Für den Unterhalt des Portals zahlt die Kommission pro Jahr zwei Millionen Euro, die Mitgliedsländer schießen insgesamt noch einmal 500 000 Euro hinzu. Bisher ist freilich nur ein Prozent aller europäischen Kulturgüter digitali- siert. Um die Zahl von zehn Millionen Werken bis 2010 zu erreichen, müssen die Staaten nach Schätzung der Kommission weitere 350 Millionen Euro in die Hand nehmen. Dass das Internetarchiv eines Tages Europas Museen die Besucher abspenstig machen könnte, glauben die Verantwortlichen nicht. "Museumsfans können auf Europeana herausfinden, wo ihre liebsten Gemälde hängen sagt Portal-Sprecher John Purday. Eine niederländische Studie habe gezeigt, dass solche Angebote das Interesse an Museen im Gegenteil eher wecken. Auch die Vermutung, dass Europeana ein Rivale der digitalen Büchersammlung von Google werden könne, weist die Kommission weit von sich. "Europeana ist keine europäische Antwort auf ein kommerzielles Projekt", sagt Selmayr. "Genau wie ein Buchladen und eine Bibliothek nicht in Konkurrenz stehen." Google biete eine fortgeschrittene Suchmaschine für Bücher, Europeana sei hingegen ein multimediales Museum."
    Date
    3. 5.1997 8:44:22
    22. 2.2009 19:10:23
  20. Hoffmann, H.-W.: Systemwechsel vor der Jahrtausendwende : Zum Stand der Entwicklung einer neuen Bibliotheksverbundsoftware (2000) 0.05
    0.051931378 = product of:
      0.103862755 = sum of:
        0.103862755 = product of:
          0.20772551 = sum of:
            0.20772551 = weight(_text_:500 in 4349) [ClassicSimilarity], result of:
              0.20772551 = score(doc=4349,freq=2.0), product of:
                0.3075407 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.050306078 = queryNorm
                0.67544067 = fieldWeight in 4349, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4349)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Object
    Aleph 500

Types

  • a 585
  • m 80
  • el 18
  • s 18
  • x 12
  • i 8
  • b 2
  • n 1
  • r 1
  • More… Less…

Themes

Subjects

Classifications