Search (25 results, page 1 of 2)

  • × author_ss:"Oberhauser, O."
  1. Oberhauser, O.: ¬Das Auskunftsinterview im Kontext des Online Information Retrieval : ein Überblick aus bibliothekarischer Sicht (1987) 0.01
    0.009711651 = product of:
      0.13596311 = sum of:
        0.13596311 = weight(_text_:abhandlungen in 252) [ClassicSimilarity], result of:
          0.13596311 = score(doc=252,freq=2.0), product of:
            0.23908296 = queryWeight, product of:
              7.3530817 = idf(docFreq=76, maxDocs=44218)
              0.03251466 = queryNorm
            0.5686859 = fieldWeight in 252, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3530817 = idf(docFreq=76, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
      0.071428575 = coord(1/14)
    
    Abstract
    Nicht nur das traditionelle bibliothekarische Auskunftsinterview, sondern auch die Befragung bzw. Beratung, die im Zusammenhang mit der bibliothekarischen Dienstleistung des Online Information Retrieval zwischen Rechercheur und Endbenutzer abläuft, ist in der Literatur vielfach praxisbezogener, aber auch theoretischer Abhandlungen. Der gesamte Interviewprozeß läßt sich in 4 Phasen gliedern, deren zweite, das der Recherche vorausgehende 'Presearch-Interview' im engeren Sinn, für das Gelingen der Online-Suche besonders wichtig ist. Die dabei inhaltlich und formal wesentlichen Aspekte können in Form praktischer Gebrauchsanweisungen aufgelistet werden. Weiter sind Interview-Stil und -Verhalten von Bedeutung; auftretende Kommunikationsbarrieren können durch Einsatz nichtverbaler Kommunikationstechniken und einfühlsames Beraterverhalten überwunden werden. Eine neue Variante des Auskunftsinterviews ist das sog. 'Presearch-Counseling', das bei der Beratung von Bibliotheksbenutzern, die endbenutzergerechte Online-Retrievalsysteme verwenden, erforderlich sind
  2. Oberhauser, O.: Automatisches Klassifizieren : Verfahren zur Erschließung elektronischer Dokumente (2004) 0.01
    0.008406137 = product of:
      0.058842957 = sum of:
        0.039575968 = weight(_text_:allgemeine in 2487) [ClassicSimilarity], result of:
          0.039575968 = score(doc=2487,freq=2.0), product of:
            0.17063688 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03251466 = queryNorm
            0.23193093 = fieldWeight in 2487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03125 = fieldNorm(doc=2487)
        0.019266991 = weight(_text_:zur in 2487) [ClassicSimilarity], result of:
          0.019266991 = score(doc=2487,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.19244531 = fieldWeight in 2487, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=2487)
      0.14285715 = coord(2/14)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  3. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.01
    0.0052538356 = product of:
      0.03677685 = sum of:
        0.02473498 = weight(_text_:allgemeine in 38) [ClassicSimilarity], result of:
          0.02473498 = score(doc=38,freq=2.0), product of:
            0.17063688 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03251466 = queryNorm
            0.14495683 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
        0.012041869 = weight(_text_:zur in 38) [ClassicSimilarity], result of:
          0.012041869 = score(doc=38,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.120278314 = fieldWeight in 38, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
      0.14285715 = coord(2/14)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
    Footnote
    Zum Inhalt Auf einen kurzen einleitenden Abschnitt folgt eine Einführung in die grundlegende Methodik des automatischen Klassifizierens. Oberhauser erklärt hier Begriffe wie Einfach- und Mehrfachklassifizierung, Klassen- und Dokumentzentrierung, und geht danach auf die hauptsächlichen Anwendungen der automatischen Klassifikation von Textdokumenten, maschinelle Lernverfahren und Techniken der Dimensionsreduktion bei der Indexierung ein. Zwei weitere Unterkapitel sind der Erstellung von Klassifikatoren und den Methoden für deren Auswertung gewidmet. Das Kapitel wird abgerundet von einer kurzen Auflistung einiger Softwareprodukte für automatisches Klassifizieren, die sowohl kommerzielle Software, als auch Projekte aus dem Open-Source-Bereich umfasst. Der Hauptteil des Buches ist den großen Projekten zur automatischen Erschließung von Webdokumenten gewidmet, die von OCLC (Scorpion) sowie an den Universitäten Lund (Nordic WAIS/WWW, DESIRE II), Wolverhampton (WWLib-TOS, WWLib-TNG, Old ACE, ACE) und Oldenburg (GERHARD, GERHARD II) durchgeführt worden sind. Der Autor beschreibt hier sehr detailliert - wobei der Detailliertheitsgrad unterschiedlich ist, je nachdem, was aus der Projektdokumentation geschlossen werden kann - die jeweilige Zielsetzung des Projektes, die verwendete Klassifikation, die methodische Vorgehensweise sowie die Evaluierungsmethoden und -ergebnisse. Sofern Querverweise zu anderen Projekten bestehen, werden auch diese besprochen. Der Verfasser geht hier sehr genau auf wichtige Aspekte wie Vokabularbildung, Textaufbereitung und Gewichtung ein, so dass der Leser eine gute Vorstellung von den Ansätzen und der möglichen Weiterentwicklung des Projektes bekommt. In einem weiteren Kapitel wird auf einige kleinere Projekte eingegangen, die dem für Bibliotheken besonders interessanten Thema des automatischen Klassifizierens von Büchern sowie den Bereichen Patentliteratur, Mediendokumentation und dem Einsatz bei Informationsdiensten gewidmet sind. Die Darstellung wird ergänzt von einem Literaturverzeichnis mit über 250 Titeln zu den konkreten Projekten sowie einem Abkürzungs- und einem Abbildungsverzeichnis. In der abschließenden Diskussion der beschriebenen Projekte wird einerseits auf die Bedeutung der einzelnen Projekte für den methodischen Fortschritt eingegangen, andererseits aber auch einiges an Kritik geäußert, v. a. bezüglich der mangelnden Auswertung der Projektergebnisse und des Fehlens an brauchbarer Dokumentation. So waren z. B. die Projektseiten des Projekts GERHARD (www.gerhard.de/) auf den Stand von 1998 eingefroren, zurzeit [11.07.06] sind sie überhaupt nicht mehr erreichbar. Mit einigem Erstaunen stellt Oberhauser auch fest, dass - abgesehen von der fast 15 Jahre alten Untersuchung von Larsen - »keine signifikanten Studien oder Anwendungen aus dem Bibliotheksbereich vorliegen« (S. 139). Wie der Autor aber selbst ergänzend ausführt, dürfte dies daran liegen, dass sich bibliografische Metadaten wegen des geringen Textumfangs sehr schlecht für automatische Klassifikation eignen, und dass - wie frühere Ergebnisse gezeigt haben - das übliche TF/IDF-Verfahren nicht für Katalogisate geeignet ist (ibd.).
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  4. Oberhauser, O.: Von der Magazin- zur Freihandbibliothek : Zur Übernahme der Systematik der TU MÜnchen durch die Universitätsbibliothek der TU Wien (1987) 0.00
    0.0048167477 = product of:
      0.06743447 = sum of:
        0.06743447 = weight(_text_:zur in 6189) [ClassicSimilarity], result of:
          0.06743447 = score(doc=6189,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.6735586 = fieldWeight in 6189, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.109375 = fieldNorm(doc=6189)
      0.071428575 = coord(1/14)
    
  5. Oberhauser, O.: Von der Magazin- zur Freihandbibliothek : Neuklassifizierung der Bestände an der Universitätsbibliothek der Technischen Universität Wien (1988) 0.00
    0.00291939 = product of:
      0.04087146 = sum of:
        0.04087146 = weight(_text_:zur in 5231) [ClassicSimilarity], result of:
          0.04087146 = score(doc=5231,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.40823817 = fieldWeight in 5231, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.09375 = fieldNorm(doc=5231)
      0.071428575 = coord(1/14)
    
  6. Oberhauser, O.; Böllmann, E.: Online information 96 - von der Informationsvermittlung zur Informationsbereitstellung : Bericht über das 20th International Online Information Meeting (London, 3.-5. Dezember 1996) (1997) 0.00
    0.00291939 = product of:
      0.04087146 = sum of:
        0.04087146 = weight(_text_:zur in 6898) [ClassicSimilarity], result of:
          0.04087146 = score(doc=6898,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.40823817 = fieldWeight in 6898, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.09375 = fieldNorm(doc=6898)
      0.071428575 = coord(1/14)
    
  7. Oberhauser, O.; Seidler, W.: Reklassifizierung grösserer fachspezifischer Bibliotheksbestände : Durchführbarkeitsstudie für die Fachbibliothek für Germanistik an der Universität Wien (2000) 0.00
    0.00291939 = product of:
      0.04087146 = sum of:
        0.04087146 = weight(_text_:zur in 4631) [ClassicSimilarity], result of:
          0.04087146 = score(doc=4631,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.40823817 = fieldWeight in 4631, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.09375 = fieldNorm(doc=4631)
      0.071428575 = coord(1/14)
    
    Imprint
    Wien : Verein zur Förderung der Informationswissenschaft
  8. Oberhauser, O.; Seidler, W.: Von der Haussystematik zur Verbundklassifikation? : Möglichkeiten für die Reklassifizierung der Bestände einer grossen Fachbibliothek (2000) 0.00
    0.00291939 = product of:
      0.04087146 = sum of:
        0.04087146 = weight(_text_:zur in 4907) [ClassicSimilarity], result of:
          0.04087146 = score(doc=4907,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.40823817 = fieldWeight in 4907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.09375 = fieldNorm(doc=4907)
      0.071428575 = coord(1/14)
    
  9. Oberhauser, O.: Implementierung und Parametrisierung klassifikatorischer Recherchekomponenten im OPAC (2005) 0.00
    0.0028042996 = product of:
      0.019630097 = sum of:
        0.011920842 = weight(_text_:zur in 3353) [ClassicSimilarity], result of:
          0.011920842 = score(doc=3353,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.119069465 = fieldWeight in 3353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3353)
        0.0077092536 = product of:
          0.015418507 = sum of:
            0.015418507 = weight(_text_:22 in 3353) [ClassicSimilarity], result of:
              0.015418507 = score(doc=3353,freq=2.0), product of:
                0.11386081 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03251466 = queryNorm
                0.1354154 = fieldWeight in 3353, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3353)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Das in den letzten Jahren wiedererwachte Interesse an der klassifikatorischen Erschließung und Recherche hat sich allem Anschein nach noch nicht ausreichend bis zu den Herstellern integrierter Bibliothekssysteme herumgesprochen. Wie wäre es sonst zu erklären, dass im OPAC-Modul eines führenden Systems wie Aleph 500 so gut wie keine Features für klassifikationsbasierte Recherchen zu erblicken sind? Tatsächlich finden wir heute einen im Vergleich zum einstigen System Bibos kaum veränderten Zustand vor: Notationen eines oder mehrerer Klassifikationssysteme können in einer durch MAB dafür bestimmten Kategorie (700, nebst Indikatoren) katalogisiert und dann recherchiert bzw. angezeigt werden. Doch welcher Benutzer weiß schon, was diese Notationen im einzelnen bedeuten? Wer macht sich die Mühe, dies selbst herauszufinden, um dann danach zu recherchieren? Hier liegt im wesentlich dasselbe Problem vor, das schon dem systematischen Zettelkatalog anhaftete und ihn zu einem zwar mühevoll erstellten, aber wenig genutzten Rechercheinstrument machte, das nur dann (zwangsläufig) angenommen wurde, wenn ein verbaler Sachkatalog fehlte. Nun könnte eingewandt werden, dass im Vergleich zu früher unter Aleph 500 wenigstens das Aufblättern von Indizes möglich sei, sodass im OPAC ein Index für die vergebenen Notationen angeboten werden kann (bzw. mehrere solche Indizes bei Verwendung von mehr als nur einem Klassifikationssystem). Gewiss, doch was bringt dem Uneingeweihten das Aufblättern des Notationsindex - außer einer alphabetischen Liste von kryptischen Codes? Weiter könnte man einwenden, dass es im Aleph-500-OPAC die so genannten Suchdienste ("services") gibt, mithilfe derer von bestimmten Elementen einer Vollanzeige hypertextuell weiternavigiert werden kann. Richtig, doch damit kann man bloß wiederum den Index aufblättern oder alle anderen Werke anzeigen lassen, die dieselbe Notationen - also einen Code, dessen Bedeutung meist unbekannt ist - aufweisen. Wie populär mag dieses Feature beim Publikum wohl sein? Ein anderer Einwand wäre der Hinweis auf das inzwischen vom Hersteller angebotene Thesaurus-Modul, das vermutlich auch für Klassifikationssysteme eingesetzt werden könnte. Doch wie viele Bibliotheken unseres Verbundes waren bisher bereit, für dieses Modul, das man eigentlich als Bestandteil des Basissystems erwarten könnte, gesondert zu bezahlen? Schließlich mag man noch einwenden, dass es im Gegensatz zur Bibos-Zeit nun die Möglichkeit gibt, Systematiken und Klassifikationen als Normdateien zu implementieren und diese beim Retrieval für verbale Einstiege in die klassifikatorische Recherche oder zumindest für die Veranschaulichung der Klassenbenennungen in der Vollanzeige zu nutzen. Korrekt - dies ist möglich und wurde sogar einst für die MSC (Mathematics Subject Classification, auch bekannt als "AMS-Klassifikation") versucht. Dieses Projekt, das noch unter der Systemversion 11.5 begonnen wurde, geriet jedoch nach einiger Zeit ins Stocken und fand bedauerlicherweise nie seinen Weg in die folgende Version (14.2). Mag auch zu hoffen sein, dass es unter der neuen Version 16 wieder weitergeführt werden kann, so weist dieses Beispiel doch auf die grundsätzliche Problematik des Normdatei-Ansatzes (zusätzlicher Aufwand, Kontinuität) hin. Zudem lohnt sich die Implementierung einer eigenen Normdatei 4 wohl nur bei einem größeren bzw. komplexen Klassifikationssystem, wogegen man im Falle kleinerer Systematiken kaum daran denken würde.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.22-37
  10. Oberhauser, O.: Teil 2: Ergebnisse der Befragung : Web-Umfrage zur Benutzung von Card-Image Online-Katalogen (2002) 0.00
    0.002432825 = product of:
      0.03405955 = sum of:
        0.03405955 = weight(_text_:zur in 983) [ClassicSimilarity], result of:
          0.03405955 = score(doc=983,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.34019846 = fieldWeight in 983, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.078125 = fieldNorm(doc=983)
      0.071428575 = coord(1/14)
    
  11. Oberhauser, O.: ¬Der VFI-Förderungspreis als Initiator wissenschaftlicher Publikationen : eine Übersicht (2015) 0.00
    0.0024083739 = product of:
      0.033717234 = sum of:
        0.033717234 = weight(_text_:zur in 2613) [ClassicSimilarity], result of:
          0.033717234 = score(doc=2613,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.3367793 = fieldWeight in 2613, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2613)
      0.071428575 = coord(1/14)
    
    Abstract
    Seit 2006 vergibt der Verein zur Förderung der Informationswissenschaft (VFI), Wien, jährlich einen Förderungspreis für herausragende akademische Abschlussarbeiten auf bestimmten Teilgebieten der Informationswissenschaft. Da mit der Preisvergabe die Auflage der Veröffentlichung einer (Kurz-)Fassung der prämierten Arbeiten verbunden ist, wurde so im Laufe der Jahre der Anstoss zur einer Reihe interessanter Publikationen der jüngeren bibliothekarischen bzw. informationswissenschaftlichen Generation des deutschsprachigen Raumes gegeben. Der Beitrag gibt einen Überblick über diese Veröffentlichungen, die zum Teil in den "Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen & Bibliothekare" und zum Teil in anderen wissenschaftlichen bzw. professionellen Publikationsorganen erschienen sind.
  12. Oberhauser, O.: Fachspezifische Suche nach elektronischen Zeitschriften : Ein webliographischer Streifzug am Beispiel der Informationswissenschaft (2003) 0.00
    0.0021068882 = product of:
      0.029496435 = sum of:
        0.029496435 = weight(_text_:zur in 1480) [ClassicSimilarity], result of:
          0.029496435 = score(doc=1480,freq=6.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.2946205 = fieldWeight in 1480, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1480)
      0.071428575 = coord(1/14)
    
    Abstract
    Ziel dieses Beitrags ist es, am Beispiel unserer eigenen Disziplin Möglichkeiten zur Recherche nach elektronischen Zeitschriften (EJournals) vorzustellen und zu bewerten. Vorweg drei definitorische Festlegungen: EJournals meint hier via WWW verfügbare Zeitschriften (gleichgültig ob parallel zu einer gedruckten Ausgabe oder ausschliesslich elektronisch, ob zur Gänze oder nur teilweise online). Informationswissenschaft (IW) steht hier für den gesamten Bereich der Bibliotheks-, Informations- und Dokumentationswissenschaft und -praxis (ohne Archiv- und Museumswesen). Webliographisch bedeutet, dass sich die Betrachtung auf Informationssammlungen und Nachweise im WWW beschränkt. Bei den (frei verfügbaren) Webliographien zu EJournals handelt es sich in der Regel um Datenbanken, Verzeichnisse und Linksammlungen. Es mag vielleicht überraschen, dass für das gewählte Fachgebiet eine nahezu unüberschaubare Zahl solcher Nachweise existiert. Zwar scheint dies noch nicht zur Herausbildung von "Webliographien der Webliographien" geführt zu haben, die auf Nachweise von ausschliesslich informationswissenschaftlichen EJournals spezialisiert wären, doch in den diversen fachspezifischen Linksammlungen und Verzeichnissen werden die Sekundärpublikationen, meist in die Auflistung der Primärpublikationen gemischt, durchaus verzeichnet. Fachübergreifend existieren Kompilationen von Verzeichnissen elektronischer Zeitschriften sehr wohl. Als deutsches Beispiel kann der Abschnitt "Elektronische Zeitschriften" der Düsseldorfer Virtuellen Bibliothek angeführt werden, wo Ressourcen und Verzeichnisse/ Datenbanken elektronischer Zeitschriften vorgestellt werden; ein internationales Beispiel ist die auf dem Server der University of Vermont gewartete umfangreiche Zusammenstellung Serials in Cyberspace.
  13. Oberhauser, O.: Klassifikation in Online-Informationssystemen (1986) 0.00
    0.0020643207 = product of:
      0.028900487 = sum of:
        0.028900487 = weight(_text_:zur in 588) [ClassicSimilarity], result of:
          0.028900487 = score(doc=588,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.28866798 = fieldWeight in 588, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=588)
      0.071428575 = coord(1/14)
    
    Abstract
    Für fachspezifische bibliographische Online-Recherchen werden in den meisten Fällen die Ergebnisse nur der verbalen inhaltlichen Erschliessung genutzt (Deskriptoren, Schlagwörter, Stichwörter, Abstract-Texte). Viele bibliographische Datenbanken sind aber auch mit Hilfe von Notationen aus Klassifikationssystemen recherchierbar. Dieser Beitrag behandelt die letztere Form des sachlichen Zugriffs und streicht die Rolle von Notationen ("class codes") als nützliche Ergänzung zur verbalen Recherche heraus. Im ersten Teil werden folgende Fragen thematisiert: In welchem Ausmass sind Klassifikationsschemata als sachliche Zugriffsmöglichkeit in bibliographischen Datenbanken vorhanden? Welcher Art sind diese Schemata und ihre Notationen? Der zweite Teil veranschaulicht mehrere vorteilhafte Möglichkeiten der Anwendung von Notationen bei der bibliographischen Recherche. Der dritte Teil beschäftigt sich mit Änderungen von Klassifikationssystemen - dem Hauptproblem ihrer Verwendung bei der Online-Recherche. Der Rechercheur muss daher nicht nur wissen, wie Klassifikationen zur Verbesserung der Suchstrategie eingesetzt werden, sondern auch, wie Schwierigkeiten dieser Art zu bewältigen sind.
  14. Oberhauser, O.: Bibliothekssysteme und Bibliotheksstruktur (1997) 0.00
    0.0018879805 = product of:
      0.026431726 = sum of:
        0.026431726 = product of:
          0.052863453 = sum of:
            0.052863453 = weight(_text_:22 in 6637) [ClassicSimilarity], result of:
              0.052863453 = score(doc=6637,freq=2.0), product of:
                0.11386081 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03251466 = queryNorm
                0.46428138 = fieldWeight in 6637, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6637)
          0.5 = coord(1/2)
      0.071428575 = coord(1/14)
    
    Date
    10. 3.2002 16:19:22
  15. Oberhauser, O.: Teil 1: Anlage und Durchführung der Befragung : Web-Umfrage zur Benutzung von Card-Image Online-Katalogen (2001) 0.00
    0.001720267 = product of:
      0.024083737 = sum of:
        0.024083737 = weight(_text_:zur in 986) [ClassicSimilarity], result of:
          0.024083737 = score(doc=986,freq=4.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.24055663 = fieldWeight in 986, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=986)
      0.071428575 = coord(1/14)
    
    Abstract
    Unter der Bezeichnung "CardImage OnlineKataloge" werden im folgenden jene auf den ersten Blick oft seltsam oder gar anachronistisch anmutenden, aber seit einigen Jahren immer häufiger anzutreffenden OPAC Varianten zusammengefasst, die auf einer meist größeren Menge eingescannter (digitalisierter) Katalogzettel und einem mehr oder weniger komfortablen und leistungsfähigen Blätter oder SuchMechanismus basieren. OPACs dieser Art werden auch als "elektronische Zettelkataloge", "digitalisierte Kartenkataloge" oder oft, wenn auch unpräzise, schlicht als "ImageKataloge" bezeichnet. Im Englischen hat sich bislang kein Standardterminus durchgesetzt; in Analogie zu "OPAC" wurde kürzlich das Akronym "CIPAC" (CardImage Public Access Catalogue) vorgeschlagen CIPACS werden in aller Regel als Alternativen zur Retrokonversion im herkömmlichen Sinn (Retrokatalogisierung) eingesetzt, sowohl als Interims als auch als Dauerlösungen. Wie erst jüngst wieder eindrucksvoll vorgerechnet wurde, können dadurch Zeit und vor allem finanzielle Mittel in beträchtlichem Ausmaß eingespart werden; oft handelt es sich für die betreffenden Bibliotheken um die einzige realisierbare Konversionsmöglichkeit. Obwohl der erste große CardImage OnlineKatalog 1994 in den USA in Betrieb genommen wurde, haben seitdem fast ausschließlich Bibliotheken in Kontinentaleuropa (Deutschland, Österreich, Schweiz, Tschechische Republik) derartige CIPACs realisiert. Bekannte Beispiele, die auch das Leistungsspektrum und die Variationsbreite dieses Katalogtyps widerspiegeln, sind etwa die Anwendungen der Österreichischen Nationalbibliothek (ÖNB), verschiedener großer deutscher Bibliotheken sowie der Zentralbibliothek Zürich. Eine vom Autor erstellte Web-Seite verzeichnet alle bisher bekannt gewordenen Kataloge dieser Art
  16. Oberhauser, O.: Card-Image Public Access Catalogues (CIPACs) : a critical consideration of a cost-effective alternative to full retrospective catalogue conversion (2002) 0.00
    0.0017029776 = product of:
      0.023841685 = sum of:
        0.023841685 = weight(_text_:zur in 1703) [ClassicSimilarity], result of:
          0.023841685 = score(doc=1703,freq=8.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.23813893 = fieldWeight in 1703, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1703)
      0.071428575 = coord(1/14)
    
    Footnote
    Rez. in: ABI-Technik 21(2002) H.3, S.292 (E. Pietzsch): "Otto C. Oberhauser hat mit seiner Diplomarbeit eine beeindruckende Analyse digitalisierter Zettelkataloge (CIPACs) vorgelegt. Die Arbeit wartet mit einer Fülle von Daten und Statistiken auf, wie sie bislang nicht vorgelegen haben. BibliothekarInnen, die sich mit der Digitalisierung von Katalogen tragen, finden darin eine einzigartige Vorlage zur Entscheidungsfindung. Nach einem einführenden Kapitel bringt Oberhauser zunächst einen Überblick über eine Auswahl weltweit verfügbarer CIPACs, deren Indexierungsmethode (Binäre Suche, partielle Indexierung, Suche in OCR-Daten) und stellt vergleichende Betrachtungen über geographische Verteilung, Größe, Software, Navigation und andere Eigenschaften an. Anschließend beschreibt und analysiert er Implementierungsprobleme, beginnend bei Gründen, die zur Digitalisierung führen können: Kosten, Umsetzungsdauer, Zugriffsverbesserung, Stellplatzersparnis. Er fährt fort mit technischen Aspekten wie Scannen und Qualitätskontrolle, Image Standards, OCR, manueller Nacharbeit, Servertechnologie. Dabei geht er auch auf die eher hinderlichen Eigenschaften älterer Kataloge ein sowie auf die Präsentation im Web und die Anbindung an vorhandene Opacs. Einem wichtigen Aspekt, nämlich der Beurteilung durch die wichtigste Zielgruppe, die BibliotheksbenutzerInnen, hat Oberhauser eine eigene Feldforschung gewidmet, deren Ergebnisse er im letzten Kapitel eingehend analysiert. Anhänge über die Art der Datenerhebung und Einzelbeschreibung vieler Kataloge runden die Arbeit ab. Insgesamt kann ich die Arbeit nur als die eindrucksvollste Sammlung von Daten, Statistiken und Analysen zum Thema CIPACs bezeichnen, die mir bislang begegnet ist. Auf einen schön herausgearbeiteten Einzelaspekt, nämlich die weitgehende Zersplitterung bei den eingesetzten Softwaresystemen, will ich besonders eingehen: Derzeit können wir grob zwischen Komplettlösungen (eine beauftragte Firma führt als Generalunternehmung sämtliche Aufgaben von der Digitalisierung bis zur Ablieferung der fertigen Anwendung aus) und geteilten Lösungen (die Digitalisierung wird getrennt von der Indexierung und der Softwareerstellung vergeben bzw. im eigenen Hause vorgenommen) unterscheiden. Letztere setzen ein Projektmanagement im Hause voraus. Gerade die Softwareerstellung im eigenen Haus aber kann zu Lösungen führen, die kommerziellen Angeboten keineswegs nachstehen. Schade ist nur, daß die vielfältigen Eigenentwicklungen bislang noch nicht zu Initiativen geführt haben, die, ähnlich wie bei Public Domain Software, eine "optimale", kostengünstige und weithin akzeptierte Softwarelösung zum Ziel haben. Einige kritische Anmerkungen sollen dennoch nicht unerwähnt bleiben. Beispielsweise fehlt eine Differenzierung zwischen "Reiterkarten"-Systemen, d.h. solchen mit Indexierung jeder 20. oder 50. Karte, und Systemen mit vollständiger Indexierung sämtlicher Kartenköpfe, führt doch diese weitreichende Designentscheidung zu erheblichen Kostenverschiebungen zwischen Katalogerstellung und späterer Benutzung. Auch bei den statistischen Auswertungen der Feldforschung hätte ich mir eine feinere Differenzierung nach Typ des CIPAC oder nach Bibliothek gewünscht. So haben beispielsweise mehr als die Hälfte der befragten BenutzerInnen angegeben, die Bedienung des CIPAC sei zunächst schwer verständlich oder seine Benutzung sei zeitaufwendig gewesen. Offen beibt jedoch, ob es Unterschiede zwischen den verschiedenen Realisierungstypen gibt.
    Nun haben Diplomarbeiten einen eigenen Charakter. Ihre Zielsetzung ist nicht unbedingt, Handlungsleitfäden zu geben. Manche FachkollegInnen, die schon selbst mit der Digitalisierung von Katalogen zu tun hatten, fragen sich aber, ob die jeweils gefundene Lösung denn tatsächlich die "beste" erreichbare war, ob es sich lohnt, über Verbesserungen nachzudenken, wie ihre Lösung im Vergleich zu anderen steht, ob die eingesetzte Recherchesoftware gute Ergebnisse liefert, ob die zunächst vielleicht niedrigen Erstellungskosten nicht doch relativ lange Verweildauern, d.h. verdeckte Kosten, bei der Recherche zur Folge haben. Oberhauser gibt dazu lediglich am Rande einige Hinweise. Wünschenswert wäre, wenn derartige Detailuntersuchungen in weiteren Arbeiten vorgenommen würden."
  17. Oberhauser, O.; Labner, J.: Relevance Ranking in Online-Katalogen : Informationsstand und Perspektiven (2003) 0.00
    0.0017029776 = product of:
      0.023841685 = sum of:
        0.023841685 = weight(_text_:zur in 2188) [ClassicSimilarity], result of:
          0.023841685 = score(doc=2188,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.23813893 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2188)
      0.071428575 = coord(1/14)
    
    Abstract
    Bekanntlich führen Suchmaschinen wie Google &Co. beider Auflistung der Suchergebnisse ein "Ranking" nach "Relevanz" durch, d.h. die Dokumente werden in absteigender Reihenfolge entsprechend ihrer Erfüllung von Relevanzkriterien ausgeben. In Online-Katalogen (OPACs) ist derlei noch nicht allgemein übliche Praxis, doch bietet etwa das im Österreichischen Bibliothekenverbund eingesetzte System Aleph 500 tatsächlich eine solche Ranking-Option an (die im Verbundkatalog auch implementiert ist). Bislang liegen allerdings kaum Informationen zur Funktionsweise dieses Features, insbesondere auch im Hinblick auf eine Hilfestellung für Benutzer, vor. Daher möchten wir mit diesem Beitrag versuchen, den in unserem Verbund bestehenden Informationsstand zum Thema "Relevance Ranking" zu erweitern. Sowohl die Verwendung einer Ranking-Option in OPACs generell als auch die sich unter Aleph 500 konkret bietenden Möglichkeiten sollen im folgenden näher betrachtet werden.
  18. Oberhauser, O.: Automatisches Klassifizieren und Bibliothekskataloge (2005) 0.00
    0.0017029776 = product of:
      0.023841685 = sum of:
        0.023841685 = weight(_text_:zur in 4099) [ClassicSimilarity], result of:
          0.023841685 = score(doc=4099,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.23813893 = fieldWeight in 4099, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4099)
      0.071428575 = coord(1/14)
    
    Abstract
    In der bibliothekarischen Welt sind die Vorzüge einer klassifikatorischen Inhaltserschließung seit jeher wohlbekannt. Auch im Zeitalter der Online-Kataloge gibt es dafür keinen wirklichen Ersatz, da - kurz formuliert - ein stichwortbasiertes Retrieval alleine mit Problemen wie Ambiguität und Mehrsprachigkeit nicht fertig zu werden vermag. Zahlreiche Online-Kataloge weisen daher Notationen verschiedener Klassifikationssysteme auf; allerdings sind die darauf basierenden Abfragemöglichkeiten meist noch arg unterentwickelt. Viele Datensätze in OPACs sind aber überhaupt nicht sachlich erschlossen, sei es, dass sie aus retrospektiv konvertierten Nominalkatalogen stammen, sei es, dass ein Mangel an personellen Ressourcen ihre inhaltliche Erschließung verhindert hat. Angesichts großer Mengen solcher Datensätze liegt ein Interesse an automatischen Verfahren zur Sacherschließung durchaus nahe.
  19. Oberhauser, O.: ¬Das internationale CIPAC-Verzeichnis im 15. JAhr seines Bestehens (2015) 0.00
    0.0017029776 = product of:
      0.023841685 = sum of:
        0.023841685 = weight(_text_:zur in 1838) [ClassicSimilarity], result of:
          0.023841685 = score(doc=1838,freq=2.0), product of:
            0.10011671 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03251466 = queryNorm
            0.23813893 = fieldWeight in 1838, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1838)
      0.071428575 = coord(1/14)
    
    Abstract
    Die Webseite The International CIPAC List (http://cipacs.vfi-online.org/) besteht seit 2001. Sie verzeichnet "card-image public access catalogues" (CIPACs), also Online-Kataloge auf der Basis digitalisierter (gescannter) Zettel- bzw. Bandkataloge. Für Fernleihabteilungen sowie für wissenschaftlich Tätige, die an älterer Literatur interessiert sind, sind derartige Kataloge oft ein unverzichtbares Hilfsmittel, da sich viele Bibliotheken bisher nicht in der Lage sahen, ihre alten Kataloge einer "richtigen" Retrokonversion zu unterziehen. Sie griffen daher zu der vergleichsweise günstigen Alternative, die Katalogkarten zu scannen und mit Hilfe einer geeigneten Software im Web zur Suche anzubieten.
  20. Seidler, W.; Oberhauser, O.: Managing a large academic CD-ROM network (1996) 0.00
    0.0015733172 = product of:
      0.02202644 = sum of:
        0.02202644 = product of:
          0.04405288 = sum of:
            0.04405288 = weight(_text_:22 in 6195) [ClassicSimilarity], result of:
              0.04405288 = score(doc=6195,freq=2.0), product of:
                0.11386081 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03251466 = queryNorm
                0.38690117 = fieldWeight in 6195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6195)
          0.5 = coord(1/2)
      0.071428575 = coord(1/14)
    
    Source
    Audiovisual librarian. 22(1996) no.3, S.190-193