Search (36 results, page 2 of 2)

  • × type_ss:"r"
  • × year_i:[2000 TO 2010}
  1. Grazia Colonia; Dimmler, E.; Dresel, R.; Messner, C.; Krobath, A.; Petz, S.; Sypien, M.; Boxen, P. van; Harders, M.; Heuer, D.; Jordans, I.; Juchem, K.; Linnertz, M.; Mittelhuber, I.; Schwammel, S.; Schlögl, C.; Stock, W.G.: Informationswissenschaftliche Zeitschriften in szientometrischer Analyse (2002) 0.00
    9.79096E-4 = product of:
      0.018602824 = sum of:
        0.018602824 = weight(_text_:und in 1075) [ClassicSimilarity], result of:
          0.018602824 = score(doc=1075,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34282678 = fieldWeight in 1075, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
      0.05263158 = coord(1/19)
    
    Abstract
    In einer szientometrischen bzw. informetrischen Studie werden internationale wie deutschsprachige Zeitschriften der Informations-/Bibliothekswissenschaft und -praxis mittels Zitationsanalyse und Expertenbefragung analysiert. Die zitatenanalytischen Kennwerte umfassen den Impact Factor, die Halbwertszeit, die Zitierfreudigkeit, die relative Häufigkeit von Zeitschriftenselbstreferenzen sowie Soziogramme der einflussreichen Periodika. Der Fragebogen erhebt die Lesehäufigkeit, die Einsetzbarkeit der gelesenen Journale im Tätigkeitsbereich, die Publikationstätigkeit und die Publikationspräferenz sowohl für alle Respondenten als auch für abgrenzbare Gruppen (Praktiker vs. Wissenschaftler, Bibliothekare vs. Dokumentare vs. Informationswissenschaftler, öffentlicher Dienst vs. Informationswirtschaft vs. andere Wirtschaftsunternehmen).
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.33
  2. Huemer, H.: Semantische Technologien : Analyse zum Status quo, Potentiale und Ziele im Bibliotheks-, Informations- und Dokumentationswesen (2006) 0.00
    9.576304E-4 = product of:
      0.018194977 = sum of:
        0.018194977 = weight(_text_:und in 641) [ClassicSimilarity], result of:
          0.018194977 = score(doc=641,freq=60.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.33531067 = fieldWeight in 641, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
      0.05263158 = coord(1/19)
    
    Abstract
    Das vorliegende Werk ist der erste Band in der Reihe "Branchenreports" der Semantic Web School. Diese Reihe, die in Zusammenarbeit mit Branchenexperten entwickelt wurde, verfolgt das Ziel, in regelmäßigen Abständen die Bedeutung semantischer Technologien in ausgewählten Branchen und Communities zu analysieren und zu durchleuchten. Damit sollen dem interessierten Leser in erster Linie ein Überblick und Einstiegspunkte geboten werden: Die Branchenreports helfen, sich in einem emergenten Umfeld besser orientieren zu können, sie zeigen Entwicklungspfade an, entlang welcher sich Branchen bewegen, die vermehrt auf den Einsatz semantischer Informationstechnologien setzen. Dieser Branchenreport beschäftigt sich mit dem Bibliotheks-, Informationsund Dokumentationswesen (BID) und es ist kein Zufall, dass diese Branche als erste durchleuchtet wird, sind doch hier die Wurzeln der professionellen Wissensorganisation zu finden. Nun, im Zeitalter der Digitalisierung und des Internets, steht diese Community vor neuen, großen Herausforderungen und Möglichkeiten. Gerade im Umfeld des Semantic Web zeigt sich, dass die Erfahrungen aus dem BID-Bereich einen wichtigen Beitrag leisten können, soll die Entwicklung des Internets der nächsten Generation nicht nur von der Technik geprägt werden. Dieser Band möchte die Neugierde all jener wecken, die sich vor neuen Technologien nicht verschließen, und darauf aufmerksam machen, dass die Möglichkeiten, Information und Wissen zu organisieren, im 21. Jahrhundert gänzlich neue sein werden.
    Content
    Inhaltsverzeichnis 1. Einleitung 2. Bibliothekspolitik 3. Begriffsdefinitionen 3.1. Bibliothek - 3.2. Archiv - 3.3. Museum - 3.4. Information und Dokumentation - 3.5. Information - 3.6. Semantik und semantische Technologien - 3.7. Ontologie - 3.8. Recall und Precision 4. Bibliotheken aus statistischer Sicht - Kennzahlen 5. Bibliographische Tools 5.1. Austauschformate 5.1.1. MAB / MAB2 - 5.1.2. Allegro-C - 5.1.3. MARC 2 - 5.1.4. Z39.50 - 5.1.5. Weitere Formate 5.2. Kataloge / OPACs 5.2.1. Aleph 500 - 5.2.2. Allegro-C - 5.2.3. WorldCat beta 5.3. Dokumentationssysteme 5.4. Suchmaschinen 5.4.1. Convera und ProTerm - 5.4.2. APA Online Manager - 5.4.3. Google Scholar - 5.4.4. Scirus - 5.4.5. OAIster - 5.4.6. GRACE 5.5. Informationsportale 5.5.1. iPort - 5.5.2. MetaLib - 5.5.3. Vascoda - 5.5.4. Dandelon - 5.5.5. BAM-Portal - 5.5.6. Prometheus 6. Semantische Anreicherung 6.1. Indexierung - 6.2. Klassifikation - 6.3. Thesauri 38 - 6.4. Social Tagging 7. Projekte 7.1. Bibster - 7.2. Open Archives Initiative OAI - 7.3. Renardus - 7.4. Perseus Digital Library - 7.5. JeromeDL - eLibrary with Semantics 8. Semantische Technologien in BAM-InstitutionenÖsterreichs 8.1. Verbundkatalog des Österreichischen Bibliothekenverbunds - 8.2. Bibliotheken Online - WebOPAC der Öffentlichen Bibliotheken - 8.3. Umfrage-Design - 8.4. Auswertung 9. Fazit und Ausblick 10. Quellenverzeichnis 11. Web-Links 12. Anhang Vgl.: http://www.semantic-web.at/file_upload/1_tmpphp154oO0.pdf.
    Footnote
    Rez. in: Mitt VÖB 60(2007)H.3, S.80-81 (J. Bertram): "Wie aus dem Titel der Publikation hervorgeht, will der Autor eine Bestandsaufnahme zum Einsatz semantischer Technologien im BID-Bereich (Bibliothek - Information - Dokumentation) bzw. BAM-Bereich (Bibliothek - Archiv - Museum) vornehmen. einigem Befremden, dass eines von insgesamt drei Vorwörtern für ein einschlägiges Softwareprodukt wirbt und von einer Firmenmitarbeiterin verfasst worden ist. Nach einer Skizze des gegenwärtigen Standes nationaler und europäischer Bibliothekspolitik folgen kurze Definitionen zu den beteiligten Branchen, zu semantischen Technologien und zu Precision und Recall. Die Ausführungen zu semantischen Technologien hätten durchaus gleich an den Anfang gestellt werden können, schließlich sollen sie ja das Hauptthema der vorliegenden Publikation abgeben. Zudem hätten sie konkreter, trennschärfer und ausführlicher ausfallen können. Der Autor moniert zu Recht das Fehlen einer einheitlichen Auffassung, was unter semantischen Technologien denn nun genau zu verstehen sei. Seine Definition lässt allerdings Fragen offen. So wird z.B. nicht geklärt, was besagte Technologien von den hier auch immer wieder erwähnten semantischen Tools unterscheidet. Das nachfolgende Kapitel über bibliographische Tools vereint eine Aufzählung konkreter Beispiele für Austauschformate, Dokumentationssysteme, Suchmaschinen, Informationsportale und OPACs. Im Anschluss daran stellt der Autor Methoden semantischer Anreicherung (bibliographischer) Daten vor und präsentiert Projekte im Bibliotheksbereich. Der aufzählende Charakter dieses und des vorangestellten Kapitels mag einem schnellen Überblick über die fraglichen Gegenstände dienlich sein, für eine systematische Lektüre eignen sich diese Passagen weniger. Auch wird der Bezug zu semantischen Technologien nicht durchgängig hergestellt.
    Danach kommt das Werk - leider nur auf acht Seiten - zu seinem thematischen Kern. Die Frage, ob, in welchem Ausmaß und welche semantischen Technologien im BID-%BAM-Bereich eingesetzt werden, sollte eigentlich mit einer schriftlichen Befragung einschlägiger Institutionen verfolgt werden. Jedoch konnte dieses Ziel wegen des geringen Rücklaufs nur sehr eingeschränkt erreicht werden: im ersten Versuch antworteten sechs Personen aus insgesamt 65 angeschriebenen Institutionen. Beim zweiten Versuch mit einem deutlich abgespeckten Fragekatalog kamen weitere fünf Antworten dazu. Ausschlaggebend für die geringe Resonanz dürfte eine Mischung aus methodischen und inhaltlichen Faktoren gewesen sein: Eine schriftliche Befragung mit vorwiegend offenen Fragen durchzuführen, ist ohnehin schon ein Wagnis. Wenn diese Fragen dann auch noch gleichermaßen komplex wie voraussetzungsvoll sind, dann ist ein unbefriedigender Rücklauf keine Überraschung. Nicht zuletzt mag sich hier die Mutmaßung des Autors aus seinem Vorwort bewahrheiten und ihm zugleich zum Verhängnis geworden sein, nämlich dass "der Begriff 'Semantik' vielen Bibliothekaren und Dokumentaren noch nicht geläufig (ist)" - wie sollen sie dann aber Fragen dazu beantworten? Beispielhaft sei dafür die folgende angeführt: "Welche Erwartungen, Perspektiven, Prognosen, Potentiale, Paradigmen verbinden Sie persönlich mit dem Thema ,Semantische Technologien'?" Am Ende liegt der Wert der Untersuchung sicher vor allem darin, eine grundlegende Annahme über den Status quo in der fraglichen Branche zu bestätigen: dass semantische Technologien dort heute noch eine geringe Rolle und künftig schon eine viel größere spielen werden. Insgesamt gewinnt man den Eindruck, dass hier zum Hauptgegenstand geworden ist, was eigentlich nur Rahmen sein sollte. Die Publikation (auch der Anhang) wirkt streckenweise etwas mosaiksteinartig, das eigentlich Interessierende kommt zu kurz. Gleichwohl besteht ihr Verdienst darin, eine Annäherung an ein Thema zu geben, das in den fraglichen Institutionen noch nicht sehr bekannt ist. Auf diese Weise mag sie dazu beitragen, semantische Technologien im Bewusstsein der beteiligten Akteure stärker zu verankern. Das hier besprochene Werk ist der erste Band einer Publikationsreihe der Semantic Web School zum Einsatz semantischer Technologien in unterschiedlichen Branchen. Den nachfolgenden Bänden ist zu wünschen, dass sie sich auf empirische Untersuchungen mit größerer Resonanz stützen können."
    RSWK
    Information und Dokumentation / Semantic Web (GBV)
    Subject
    Information und Dokumentation / Semantic Web (GBV)
  3. Enzyklopädie im Wandel : Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot (2002) 0.00
    9.4153447E-4 = product of:
      0.017889155 = sum of:
        0.017889155 = weight(_text_:und in 1882) [ClassicSimilarity], result of:
          0.017889155 = score(doc=1882,freq=58.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.32967478 = fieldWeight in 1882, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
      0.05263158 = coord(1/19)
    
    Abstract
    "Enzyklopädie im Wandel: Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot?" lautete das Thema der Auftaktveranstaltung, die am 12. Dezember 2001 im Rahmen des Diskussionsforums "Kölner Dialog Informationswissenschaft" an der Fachhochschule Köln stattfand. Enzyklopädien sind stets dem Zeitgeist verpflichtet und im Wandel begriffen. Sie passen sich in ihrer Konzeption den zu erwartenden Bedürfnissen der Benutzer und den produktionstechnischen Möglichkeiten an. Gegenwärtig ist ein Nebeneinander von gedruckten und digitalen Enzyklopädien zu beobachten. Während gedruckte Enzyklopädien die Breite des Wissens zweidimensional erfahrbar machen und für den raschen Zugriff oft weiterhin bevorzugt werden, bieten Enzyklopädien in digitaler Form neben neuen Retrievaltechniken durch multimediale Synergien einen erheblich verbesserten Zugang zu den erläuterten Phänomenen. Die Autoren dieses Bandes setzen sich mit den Ansprüchen auseinander, die an die Konzeption von Enzyklopädien zu Beginn des 21. Jahrhunderts gestellt werden. Die einzelnen Beiträge vermitteln einen Einblick in Entstehung, Umfang und Funktionalitäten der auf der Buchmesse 2001 vorgestellten Neuausgaben der renommierten Nachschlagewerke "Brockhaus multimedial" und "Microsoft Encarta". Abschließend werden die Fragenkomplexe "Beitrag der Enzyklopädie zum Wissenserwerb heute" sowie "Entwicklungsperspektiven und Trägermedien von Enzyklopädien" thematisiert.
    Content
    Enthält die Beiträge: VOLPERS, H.: Idee und Begriff der Enzyklopädie im Wandel der Zeit; ANGER, E.: Brockhaus multimedial 2002 auf CD-ROM und DVD-ROM; HILTL, M.: Die Encarta Enzyklopädie Proefessional 2002 von Microsoft; HÄRKÖNEN, S.: Enzyklopädie im Wandel (Podiumsdiskussion)
    Footnote
    Rez. in: B.I.T. online 5(2002) H.3, S.281 (R. Fuhlrott) - Medienwissenschaft. 2003, H.1, S.72-74 (M. Hollender): "Der Sammelband gibt die Beiträge einer gleichnamigen Veranstaltung an der Fachhochschule Köln am 12. Dezember 2001 wieder. - Über enzyklopädisches Wissen verfügen zu wollen, sei in den letzten Jahren, so Helmut Volpers in seiner Einführung, durch den ,Verfall bildungsbürgerlicher Ideale" stark rückläufig gewesen; derzeit aber erlebe die Wertschätzung einer hohen Allgemeinbildung wieder einmal eine - popularisierte und medientaugliche - Renaissance: Die Verfügbarkeit über Faktenwissen eröffne die Chance, in der Flut der Fernsehrateshows zum Millionär zu avancieren. Volpers Beitrag über "Idee und Begriff der Enzyklopädie im Wandel der Zeit" widmet sich ausführlich vor allem Werken von Diderot und D'Alembert, dem Zedler und den frühen Brockhaus-Ausgaben. Sein Text liefert indes keine neuen Erkenntnisse und ist vor allem für Examenskandidaten hilfreich. Der Aufsatz von Volpers erfüllt aber wiederum als einziger der drei Beiträge die Ansprüche, die man an eine wissenschaftliche Veröffentlichung gemeinhin stellt. Die nachfolgenden Texte nämlich, die die Enzyklopädien von Brockhaus und Encarta in der CD-ROM-/DVD-Version präsentieren, stammen nicht von kommerziell unabhängig und wertneutral arbeitenden Verfassern, sondern vom Managing Editor New Media des Brockhaus-Verlages (Eberhard Anger) bzw. vom Chefredakteur der deutschsprachigen Encarta-Redaktion (Michael Hiltl). Demzufolge lesen sich die Beiträge wie eine Presseerklärung der Konzerne bzw. wie eine besonders kundenfreundlich formulierte Bedienungsanleitung für Fortgeschrittene. Von den Veranstaltern hätte man sich als Gegenpart auch eine kritische Stimme gewünscht; die Selbstanpreisungen der Firmenvertreter wie auch die Tendenz der Aussagen verstimmt den Leser, der eine abgewogene Darstellung erwartet hatte, zusehends. Dies beginnt bei der pauschalen Behauptung, der Brockhaus habe die NS-Ära aufgrund seiner Distanz zum Regime unbeschadet überstanden (die Darstellung von Senya Müller: Sprachwörterbücher im Nationalsozialismus: die ideologische Beeinflussung von Duden, Sprach-Brockhaus und anderen Nachschlagewerken während des "Dritten Reichs", Stuttgart 1994, beweist hinsichtlich des Sprach-Brockhauses das Gegenteil) und endet bei der Forderung, Internetinformationen müssten zukünftig mehr und mehr kostenpflichtig werden. Das merkantile Interesse von Anger und Hiltl ist freilich verständlich: Lexikonverlage stehen unter enormem Existenz- und Legitimationsdruck, um den Wettbewerb gegen sekundenschnell via Suchmaschinen kostenfrei erhältliche Informationen nicht zu verlieren. Und tatsächlich haben die internationalen Lexikonverlage in den letzten Jahren enorm aufgerüstet - die Unterschiede zwischen der großväterlich biederen Schrankwandausgabe des Brockhaus' und der Multimediaausgabe sind derart frappierend, dass selbst die unkritische Eigenwerbung der Verlagsrepräsentanten noch zu begeistern vermag (und umso mehr wünscht man sich eine relativierende Gegenstimme!). Die Hymnen der Lexikonverkäufer auf ihre Produkte sollen an dieser Stelle nicht wiederholt werden, wer sich indes mit dem Gedanken trägt, eine moderne Enzyklopädie zu erwerben, dem seien die Referate von Anger und Hiltl als Einstiegslektüre nur zu empfehlen. Wer hätte geahnt, dass die CD-ROMs des Brockhaus 2002 als Dreingabe auch den zweibändigen Brockhaus des Jahres 1906 einschließen! Zumindest soviel ist den Verlagsvertretern und den Kölner Tagungsveranstaltern gelungen: Sie wecken das Interesse an elektronischen lexikalischen Produkten. Kritische Stimmen muss man sich eben an anderer Stelle suchen.
    In regelmäßigen, sehr engen Abständen sind aus dem Netz Aktualisierungen der Enzyklopädien herunterladbar, die die veralteten Einträge automatisch überschreiben. Ungeklärt bleiben in diesem Zusammenhang leider zwei Fragen: Wie soll zukünftig aus derlei Werken wissenschaftlich seriös unter Angabe der Quelle zitiert werden? Aus konventionellen Lexika wird zwar selten zitiert, der Multimedia-Brockhaus umfasst hingegen ein Textvolumen, das mehr als viermal so groß ist wie das der Printausgabe, wodurch es als Quelle also eher infrage kommt. Unbeantwortet bleibt leider auch die wissenschaftshistorische Frage, ob die Entwicklungsstufen des sich täglich wandelnden und aktualisierenden Lexikons auf einem Brockhaus- bzw. Encarta-Archivserver dauerhaft gespeichert werden. Wissenschaftsgeschichte ist zwingend darauf angewiesen, nachweisen zu können, welcher Wissensstand zu welchem Zeitpunkt welchen Bevölkerungsgruppen als Gemeingut bekannt war; die Virtualität der Enzyklopädie als non-book-material macht derlei Studien womöglich bald unmöglich. Der Tagungsband wird unter http://www.fbi.fh-koeln.de/fachbereich/papers/ kabi/index.cfm auch im Netz vorgehalten. Sollten sämtliche Bände der Schriftenreihe Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft über eine derart billige Klebebindung verfügen wie das mir vorliegende Exemplar, gehört die Zukunft wieder ein Stückweit mehr der Netzpublikation: Der Selbstatomisierung des Heftes in drei Dutzend lose Blätter lässt sich so entgehen."
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.32
  4. Mutschke, P.: Autorennetzwerke : Verfahren zur Netzwerkanalyse als Mehrwertdienste für Informationssysteme (2004) 0.00
    9.3828223E-4 = product of:
      0.017827362 = sum of:
        0.017827362 = weight(_text_:und in 4050) [ClassicSimilarity], result of:
          0.017827362 = score(doc=4050,freq=10.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.328536 = fieldWeight in 4050, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4050)
      0.05263158 = coord(1/19)
    
    Abstract
    Virtuelle Bibliotheken enthalten eine Fülle an Informationen, die in ihrer Vielfalt und Tiefe von Standardsuchmaschinen nicht erschöpfend erfasst wird. Der Arbeitsbericht informiert über Entwicklungen am IZ, die darauf abzielen, Wissen über das Interaktionsgeschehen in wissenschaftlichen Communities und den sozialen Status ihrer Akteure für das Retrieval auszunutzen. Grundlage hierfür sind soziale Netzwerke, die sich durch Kooperation der wissenschaftlichen Akteure konstituieren und in den Dokumenten der Datenbasis z.B. als Koautorbeziehungen repräsentiert sind (Autorennetzwerke). Die in dem Bericht beschriebenen Studien zur Small-World-Topologie von Autorennetzwerken zeigen, dass diese Netzwerke ein erhebliches Potential für Informationssysteme haben. Der Bericht diskutiert Szenarios, die beschreiben, wie Autorennetzwerke und hier insbesondere das Konzept der Akteurszentralität für die Informationssuche in Datenbanken sinnvoll genutzt werden können. Kernansatz dieser Retrievalmodelle ist die Suche nach Experten und das Ranking von Dokumenten auf der Basis der Zentralität von Autoren in Autorennetzwerken.
  5. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.00
    9.2779833E-4 = product of:
      0.017628169 = sum of:
        0.017628169 = weight(_text_:und in 4250) [ClassicSimilarity], result of:
          0.017628169 = score(doc=4250,freq=22.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3248651 = fieldWeight in 4250, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.05263158 = coord(1/19)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  6. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.00
    8.84621E-4 = product of:
      0.016807798 = sum of:
        0.016807798 = weight(_text_:und in 1076) [ClassicSimilarity], result of:
          0.016807798 = score(doc=1076,freq=20.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3097467 = fieldWeight in 1076, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.05263158 = coord(1/19)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.34
  7. Klatt, R.; Gavrilides, K.; Kleinsimglinhausen, K.; Feldmann, M.: Nutzung elektronischer Information in der Hochschulausbildung : Barrieren und Potentiale der innovativen Mediennutzung im Lernalltag der Hochschulen (2001) 0.00
    8.392251E-4 = product of:
      0.015945276 = sum of:
        0.015945276 = weight(_text_:und in 6245) [ClassicSimilarity], result of:
          0.015945276 = score(doc=6245,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29385152 = fieldWeight in 6245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=6245)
      0.05263158 = coord(1/19)
    
  8. Gödert, W.; Hartmann, S.; Hubrich, J.; Lepsky, K.; Schulenborg, K.; Trunk, D.: Semantische Anreicherung der Schlagwortnormdatei : Ergebnisbericht (2004) 0.00
    7.91229E-4 = product of:
      0.015033351 = sum of:
        0.015033351 = weight(_text_:und in 1815) [ClassicSimilarity], result of:
          0.015033351 = score(doc=1815,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27704588 = fieldWeight in 1815, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1815)
      0.05263158 = coord(1/19)
    
    Abstract
    Die Schlagwortnormdatei (SWD) ist mit einem Umfang von ca. 150.000 Sachschlagwörtern das umfangreichste terminologisch kontrollierte deutschsprachige Vokabular, das zur verbalen Inhaltserschließung von Dokumenten genutzt werden und somit prinzipiell auch als Kandidat für den Aufbau semantischer Navigationsstrukturen im Online-Retrieval angesehen werden kann. Die Strukturierung der Schlagwörter in der SWD folgt den Vorgaben zur Ausweisung begrifflicher Strukturen in einem Thesaurus. Durch Veränderungen des der Erstellung der SWD zu Grunde liegenden Regelwerkes RSWK hat sich im Verlauf der Zeit ein Nebeneinander von unterschiedlich dichten Beziehungsnetzen ergeben, ohne dass hierzu bislang Details erhoben und dokumentiert wären. In dieser Studie werden Aussagen über den Aufwand gemacht, der erforderlich wäre, die semantische Relationenstruktur der Schlagwortnormdatei (SWD) zu homogenisieren. Hierzu wird eine quantitative und qualitative Analyse am Beispiel mehrerer Themengebiete vorgenommen. Die Berücksichtigung mehrerer Gebiete soll es gestatten, möglichst repräsentative Aussagen für das gesamte Vokabular abzuleiten. Die Autorinnen und Autoren der Studien sind sich angesichts der zur Verfügung stehenden begrenzten Ressourcen bewusst, dass dieser Anspruch nur mit Einschränkungen eingelöst werden kann. Die für die Analyse der Relationenstruktur benutzten Kriterien orientieren sich an Grundsätzen zur Gestaltung strukturierten Vokabulars sowie insbesondere der Eignung der SWD, zum Aufbau bestandsunabhängiger semantischer Navigationssysteme im Online-Retrieval, für Zwecke des wörterbuchgestützten automatischen Indexierens.
    Mit diesem Kriterium lässt es sich nicht vermeiden, dass Relationen als fehlend charakterisiert werden, auch wenn sie vom Regelwerk nicht gefordert werden. Die Analysen berücksichtigen allerdings die Verzahnung der SWD zum Regelwerk RSWK insoweit, als in der Regel nur bereits vorhandene Schlagwörter betrachtet wurden und nicht auch Lücken analysiert wurden, die allein deswegen vorhandenen sind, weil Schlagwörter wegen nicht vorhandener Bücher (noch) nicht gebildet wurden. Die Funktion der SWD zur terminologischen Ansetzung von Schlagwörtern ist nicht Gegenstand der Studie. Der Bericht dokumentiert zusätzlich Inkonsistenzen, die während der Analysen ermittelt wurden. Ziel dieses Projekts ist es, die tatsächlich erreichte Situation der Relationenstruktur der SWD zu ermitteln sowie Vorschläge auszuarbeiten, an welchen Stellen eine Nachbearbeitung der Relationen erfolgen sollte und wie dies realisiert werden könnte. Bei dieser Analyse wird nicht differenziert zwischen Relationierungen, die vom Regelwerk RSWK gedeckt sind und Relationierungen, die allgemeinen Regeln zur Darstellung begrifflicher Strukturen entsprechen.
    Footnote
    Diese Studie wurde im Auftrag der Deutschen Bibliothek durchgeführt und nicht veröffentlicht.
  9. Calhoun, K.: ¬The changing nature of the catalog and its integration with other discovery tools : Prepared for the Library of Congress (2006) 0.00
    7.8610633E-4 = product of:
      0.014936021 = sum of:
        0.014936021 = product of:
          0.029872041 = sum of:
            0.029872041 = weight(_text_:allgemein in 5013) [ClassicSimilarity], result of:
              0.029872041 = score(doc=5013,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.23221152 = fieldWeight in 5013, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5013)
          0.5 = coord(1/2)
      0.05263158 = coord(1/19)
    
    Theme
    Katalogfragen allgemein
  10. Babeu, A.: Building a "FRBR-inspired" catalog : the Perseus digital library experience (2008) 0.00
    7.8610633E-4 = product of:
      0.014936021 = sum of:
        0.014936021 = product of:
          0.029872041 = sum of:
            0.029872041 = weight(_text_:allgemein in 2429) [ClassicSimilarity], result of:
              0.029872041 = score(doc=2429,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.23221152 = fieldWeight in 2429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2429)
          0.5 = coord(1/2)
      0.05263158 = coord(1/19)
    
    Theme
    Katalogfragen allgemein
  11. Hegner, M.: Methode zur Evaluation von Software (2003) 0.00
    7.2679034E-4 = product of:
      0.013809016 = sum of:
        0.013809016 = weight(_text_:und in 2499) [ClassicSimilarity], result of:
          0.013809016 = score(doc=2499,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.2544829 = fieldWeight in 2499, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
      0.05263158 = coord(1/19)
    
    Abstract
    Der Arbeitsbericht befasst sich mit den zwei unterschiedlichen Usability Methoden, dem Usability Test und den Usability Inspektionsmethoden. Bei den Usability Inspektionsmethoden wird die Benutzungsschnittstelle durch Ergonomieexperten evaluiert. Diese Methoden umfassen die Heuristische Evaluation, standard inspection und cognitive walkthrough, etc. Der Vorteil dieser Inspektionsmethoden liegt darin, dass sie weniger zeitintensiv und kostengünstiger als ein Usability Test sind. Der Usability Test wird im Gegensatz zu den Usability Inspektionsmethoden mit repräsentativen Versuchspersonen durchgeführt. Er ist ein effizientes Mittel um Benutzungsschnittstellen zu evaluieren oder auf deren Benutzungsfreundlichkeit zu überprüfen. Des weiteren erläutert der Arbeitsbericht die verschiedenen Usability Testmethoden sowie die Basiselemente zur Durchführung eines Usability Tests. Abschließend wird noch auf die Varianzanalyse (Analysis of Variance, ANOVA) als ein statistisches Verfahren zur Überprüfung von Mittelwertsunterschieden näher eingegangen.
  12. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.00
    6.993543E-4 = product of:
      0.013287731 = sum of:
        0.013287731 = weight(_text_:und in 4497) [ClassicSimilarity], result of:
          0.013287731 = score(doc=4497,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24487628 = fieldWeight in 4497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
      0.05263158 = coord(1/19)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  13. Binder, G.; Stahl, M.; Faulborn, L.: Vergleichsuntersuchung MESSENGER-FULCRUM (2000) 0.00
    6.923254E-4 = product of:
      0.013154183 = sum of:
        0.013154183 = weight(_text_:und in 4885) [ClassicSimilarity], result of:
          0.013154183 = score(doc=4885,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24241515 = fieldWeight in 4885, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4885)
      0.05263158 = coord(1/19)
    
    Abstract
    In einem Benutzertest, der im Rahmen der Projektes GIRT stattfand, wurde die Leistungsfähigkeit zweier Retrievalsprachen für die Datenbankrecherche überprüft. Die Ergebnisse werden in diesem Bericht dargestellt: Das System FULCRUM beruht auf automatischer Indexierung und liefert ein nach statistischer Relevanz sortiertes Suchergebnis. Die Standardfreitextsuche des Systems MESSENGER wurde um die intellektuell vom IZ vergebenen Deskriptoren ergänzt. Die Ergebnisse zeigen, dass in FULCRUM das Boole'sche Exakt-Match-Retrieval dem Verktos-Space-Modell (Best-Match-Verfahren) von den Versuchspersonen vorgezogen wurde. Die in MESSENGER realisierte Mischform aus intellektueller und automatischer Indexierung erwies sich gegenüber dem quantitativ-statistischen Ansatz beim Recall als überlegen
  14. Krause, J.: Integration von Ansätzen neuronaler Netzwerke in die Systemarchitektur von ViBSoz und CARMEN (2001) 0.00
    6.923254E-4 = product of:
      0.013154183 = sum of:
        0.013154183 = weight(_text_:und in 1698) [ClassicSimilarity], result of:
          0.013154183 = score(doc=1698,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24241515 = fieldWeight in 1698, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
      0.05263158 = coord(1/19)
    
    Abstract
    Neben Crosskonkordanzen, qualitativ-deduktiven Methoden und statistischen Verfahren gehört zu den Grundstrategien der Behandlung semantischer Heterogenität auch der Einsatz neuronaler Netze in Transfermodulen zwischen Dokumentenbeständen mit unterschiedlichen Inhaltserschließungssystemen. Sowohl die Frage, welches Netzwerkmodell am erfolgsversprechendsten ist, als auch die Frage, ob neuronale Netze im Kontext integrierter Fachinformationssysteme in der Praxis einen Mehrwert erbringen können, ist bisher in der Forschung kaum behandelt worden. Deshalb wurde diese Thematik in einer Kooperation vom IZ mit der Universität Hildesheim im Rahmen eines Promotionsvorhabens (Mandl, T.) erforscht
  15. Report on the future of bibliographic control : draft for public comment (2007) 0.00
    5.8957975E-4 = product of:
      0.011202015 = sum of:
        0.011202015 = product of:
          0.02240403 = sum of:
            0.02240403 = weight(_text_:allgemein in 1271) [ClassicSimilarity], result of:
              0.02240403 = score(doc=1271,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.17415863 = fieldWeight in 1271, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1271)
          0.5 = coord(1/2)
      0.05263158 = coord(1/19)
    
    Theme
    Katalogfragen allgemein
  16. Mandl, T.: Einsatz neuronaler Netze als Transferkomponenten beim Retrieval in heterogenen Dokumentbeständen (2000) 0.00
    5.594834E-4 = product of:
      0.010630185 = sum of:
        0.010630185 = weight(_text_:und in 6563) [ClassicSimilarity], result of:
          0.010630185 = score(doc=6563,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.19590102 = fieldWeight in 6563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6563)
      0.05263158 = coord(1/19)
    
    Abstract
    Die zunehmende weltweite Vernetzung und der aufbau von digitalen Bibliotheken führt zu neuen Möglichkeiten bei der Suche in mehreren Datenbeständen. Dabei entsteht das Problem der semantischen Heterogenität, da z.B. Begriffe in verschiedenen Kontexten verschiedene Bedeutung haben können. Die dafür notwendigen Transferkomponenten bilden eine neue Herausforderung, für die neuronale Netze gut geeignet sind

Languages

  • d 31
  • e 4

Types