Search (48 results, page 1 of 3)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.10
    0.09596038 = product of:
      0.4798019 = sum of:
        0.4798019 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
          0.4798019 = score(doc=973,freq=2.0), product of:
            0.4268563 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.050348636 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.2 = coord(1/5)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Mateika, O,: Feasibility-Studie zur Eignung der Pressedatenbank Archimedes zum Einsatz in der Pressedokumentation des Norddeutschen Rundfunks (2004) 0.05
    0.0462022 = product of:
      0.231011 = sum of:
        0.231011 = weight(_text_:studie in 3712) [ClassicSimilarity], result of:
          0.231011 = score(doc=3712,freq=4.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.7573166 = fieldWeight in 3712, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.0625 = fieldNorm(doc=3712)
      0.2 = coord(1/5)
    
    Abstract
    Das Datenbanksystem Planet, derzeit eingesetzt als Information Retrieval System in Pressearchiven innerhalb des SAD-Verbunds der ARD, soll durch ein mindestens gleichwertiges System abgelöst werden. Archimedes, derzeit eingesetzt im Dokumentationsbereich des Westdeutschen Rundfunks Köln, ist eine mögliche Alternative. Ob es die Vorgaben und Anforderungen erfüllt, wird mit Hilfe einer Feasibility-Studie geprüft, notwendige Funktionalitäten und strategisch-qualitative Anforderungen bewertet.
  3. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.04
    0.039983492 = product of:
      0.19991747 = sum of:
        0.19991747 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
          0.19991747 = score(doc=4997,freq=2.0), product of:
            0.4268563 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.050348636 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.2 = coord(1/5)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  4. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.04
    0.039983492 = product of:
      0.19991747 = sum of:
        0.19991747 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
          0.19991747 = score(doc=4388,freq=2.0), product of:
            0.4268563 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.050348636 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.2 = coord(1/5)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  5. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.04
    0.039983492 = product of:
      0.19991747 = sum of:
        0.19991747 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
          0.19991747 = score(doc=855,freq=2.0), product of:
            0.4268563 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.050348636 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.2 = coord(1/5)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  6. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.04
    0.039983492 = product of:
      0.19991747 = sum of:
        0.19991747 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
          0.19991747 = score(doc=1000,freq=2.0), product of:
            0.4268563 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.050348636 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.2 = coord(1/5)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  7. Werther, S.: Bei Anruf Film : Strukturen, Methoden und Chancen produktionsintegrierter Filmrecherche im internationalen Vergleich (1997) 0.03
    0.03465165 = product of:
      0.17325824 = sum of:
        0.17325824 = weight(_text_:studie in 1498) [ClassicSimilarity], result of:
          0.17325824 = score(doc=1498,freq=4.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.56798744 = fieldWeight in 1498, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.046875 = fieldNorm(doc=1498)
      0.2 = coord(1/5)
    
    Abstract
    In einer explorartiven Studie werden Arbeitsbedingungen, -strukturen und -methoden englischer und U.S.-amerikanischer Free lance film researcher beschrieben und vor diesem Hintergrund die Möglichkeiten des Einsatzes freiberuflicher Filmrechercheure auch im Rahmen bundesdeutscher Film- und Fernsehproduktion beurteilt. Der erste Teil der Untersuchung befaßt sich mit der Notwendigkeit produktionsintegrierter Film- und Fernsehrecherche und stellt typische Aufgaben- und Verantwortungsbereiche von Filmresearchern vor. Auf der Grundlage einer leitfadengestützten, standardisierten Tiefenbefragung von 8 englischen und 8 amerikanischen Filmrechercheuren sowie von Recherchemitarbeitern in 3 deutschen Fernsehredaktionen werden zunächst die politisch-rechtlichen, medienwirtschaftlichen und quellenbezogenen Rahmenbedingungen geschildert, unter denen die anglo-amerikanischen Filmrechercheure arbeiten. Vergleichend werden deren Qulifikationen und Voraussetzungen charakterisiert, Aufgaben und Arbeitsfelder erläutert, es werden arbeitsrechtliche Grundlagen verdeutlicht sowie die besonderen Arbeitsmethoden und Hilfsmittel von Filmrechercheuren vorgestellt. Ähnlichkeiten und Unterschiede zwischen der produktionsintegrierten Filmrecherche in den USA und in Großbritannien werden der Situation von recherchierenden Mitarbeitern in deutschen Redaktionen gegenübergestellt. Zuletzt weist die Studie die ablauforganisatorischen, produktionsinhaltlichen und ökonomischen Vorteile nach, die sich durch den Einsatz von freiberuflichen Filmrechercheuren in bundesrepublikanischen Sendeanstalten und Fernsehproduktionsfirmen erzielen lassen
  8. Heckel, S.-M.: Cineastische Datenbanken auf CD-ROM als Hilfsmittel der Redaktion : eine vergleichende Studie zu Inhalt und Nutzungsqualität elektronischer Filmlexika (1997) 0.03
    0.032669887 = product of:
      0.16334943 = sum of:
        0.16334943 = weight(_text_:studie in 1495) [ClassicSimilarity], result of:
          0.16334943 = score(doc=1495,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.5355037 = fieldWeight in 1495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.0625 = fieldNorm(doc=1495)
      0.2 = coord(1/5)
    
  9. Becker, T.: Potentielle Funktionen von Wissensmanagement in Öffentlichen Bibliotheken : eine szenariobasierte Delphi-Studie mit Wissensexperten aus britischen und deutschen Großstadtbibliotheken (2014) 0.03
    0.032669887 = product of:
      0.16334943 = sum of:
        0.16334943 = weight(_text_:studie in 2093) [ClassicSimilarity], result of:
          0.16334943 = score(doc=2093,freq=8.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.5355037 = fieldWeight in 2093, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.03125 = fieldNorm(doc=2093)
      0.2 = coord(1/5)
    
    Abstract
    Nach der Herleitung und Skizzierung der 'szenariobasierten Delphi-Studie' als Untersuchungsmethode und Präsentation des Forschungsdesigns werden Konzepte von Wissensmanagement über einen Literatur- Review in den Kontext des aktuellen Forschungsstandes gestellt. Diese Bestandsaufnahme der Gegenwart ist in erster Linie abgeleitet aus Fachveröffentlichungen zum Wissensmanagement im Allgemeinen und denen der BID-Community im Besonderen. Welche Rolle spielt Wissensmanagement gegenwärtig in der bibliothekarischen Praxis Öffentlicher Bibliotheken der im Untersuchungsfokus stehenden Nationen? Was verbindet die Arbeit mit Wissensmanagement in den Öffentlichen Bibliotheken der beiden Nationen und (wo) sind Unterschiede zu finden? Diese Verifizierung des Status quo ist nur ein Teil der vorliegenden Arbeit, Schwerpunkt bildet der Blick in die kommende Zeit. Hat Wissensmanagement eine Zukunft in der Öffentlichen Bibliothek? Wenn ja, wie sieht diese aus und in welcher Intention wird Wissensmanagement eingesetzt? Stellt es mehr als nur ein Instrument der innerbetrieblichen Organisationsoptimierung dar? Wird Wissensmanagement im Sinne des Erwerbs von Demokratiekompetenz an den Endkunden quasi als Werkzeugkoffer weitergegeben? Hilft es den Öffentlichen Bibliotheken im Sinne einer systemischen kommunalen Legitimierung? Mit den Methoden Szenariotechnik und Delphi-Studie werden auf Basis der Aussagen ausgewählter Wissensexperten aus den Großstadtbibliotheken beider Länder Trendprojektionen erstellt, die ihrerseits in einem die Studie abschließenden konsensualen Szenario münden. Auf dem Weg dorthin werden im Laufe von iterativen Befragungen zudem für die Praxis adaptierbare Handlungsoptionen für die Öffentliche Bibliothek der Zukunft generiert und anhand ausgewählter Expertenaussagen im Sinne von Best-Practise-Beispielen und -Ideen in die Arbeit integriert. Wissensmanagement, so das Ergebnis der Untersuchung, der professionelle Umgang mit der Ressource Wissen in den Dimensionen Individuelles, Internes, Externes und Systemisches Wissensmanagement, findet bereits gegenwärtig in Öffentliche Bibliotheken statt; Wissensmanagement wird, so konstatieren die Wissensexperten weiter, zudem sowohl in Großbritannien als auch in Deutschland zukünftig als andauernde Querschnittsaufgabe jeder Öffentlichen Bibliothek angesehen und mit unterschiedlicher Intensität, unter heterogenen Rahmenbedingungen, aber immer mit vielversprechendem Erfolg betrieben werden.
  10. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.03
    0.031986795 = product of:
      0.15993397 = sum of:
        0.15993397 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
          0.15993397 = score(doc=701,freq=2.0), product of:
            0.4268563 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.050348636 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.2 = coord(1/5)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  11. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.03
    0.031986795 = product of:
      0.15993397 = sum of:
        0.15993397 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
          0.15993397 = score(doc=5820,freq=2.0), product of:
            0.4268563 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.050348636 = queryNorm
            0.3746787 = fieldWeight in 5820, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.2 = coord(1/5)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  12. Chen, X.: Indexing consistency between online catalogues (2008) 0.03
    0.028876374 = product of:
      0.14438187 = sum of:
        0.14438187 = weight(_text_:studie in 2209) [ClassicSimilarity], result of:
          0.14438187 = score(doc=2209,freq=4.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.47332287 = fieldWeight in 2209, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2209)
      0.2 = coord(1/5)
    
    Abstract
    In der globalen Online-Umgebung stellen viele bibliographische Dienstleistungen integrierten Zugang zu unterschiedlichen internetbasierten OPACs zur Verfügung. In solch einer Umgebung erwarten Benutzer mehr Übereinstimmungen innerhalb und zwischen den Systemen zu sehen. Zweck dieser Studie ist, die Indexierungskonsistenz zwischen Systemen zu untersuchen. Währenddessen werden einige Faktoren, die die Indexierungskonsistenz beeinflussen können, untersucht. Wichtigstes Ziel dieser Studie ist, die Gründe für die Inkonsistenzen herauszufinden, damit sinnvolle Vorschläge gemacht werden können, um die Indexierungskonsistenz zu verbessern. Eine Auswahl von 3307 Monographien wurde aus zwei chinesischen bibliographischen Katalogen gewählt. Nach Hooper's Formel war die durchschnittliche Indexierungskonsistenz für Indexterme 64,2% und für Klassennummern 61,6%. Nach Rolling's Formel war sie für Indexterme 70,7% und für Klassennummern 63,4%. Mehrere Faktoren, die die Indexierungskonsistenz beeinflussen, wurden untersucht: (1) Indexierungsbereite; (2) Indexierungsspezifizität; (3) Länge der Monographien; (4) Kategorie der Indexierungssprache; (5) Sachgebiet der Monographien; (6) Entwicklung von Disziplinen; (7) Struktur des Thesaurus oder der Klassifikation; (8) Erscheinungsjahr. Gründe für die Inkonsistenzen wurden ebenfalls analysiert. Die Analyse ergab: (1) den Indexieren mangelt es an Fachwissen, Vertrautheit mit den Indexierungssprachen und den Indexierungsregeln, so dass viele Inkonsistenzen verursacht wurden; (2) der Mangel an vereinheitlichten oder präzisen Regeln brachte ebenfalls Inkonsistenzen hervor; (3) verzögerte Überarbeitungen der Indexierungssprachen, Mangel an terminologischer Kontrolle, zu wenige Erläuterungen und "siehe auch" Referenzen, sowie die hohe semantische Freiheit bei der Auswahl von Deskriptoren oder Klassen, verursachten Inkonsistenzen.
  13. Holzheid, G.: Dublin Core, SGML und die Zukunft der Erschließung am Beispiel einer Studie zur Optimierung des Dokumentenmanagements einer großen Nichtregierungsorganisation (2005) 0.03
    0.028586153 = product of:
      0.14293076 = sum of:
        0.14293076 = weight(_text_:studie in 2192) [ClassicSimilarity], result of:
          0.14293076 = score(doc=2192,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.46856573 = fieldWeight in 2192, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2192)
      0.2 = coord(1/5)
    
  14. Grün, S.: Bildung von Komposita-Indextermen auf der Basis einer algorithmischen Mehrwortgruppenanalyse mit Lingo (2015) 0.02
    0.024502417 = product of:
      0.12251209 = sum of:
        0.12251209 = weight(_text_:studie in 1335) [ClassicSimilarity], result of:
          0.12251209 = score(doc=1335,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.40162778 = fieldWeight in 1335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.046875 = fieldNorm(doc=1335)
      0.2 = coord(1/5)
    
    Abstract
    In der deutschen Sprache lassen sich Begriffe durch Komposita und Mehrwortgruppen ausdrücken. Letztere können dabei aber auch als Kompositum selbst ausgedrückt werden und entsprechend auf den gleichen Begriff verweisen. In der nachfolgenden Studie werden Mehrwortgruppen analysiert, die auch Komposita sein können. Ziel der Untersuchung ist es, diese Wortfolgen über Muster zu identifizieren. Analysiert wurden Daten des Karrieremanagers Placement24 GmbH - in Form von Stellenanzeigen. Die Extraktion von Mehrwortgruppen erfolgte algorithmisch und wurde mit der Open-Source Software Lingo durch geführt. Auf der Basis von Erweiterungen bzw. Anpassungen in Wörterbüchern und den darin getaggten Wörtern wurde drei- bis fünfstelligen Kandidaten analysiert. Aus positiv bewerteten Mehrwortgruppen wurden Komposita gebildet. Diese wurden mit den identifizierten Komposita aus den Stellenanzeigen verglichen. Der Vergleich zeigte, dass ein Großteil der neu generierten Komposita nicht durch eine Kompositaidentifizierung erzeugt wurde.
  15. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.02
    0.0231011 = product of:
      0.1155055 = sum of:
        0.1155055 = weight(_text_:studie in 1076) [ClassicSimilarity], result of:
          0.1155055 = score(doc=1076,freq=4.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.3786583 = fieldWeight in 1076, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.2 = coord(1/5)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
  16. Stünkel, M.: Neuere Methoden der inhaltlichen Erschließung schöner Literatur in öffentlichen Bibliotheken (1986) 0.02
    0.021828944 = product of:
      0.10914472 = sum of:
        0.10914472 = weight(_text_:22 in 5815) [ClassicSimilarity], result of:
          0.10914472 = score(doc=5815,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.61904186 = fieldWeight in 5815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.125 = fieldNorm(doc=5815)
      0.2 = coord(1/5)
    
    Date
    4. 8.2006 21:35:22
  17. Lennard, H.; Surkau, M.: Benutzerevaluation und Usability-Test zur neuen Suchoberfläche Primo (Ex Libris) (2011) 0.02
    0.02041868 = product of:
      0.1020934 = sum of:
        0.1020934 = weight(_text_:studie in 4033) [ClassicSimilarity], result of:
          0.1020934 = score(doc=4033,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.3346898 = fieldWeight in 4033, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4033)
      0.2 = coord(1/5)
    
    Abstract
    Zum Wintersemester 2010/11 wurde von der Universitätsbibliothek der Freien Universität Berlin das neue Bibliotheksportal Primo eingeführt, das auf der gleichnamigen Software der Firma Ex Libris basiert. Zunächst in einem "soft launch" als Betaversion live geschaltet, soll es in naher Zukunft den derzeitigen Katalog und die Digitale Bibliothek als Suchoberflächen ersetzen. Diese Situation bot einen optimalen Ausgangspunkt für eine Studie zur Usability des neuen Portals, da deren Ergebnisse direkt in die Neugestaltung der Relaunch-Version einfließen können. Um verschiedene Arten von Usability-Problemen des Bibliotheksportal Primo zu identifizieren, haben sich die Autorinnen einer Methodenkombination bedient. Zum einen wurde eine Heuristische Evaluation und zum anderen 20 Usability-Tests der deutschsprachigen Oberfläche des Portals durchgeführt. Die detaillierte Darstellung der so festgestellten Usability-Probleme bildet den Kern der Arbeit. Als Basis für das Verständnis des Systems und der methodischen Vorgehensweise, wird außerdem Primo im Kontext der "Neuen Kataloge" und deren Funktionalitäten näher beleuchtet, sowie die theoretischen Grundlagen der in der Arbeit verwendeten Methoden der Usability-Evaluation dargestellt.
  18. Grün, S.: Mehrwortbegriffe und Latent Semantic Analysis : Bewertung automatisch extrahierter Mehrwortgruppen mit LSA (2017) 0.02
    0.02041868 = product of:
      0.1020934 = sum of:
        0.1020934 = weight(_text_:studie in 3954) [ClassicSimilarity], result of:
          0.1020934 = score(doc=3954,freq=2.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.3346898 = fieldWeight in 3954, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3954)
      0.2 = coord(1/5)
    
    Abstract
    Die vorliegende Studie untersucht das Potenzial von Mehrwortbegriffen für das Information Retrieval. Zielsetzung der Arbeit ist es, intellektuell positiv bewertete Kandidaten mithilfe des Latent Semantic Analysis (LSA) Verfahren höher zu gewichten, als negativ bewertete Kandidaten. Die positiven Kandidaten sollen demnach bei einem Ranking im Information Retrieval bevorzugt werden. Als Kollektion wurde eine Version der sozialwissenschaftlichen GIRT-Datenbank (German Indexing and Retrieval Testdatabase) eingesetzt. Um Kandidaten für Mehrwortbegriffe zu identifizieren wurde die automatische Indexierung Lingo verwendet. Die notwendigen Kernfunktionalitäten waren Lemmatisierung, Identifizierung von Komposita, algorithmische Mehrworterkennung sowie Gewichtung von Indextermen durch das LSA-Modell. Die durch Lingo erkannten und LSAgewichteten Mehrwortkandidaten wurden evaluiert. Zuerst wurde dazu eine intellektuelle Auswahl von positiven und negativen Mehrwortkandidaten vorgenommen. Im zweiten Schritt der Evaluierung erfolgte die Berechnung der Ausbeute, um den Anteil der positiven Mehrwortkandidaten zu erhalten. Im letzten Schritt der Evaluierung wurde auf der Basis der R-Precision berechnet, wie viele positiv bewerteten Mehrwortkandidaten es an der Stelle k des Rankings geschafft haben. Die Ausbeute der positiven Mehrwortkandidaten lag bei durchschnittlich ca. 39%, während die R-Precision einen Durchschnittswert von 54% erzielte. Das LSA-Modell erzielt ein ambivalentes Ergebnis mit positiver Tendenz.
  19. Liebwald, D.: Evaluierung juristischer Datenbanken (2003) 0.02
    0.020213462 = product of:
      0.10106731 = sum of:
        0.10106731 = weight(_text_:studie in 2490) [ClassicSimilarity], result of:
          0.10106731 = score(doc=2490,freq=4.0), product of:
            0.30503887 = queryWeight, product of:
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.050348636 = queryNorm
            0.331326 = fieldWeight in 2490, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0585327 = idf(docFreq=280, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2490)
      0.2 = coord(1/5)
    
    Footnote
    Der Hauptteil der Studie umfasst nun fragebogenartig strukturierte Angaben zu insgesamt 18 österreichischen Rechtsinformationsdatenbanken und zwar: Das große - aber wohl nicht zu verhindern gewesene - Manko dieses Abschnittes ist nun, dass er den Stand von Frühjahr/Sommer 2002 wiedergibt und damit zum größten Teil nicht mehr aktuell ist, denn auf dem Rechtsinformationsmarkt ergaben sich in Ietzter Zeit eine Vielzahl an Änderungen durch Verlags- und Produktverschränkungen, technische Neuerungen und Neugestaltung vieler online-Datenbanken. Der Dokumentationsteil hat damit heute fast nur mehr rechtshistorischen Wert. Beispiele: Die "Arbeitsrecht CD-Rom" wurde bereits vom Markt genommen. - "jusline-pro" dürfte auch nicht mehr existieren, zumindest erscheint im Netz an dem angegebenen URL nun schon seit geraumer Zeit ein Hin weis darauf, dass das System "momentan" (sic) nicht zur Verfügung steht. - "Orac Online" und "ARD Online" wurden mittlerweile verändert und zusammengeführt. - Der Parlamentsserver (http://www.parlinkom.gv.at) hat einen umfassenden grafischen Relaunch hinter sich gebracht, der sich leider nicht zum Vorteil des Nutzers auswirkt. Zugegeben, das alte Design wirkte billig, veraltet und unschön, aber man fand schnell und zügig die "Stenographischen Protokolle" und die "Materialien". Das neue Design fällt trotzdem weit hinter die praktikablen Standards anderer europäischer Parlamente zurück. Leider wurde hier eine Chance vertan. Die Angesprochenen rechtsrelevanten Inhalte sind zwar weiterhin und in großer Menge vorhanden, doch erfordert die Suche nun ein gewisses Maß an archivarischem Fleiß. Viele Nutzer, die sich zuvor sehr leicht getan haben, hatten nach der Umstellung der Website massive Probleme. Vielleicht hätte man hier sinnvollerweise die Publikums-Website mit den allgemeinen Daten zum Parlamentvon der Datenbank-Website mit den gesetzgebungsrelevanten Daten trennen und letztere benutzerfreundlicher aufbereiten sollen. - Die RDB hat nun ein neues Content-Portal eröffnet, das mit dem alten, hier dargestellten, kaum mehr etwas gemeinsam hat. - Im RIS werden seit Anfang 2004 die Bundesgesetzblätter authentisch kundgemacht. - Die Steuerdatenbank ist nunmehr mit der SWK-Online vereinigt. Das mag hier als Hinweis genügen. Ein kurzes zehnseitiges "Ergebnis" beschließt die Studie. Hierwurde die Chance vertan, die dargestellten Datenbanken umfassender zu vergleichen und Unterschiede, Vorteile, Nutzungsmöglichkeiten, Praxisvor- und -nach teile usw. etwa mittels eines standardisierten Tests herauszuarbeiten. Die Arbeit wird ihren Wert vor allem darin entfalten, Datenbankanbieter zu einer Verbesserung ihrer Datenbanken anzuregen. Der Hinweis, dass "die dem User zur Verfügung gestellten Hilfefunktionen und Informationen als untauglich oder unzureichend zu bewerten sind" (S. 191), sollten sich wirklich alle Datenbankanbieter auf diesem Gebiet zu Herzen nehmen."
  20. Menges, T.: Möglichkeiten und Grenzen der Übertragbarkeit eines Buches auf Hypertext am Beispiel einer französischen Grundgrammatik (Klein; Kleineidam) (1997) 0.02
    0.019100327 = product of:
      0.09550163 = sum of:
        0.09550163 = weight(_text_:22 in 1496) [ClassicSimilarity], result of:
          0.09550163 = score(doc=1496,freq=2.0), product of:
            0.17631234 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050348636 = queryNorm
            0.5416616 = fieldWeight in 1496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.109375 = fieldNorm(doc=1496)
      0.2 = coord(1/5)
    
    Date
    22. 7.1998 18:23:25

Languages

  • d 37
  • e 9
  • a 1
  • hu 1
  • More… Less…

Types