Search (169 results, page 1 of 9)

  • × type_ss:"x"
  1. Parsian, D.: Überlegungen zur Aufstellungssystematik und Reklassifikation an der Fachbereichsbibliothek Afrikawissenschaften und Orientalistik (2007) 0.04
    0.036330536 = product of:
      0.07266107 = sum of:
        0.032293808 = product of:
          0.16146904 = sum of:
            0.16146904 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.16146904 = score(doc=3396,freq=2.0), product of:
                0.29975477 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.030740997 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.2 = coord(1/5)
        0.04036726 = product of:
          0.16146904 = sum of:
            0.16146904 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.16146904 = score(doc=3396,freq=2.0), product of:
                0.29975477 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.030740997 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.25 = coord(1/4)
      0.5 = coord(2/4)
    
    Footnote
    Vgl. unter: http://othes.univie.ac.at/3016/1/Parsian_%C3%9Cberlegungen_zur_Aufstellungssystematik_und_Reklassifikation_an_der_AFOR.pdf.
  2. Stünkel, M.: Neuere Methoden der inhaltlichen Erschließung schöner Literatur in öffentlichen Bibliotheken (1986) 0.03
    0.033485513 = product of:
      0.06697103 = sum of:
        0.03365118 = weight(_text_:m in 5815) [ClassicSimilarity], result of:
          0.03365118 = score(doc=5815,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.4398997 = fieldWeight in 5815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.125 = fieldNorm(doc=5815)
        0.033319846 = product of:
          0.06663969 = sum of:
            0.06663969 = weight(_text_:22 in 5815) [ClassicSimilarity], result of:
              0.06663969 = score(doc=5815,freq=2.0), product of:
                0.107649736 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030740997 = queryNorm
                0.61904186 = fieldWeight in 5815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5815)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    4. 8.2006 21:35:22
  3. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.03
    0.030529462 = product of:
      0.061058924 = sum of:
        0.01682559 = weight(_text_:m in 4499) [ClassicSimilarity], result of:
          0.01682559 = score(doc=4499,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.21994986 = fieldWeight in 4499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.044233333 = product of:
          0.08846667 = sum of:
            0.08846667 = weight(_text_:da in 4499) [ClassicSimilarity], result of:
              0.08846667 = score(doc=4499,freq=4.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.59977156 = fieldWeight in 4499, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4499)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    Diplomarbeit zur Erlangung des Grades eines Diplom-Wirtschaftsinformatikers (FH) der Hochschule Wismar. Vgl.: http://www.wi.hs-wismar.de/~cleve/vorl/projects/da/DA-FS-Haas.pdf.
  4. Bender, B.: Digitale Mündigkeit? : Definition und Dimensionen: eine theoretische Fundierung zwischen Medienbildung und Medienkompetenz (2016) 0.03
    0.029064432 = product of:
      0.058128864 = sum of:
        0.02583505 = product of:
          0.12917525 = sum of:
            0.12917525 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.12917525 = score(doc=4089,freq=2.0), product of:
                0.29975477 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.030740997 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.2 = coord(1/5)
        0.03229381 = product of:
          0.12917525 = sum of:
            0.12917525 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.12917525 = score(doc=4089,freq=2.0), product of:
                0.29975477 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.030740997 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.25 = coord(1/4)
      0.5 = coord(2/4)
    
    Content
    Bachelorarbeit, angefertigt im Studiengang B.A. Bildungswissenschaft an der FernUniversität in Hagen - Fakultät Kultur- und Sozialwissenschaften - Institut für Bildungswissenschaft und Medienforschung Lehrgebiet Bildungstheorie und Medienpädagogik. Vgl.: https://lesen-schreiben-bilden.net/wp-content/uploads/2017/02/BA_BB_ohnePr%C3%A4si_public.pdf.
  5. Czechowski, M.: Konzept zur Realisierung eines digitalen Firmenarchivs am Beispiel Deutsche Lufthansa AG (2006) 0.02
    0.02405164 = product of:
      0.04810328 = sum of:
        0.01682559 = weight(_text_:m in 109) [ClassicSimilarity], result of:
          0.01682559 = score(doc=109,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.21994986 = fieldWeight in 109, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0625 = fieldNorm(doc=109)
        0.03127769 = product of:
          0.06255538 = sum of:
            0.06255538 = weight(_text_:da in 109) [ClassicSimilarity], result of:
              0.06255538 = score(doc=109,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.42410251 = fieldWeight in 109, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0625 = fieldNorm(doc=109)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Die vorliegende Diplomarbeit zeigt auf, wie ein digitales, web-basiertes Wirtschaftsarchiv trotz begrenzter Ressourcen realisiert werden kann. Dabei werden auch die Probleme der Langzeitarchivierung thematisiert und der neue ISO-Standard PDF/A als neuer Lösungsansatz vorgestellt. Weiter wird ein Information-Retrieval-System vorgestellt, das die mitunter arbeitsaufwändige inhaltliche Erschließung eigenständig durchführt und sowohl Laien als auch Spezialisten eine angemessene Recherchemöglichkeit bietet. Das Konzept ist ausschliesslich auf private Wirtschaftsarchive ausgerichtet, da rechtliche Aspekte - die z.B. in der revissionsicheren Archivierung eine Rolle spielen - nicht berücksichtigt werden.
  6. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2003) 0.02
    0.01803873 = product of:
      0.03607746 = sum of:
        0.012619193 = weight(_text_:m in 2504) [ClassicSimilarity], result of:
          0.012619193 = score(doc=2504,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.1649624 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
        0.023458267 = product of:
          0.046916533 = sum of:
            0.046916533 = weight(_text_:da in 2504) [ClassicSimilarity], result of:
              0.046916533 = score(doc=2504,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.31807688 = fieldWeight in 2504, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2504)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
  7. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2004) 0.02
    0.01803873 = product of:
      0.03607746 = sum of:
        0.012619193 = weight(_text_:m in 4941) [ClassicSimilarity], result of:
          0.012619193 = score(doc=4941,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.1649624 = fieldWeight in 4941, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.046875 = fieldNorm(doc=4941)
        0.023458267 = product of:
          0.046916533 = sum of:
            0.046916533 = weight(_text_:da in 4941) [ClassicSimilarity], result of:
              0.046916533 = score(doc=4941,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.31807688 = fieldWeight in 4941, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4941)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
  8. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.02
    0.01746421 = product of:
      0.03492842 = sum of:
        0.024412425 = product of:
          0.122062124 = sum of:
            0.122062124 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.122062124 = score(doc=4997,freq=2.0), product of:
                0.2606225 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.030740997 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.2 = coord(1/5)
        0.010515994 = weight(_text_:m in 4997) [ClassicSimilarity], result of:
          0.010515994 = score(doc=4997,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.13746867 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.5 = coord(2/4)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  9. Rautenberg, M.: Konzeption eines Internetangebots für Kinder über Buchautoren und -autorinnen im Rahmen der europäischen virtuellen Kinderbibliothek CHILIAS (1997) 0.02
    0.016742757 = product of:
      0.033485513 = sum of:
        0.01682559 = weight(_text_:m in 1491) [ClassicSimilarity], result of:
          0.01682559 = score(doc=1491,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.21994986 = fieldWeight in 1491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0625 = fieldNorm(doc=1491)
        0.016659923 = product of:
          0.033319846 = sum of:
            0.033319846 = weight(_text_:22 in 1491) [ClassicSimilarity], result of:
              0.033319846 = score(doc=1491,freq=2.0), product of:
                0.107649736 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030740997 = queryNorm
                0.30952093 = fieldWeight in 1491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1491)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    22. 7.1998 18:00:49
  10. Poser, M.: Analyse und Bewertung ausgewählter Funktionen von ALEPH-Katalogen in Bezug auf Anforderungen und Erwartungen aus Benutzersicht (2008) 0.02
    0.015264731 = product of:
      0.030529462 = sum of:
        0.008412795 = weight(_text_:m in 3269) [ClassicSimilarity], result of:
          0.008412795 = score(doc=3269,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.10997493 = fieldWeight in 3269, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.03125 = fieldNorm(doc=3269)
        0.022116667 = product of:
          0.044233333 = sum of:
            0.044233333 = weight(_text_:da in 3269) [ClassicSimilarity], result of:
              0.044233333 = score(doc=3269,freq=4.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.29988578 = fieldWeight in 3269, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3269)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Aus Benutzersicht verkörpern Online-Kataloge "the most visible form of library automation." Entweder über das lokale Netzwerk innerhalb der Bibliothek oder eingebunden in das Web-Portal von außerhalb zugänglich, bildet der Online-Katalog den zentralen Ausgangspunkt für die Recherche in Bibliotheksbeständen. Er ist zugleich Kernbestandteil eines integrierten Bibliothekssystems, dessen Entwicklung "has been one of movement from centralized systems, designed and controlled by system designers and programmers, to more and more distributed and customizable systems." Letztgenannte Eigenschaft kennzeichnet auch das Bibliothekssystem ALEPH 500, das vor zehn Jahren mit der Einführung durch die Vorarlberger Landesbibliothek in Bregenz/ Österreich seinen Einzug in den deutschsprachigen Raum startete. Bereits ein Jahr später wurde die Anwendung von den vier Berliner Universitätsbibliotheken in Betrieb genommen und ist seit 2002 auch in der Senatsbibliothek Berlin im Einsatz. Der wiederholte Kontakt mit dem ALEPH-System - sei es im Rahmen von Literaturrecherche, Praktikum oder universitärem Veranstaltungsangebot - gab Anlass für eine nähere Beschäftigung mit diesem Thema. Ziel der vorliegenden Arbeit ist die Auseinandersetzung mit der Funktionalität von ALEPH-Katalogen und das Herausstellen ihrer Unterschiede im Umfang und in der Ausgestaltung des Angebots hinsichtlich der Ausrichtung auf die Bedürfnisse der Benutzer. Angesichts der gestiegenen Erwartungshaltung in Bezug auf eine schnelle und zuverlässige Informationsbeschaffung soll der Frage nachgegangen werden, in welchem Ausmaß die verfügbaren Möglichkeiten des Softwaresystems ausgeschöpft bzw. zusätzlich ergänzt werden. Die Untersuchung beschränkt sich ausschließlich auf deutschsprachige Kataloge, um aufgrund der ähnlichen Randbedingungen eine bessere Vergleichbarkeit zu gewährleisten. Auf Aspekte der Gestaltung und der Barrierefreiheit wird dabei nicht näher eingegangen, da diese wiederum selbst eigenständige Themengebiete darstellen. Auch der Bereich der Online-Hilfen ist von der Untersuchung ausgenommen, da diese bereits an anderer Stelle ausführlich behandelt wurden. Die Aufbereitung der Ergebnisse betrachtet die untersuchten Online-Kataloge überwiegend in ihrer Gesamtheit, einige beispielhafte Fälle werden zur Demonstration hervorgehoben. Die genauen Resultate sind im Einzelnen erfasst und können der Tabelle im Anhang entnommen werden.
  11. Lennard, H.; Surkau, M.: Benutzerevaluation und Usability-Test zur neuen Suchoberfläche Primo (Ex Libris) (2011) 0.02
    0.015032275 = product of:
      0.03006455 = sum of:
        0.010515994 = weight(_text_:m in 4033) [ClassicSimilarity], result of:
          0.010515994 = score(doc=4033,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.13746867 = fieldWeight in 4033, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4033)
        0.019548554 = product of:
          0.039097108 = sum of:
            0.039097108 = weight(_text_:da in 4033) [ClassicSimilarity], result of:
              0.039097108 = score(doc=4033,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.26506406 = fieldWeight in 4033, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4033)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Zum Wintersemester 2010/11 wurde von der Universitätsbibliothek der Freien Universität Berlin das neue Bibliotheksportal Primo eingeführt, das auf der gleichnamigen Software der Firma Ex Libris basiert. Zunächst in einem "soft launch" als Betaversion live geschaltet, soll es in naher Zukunft den derzeitigen Katalog und die Digitale Bibliothek als Suchoberflächen ersetzen. Diese Situation bot einen optimalen Ausgangspunkt für eine Studie zur Usability des neuen Portals, da deren Ergebnisse direkt in die Neugestaltung der Relaunch-Version einfließen können. Um verschiedene Arten von Usability-Problemen des Bibliotheksportal Primo zu identifizieren, haben sich die Autorinnen einer Methodenkombination bedient. Zum einen wurde eine Heuristische Evaluation und zum anderen 20 Usability-Tests der deutschsprachigen Oberfläche des Portals durchgeführt. Die detaillierte Darstellung der so festgestellten Usability-Probleme bildet den Kern der Arbeit. Als Basis für das Verständnis des Systems und der methodischen Vorgehensweise, wird außerdem Primo im Kontext der "Neuen Kataloge" und deren Funktionalitäten näher beleuchtet, sowie die theoretischen Grundlagen der in der Arbeit verwendeten Methoden der Usability-Evaluation dargestellt.
  12. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.01
    0.014647454 = product of:
      0.058589816 = sum of:
        0.058589816 = product of:
          0.29294908 = sum of:
            0.29294908 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.29294908 = score(doc=973,freq=2.0), product of:
                0.2606225 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.030740997 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  13. Nimz, B.: ¬Die Erschließung im Archiv- und Bibliothekswesen unter besonderer Berücksichtigung elektronischer Informationsträger : ein Vergleich im Interesse der Professionalisierung und Harmonisierung (2001) 0.01
    0.01202582 = product of:
      0.02405164 = sum of:
        0.008412795 = weight(_text_:m in 2442) [ClassicSimilarity], result of:
          0.008412795 = score(doc=2442,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.10997493 = fieldWeight in 2442, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.015638845 = product of:
          0.03127769 = sum of:
            0.03127769 = weight(_text_:da in 2442) [ClassicSimilarity], result of:
              0.03127769 = score(doc=2442,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.21205126 = fieldWeight in 2442, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2442)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Diese Arbeit dient der Professionalisierung und Harmonisierung der Erschließungsmethodik im Archiv- und Bibliothekswesen. Die Erschließung ist das Kernstück der archivarischen und bibliothekarischen Arbeit und Grundlage für die Benutzung durch die interessierte Öffentlichkeit. Hier wird, bildlich gesprochen, das gesät, was in der Benutzung geerntet wird und je gewissenhafter die Aussaat desto ertragreicher die Ernte. Der Bereich der Dokumentation wird, wo es für die Betrachtung der integrativen Momente in den Informationswissenschaften erforderlich erscheint, einbezogen. Das Hauptaugenmerk gilt jedoch der Archivwissenschaft und den Beziehungen zwischen der Archiv- und Bibliothekswissenschaft. Vornehmlich wird die Arbeit nationale Strukturen des Archivund Bibliothekswesens sowie ausgewählte Projekte und Tendenzen abhandeln. Auf eine erschöpfende Untersuchung aller Ausbildungsgänge auf dem Informationssektor wird verzichtet, da das Ziel dieser Arbeit nur die Betrachtung der integrativen Konzepte in der Ausbildung ist. Ziel der Publikation ist es, Angebote sowohl für die Grundlagenforschung als auch für die angewandte Forschung im Themenbereich Harmonisierung und Professionalisierung in der Erschließung der Informationswissenschaften zu machen. Sie kann als Diskussionsgrundlage für den interdisziplinären fachlichen Austausch dienen, der weitere Arbeiten folgen müssen. Es wird versucht, Wissen aus den Bereichen Archivwesen und Bibliothekswesen zu kumulieren und zu kommentieren. Vollständigkeit wird nicht beansprucht, sondern Wert auf Beispielhaftigkeit gelegt, zumal der rasante Technologiewandel zwangsläufig eine rasche Veralterung technischer Angaben zu den elektronischen Informationsträgern zur Folge hat. Bestand haben jedoch die theoretischen Überlegungen und abstrakten Betrachtungen sowie die getroffenen Aussagen zur Addition, Integration und Separation der Informationswissenschaften. In der Arbeit werden in dem Kapitel "Die Informationsgesellschaft" vorrangig die Auswirkungen der Informationsgesellschaft auf die Archive und Bibliotheken untersucht, wobei zunächst von der Klärung der Begriffe "Information" und "Informationsgesellschaft" und der Informationspolitik in der EU und in der Bundesrepublik ausgegangen wird.
    Type
    m
  14. Leyh, M.: ¬Das Google File System (2005) 0.01
    0.01202582 = product of:
      0.02405164 = sum of:
        0.008412795 = weight(_text_:m in 863) [ClassicSimilarity], result of:
          0.008412795 = score(doc=863,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.10997493 = fieldWeight in 863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.03125 = fieldNorm(doc=863)
        0.015638845 = product of:
          0.03127769 = sum of:
            0.03127769 = weight(_text_:da in 863) [ClassicSimilarity], result of:
              0.03127769 = score(doc=863,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.21205126 = fieldWeight in 863, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.03125 = fieldNorm(doc=863)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Die Bedeutung der Suchmaschine Google hat in den letzten Jahren sehr stark zuge-nommen. Durch die immer komplexer werdenden Googleapplikationen sowie die im-mer stärkere Nutzung der Suchmaschine ist die zu verwaltende Datenmenge in den letzten Jahren stark angewachsen. Dies war die Ursache für die Entwicklung neuer Konzepte, um eine konsistente Datenhaltung und -verwaltung sowie eine schnelle Da-tenrettung zu ermöglichen. Im Mittelpunkt dieser Entwicklung steht die Sicherung der Performance des Systems, das Milliarden von Dokumenten verwaltet und mehrere Tausende Treffer pro Suchanfrage nach Relevanz ordnet. Der Umfang und die Komple-xität des Systems stellen dabei sowohl besondere Herausforderungen an die einzuset-zende Hardware, als auch an die Konzepte der Datenverteilung und -sicherung. Eine neue Entwicklung ist dabei der Verzicht auf teure Spezialhardware. Alle Anwendungen laufen auf gewöhnlicher PC-Hardware und sind somit sehr wirtschaftlich im Vergleich zu teurerer Spezialhardware. Durch den Einsatz gewöhnlicher PC-Hardware sind Aus-fälle von Festplatten oder ganzer Server wesentlich wahrscheinlicher, es wird sogar mit dem Ausfall von Systemen gerechnet. Dass Anwendungen dennoch so zuverlässig und schnell funktionieren, liegt an der Struktur des von Google entwickelten Dateisystems. Das Google File Systems (kurz GFS) bietet eine hohe Fehlertoleranz, Fehler werden automatisch entdeckt und Wiederherstellungen automatisiert ausgeführt, so dass die Nachteile der Hardwarekonfiguration abgefangen werden können. Dieser Fehlertoleranz kommt bei multiplen Clustern mit Größen von bis zu 300 TB sowie mehreren hunderten Clientzugriffen sehr große Bedeutung zu. Eine weitere strukturelle Besonderheit des Google File Systems stellt die Verwaltung von Schreibzugriffen dar. Bestehende Dateien werden nicht durch schwer zu kontrollie-rende Schreiboperationen, sondern vielmehr durch leichter zu verwaltende "Append" Operationen erweitert. Es ist somit möglich, dass viele Nutzer gleichzeitig auf größere Dateien schreibend zugreifen, ohne dass eine ständige Synchronisation zwischen diesen Nutzern stattfinden muss. Die dadurch realisierten Vorteile bezüglich Performance, Verlässlichkeit und Verfüg-barkeit sowie die daraus resultierenden Anforderungen an das System sollen im Mittel-punkt dieser Arbeit stehen. Es soll ein Einblick in die Funktionsweisen und Komplexitä-ten des Google File Systems gegeben und weiterhin die strukturelle Umsetzung der Anforderungen aufgezeigt werden.
  15. Brocke, J. vom: Referenzmodellierung : Gestaltung und Verteilung von Konstruktionsprozessen (2003) 0.01
    0.01202582 = product of:
      0.02405164 = sum of:
        0.008412795 = weight(_text_:m in 3414) [ClassicSimilarity], result of:
          0.008412795 = score(doc=3414,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.10997493 = fieldWeight in 3414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.03125 = fieldNorm(doc=3414)
        0.015638845 = product of:
          0.03127769 = sum of:
            0.03127769 = weight(_text_:da in 3414) [ClassicSimilarity], result of:
              0.03127769 = score(doc=3414,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.21205126 = fieldWeight in 3414, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3414)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Die Motivation dieser Arbeit entspringt praktischen Problemstellungen. So sind zur Bewältigung betriebswirtschaftlicher Probleme in zunehmendem Ausmaß Informationssysteme zu entwickeln, die zur Förderung der Wirtschaftlichkeit anhand von Informationsmodellen beschrieben werden. Dabei fällt auf, dass - obwohl die jeweils behandelten betriebswirtschaftliche Problemstellungen durchaus thematisch verwandt sind -, einzelne Entwicklungsprojekte kaum voneinander profitieren. Bedauerlich ist hierbei nicht allein der wiederholt zu betreibende Konstruktionsaufwand, sondern auch die Inkompatibilität der inter- und intraorganisational vorliegenden Ergebnisse. In der Theorie sind für derartige Probleme Referenzmodelle einzusetzen, in denen repräsentative Konstruktionsergebnisse so beschrieben werden, dass sie in einzelnen Konstruktionsprozessen von Informationsmodellen wieder verwendet werden können. In der Praxis jedoch scheint das "passende" Referenzmodell meist nicht vorzuliegen. Dies ist umso beachtlicher, da mittlerweile sowohl eine Vielzahl an Informationsmodellen als Referenzmodelle vorgeschlagen werden als auch im jungen Forschungsgebiet der Referenzmodellierung bereits Gestaltungsempfehlungen für die Konstruktion von Referenzmodellen erarbeitet wurden. Warum werden vorgeschlagene Referenzmodelle kaum verwendet und wie können Konstruktionsprozesse gestaltet werden, damit die theoretisch gegebenen Potenziale von Referenzmodellen auch praktisch genutzt werden? Antworten auf diese erkenntnisleitenden Fragen zu finden, bildete die Motivation der vorliegenden Forschungsarbeit. Im Zuge der Untersuchungen sind einige grundsätzliche Erkenntnisansätze sowie Gestaltungsstrategien sichtbar geworden: Die geringe Akzeptanz der Referenzmodelle erklärt sich zu einem großen Teil dadurch, dass bislang eine zu enge Sicht auf die Gestaltung ihrer Konstruktionsprozesse eingenommen wird. Arbeiten beschränken sich auf Beiträge zu methodenbezogenen Aspekten, während die Verwendung der Modelle auf pragmatischer Ebene fehlschlägt. Durch die Ausweitung dieser Sicht, vor allem auf organisationsbezogene Aspekte, werden erhebliche Verbesserungspotenziale durch eine Verteilung der Konstruktionsprozesse aufgezeigt. Eine solche Gestaltung folgt der Vorstellung, relevante Interessengruppen von Referenzmodellen durch Austausch- und Diskursprozesse kontinuierlich in die Entwicklung einzubeziehen, sodass ein bewährter Bestand an Modellen erzeugt und evolutionär an neue Anforderungen angepasst werden kann. Innovative Ansätze des Open Source und Component Based Software Engineering belegen das Erfolgspotenzial derartiger Gestaltungen, zeigen jedoch zugleich kritische Anforderungen an die Prozessgestaltung auf. Zur Erschließung dieser Potenziale für die Referenzmodellierung wird hier das Konzept der verteilten Referenzmodellierung eingeführt.
    Type
    m
  16. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.01
    0.010522593 = product of:
      0.021045186 = sum of:
        0.007361196 = weight(_text_:m in 572) [ClassicSimilarity], result of:
          0.007361196 = score(doc=572,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.09622806 = fieldWeight in 572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.013683989 = product of:
          0.027367977 = sum of:
            0.027367977 = weight(_text_:da in 572) [ClassicSimilarity], result of:
              0.027367977 = score(doc=572,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.18554485 = fieldWeight in 572, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=572)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
  17. Wiedemann, M.: Vernetzung von CD-ROM Arbeitsplätzen (1992) 0.01
    0.010515994 = product of:
      0.042063978 = sum of:
        0.042063978 = weight(_text_:m in 3778) [ClassicSimilarity], result of:
          0.042063978 = score(doc=3778,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.54987466 = fieldWeight in 3778, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.15625 = fieldNorm(doc=3778)
      0.25 = coord(1/4)
    
  18. Niehues, M.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978) 0.01
    0.010515994 = product of:
      0.042063978 = sum of:
        0.042063978 = weight(_text_:m in 4653) [ClassicSimilarity], result of:
          0.042063978 = score(doc=4653,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.54987466 = fieldWeight in 4653, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.15625 = fieldNorm(doc=4653)
      0.25 = coord(1/4)
    
  19. Mussenbrock, M.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978) 0.01
    0.010515994 = product of:
      0.042063978 = sum of:
        0.042063978 = weight(_text_:m in 6624) [ClassicSimilarity], result of:
          0.042063978 = score(doc=6624,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.54987466 = fieldWeight in 6624, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.15625 = fieldNorm(doc=6624)
      0.25 = coord(1/4)
    
  20. Hauptmann, M.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978) 0.01
    0.010515994 = product of:
      0.042063978 = sum of:
        0.042063978 = weight(_text_:m in 799) [ClassicSimilarity], result of:
          0.042063978 = score(doc=799,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.54987466 = fieldWeight in 799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.15625 = fieldNorm(doc=799)
      0.25 = coord(1/4)
    

Languages

  • d 153
  • e 13
  • a 1
  • hu 1
  • pt 1
  • More… Less…

Types

Subjects

Classifications