Search (31 results, page 1 of 2)

  • × year_i:[2000 TO 2010}
  • × type_ss:"x"
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.10
    0.09638637 = product of:
      0.19277275 = sum of:
        0.048193187 = product of:
          0.14457956 = sum of:
            0.14457956 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.14457956 = score(doc=701,freq=2.0), product of:
                0.38587612 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.045514934 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.14457956 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.14457956 = score(doc=701,freq=2.0), product of:
            0.38587612 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.045514934 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  2. Münch, J.: Muster-basierte Erstellung von Software-Projektplänen (2002) 0.02
    0.016788924 = product of:
      0.0671557 = sum of:
        0.0671557 = product of:
          0.1343114 = sum of:
            0.1343114 = weight(_text_:software in 3758) [ClassicSimilarity], result of:
              0.1343114 = score(doc=3758,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.743841 = fieldWeight in 3758, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3758)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Series
    PhD These in Experimental Software Engineering; 10
  3. Launer, T.: Konzeption einer Facettenklassifikation zur Erschließung von technischen Dokumenten einer Software herstellenden Firma (2003) 0.01
    0.013850154 = product of:
      0.055400617 = sum of:
        0.055400617 = product of:
          0.110801235 = sum of:
            0.110801235 = weight(_text_:software in 2517) [ClassicSimilarity], result of:
              0.110801235 = score(doc=2517,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.61363745 = fieldWeight in 2517, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2517)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  4. Fuchs, N.: Konzeption einer Datenbank für eine Fernsehproduktionsfirma : Einsatz der Archivierungssoftware FAUST (2000) 0.01
    0.011871561 = product of:
      0.047486246 = sum of:
        0.047486246 = product of:
          0.09497249 = sum of:
            0.09497249 = weight(_text_:software in 4780) [ClassicSimilarity], result of:
              0.09497249 = score(doc=4780,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.525975 = fieldWeight in 4780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4780)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Dokumentation von Filmsequenzen unter Benutzung der Software FAUST
  5. Farthofer, E.: Einrichtung einer Literaturdatenbank mit Reference Manager an der Abteilung für Gefäß- und Leistungsbiologie der Naturwissenschaftlichen Fakultät der Paris-Lodron-Universität Salzburg (2004) 0.01
    0.011871561 = product of:
      0.047486246 = sum of:
        0.047486246 = product of:
          0.09497249 = sum of:
            0.09497249 = weight(_text_:software in 4636) [ClassicSimilarity], result of:
              0.09497249 = score(doc=4636,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.525975 = fieldWeight in 4636, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4636)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Theme
    Bibliographische Software
  6. Sperling, R.: Anlage von Literaturreferenzen für Onlineressourcen auf einer virtuellen Lernplattform (2004) 0.01
    0.01079163 = product of:
      0.04316652 = sum of:
        0.04316652 = product of:
          0.08633304 = sum of:
            0.08633304 = weight(_text_:22 in 4635) [ClassicSimilarity], result of:
              0.08633304 = score(doc=4635,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.5416616 = fieldWeight in 4635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4635)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    26.11.2005 18:39:22
  7. Milanesi, C.: Möglichkeiten der Kooperation im Rahmen von Subject Gateways : das Euler-Projekt im Vergleich mit weiteren europäischen Projekten (2001) 0.01
    0.0092499675 = product of:
      0.03699987 = sum of:
        0.03699987 = product of:
          0.07399974 = sum of:
            0.07399974 = weight(_text_:22 in 4865) [ClassicSimilarity], result of:
              0.07399974 = score(doc=4865,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.46428138 = fieldWeight in 4865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4865)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 6.2002 19:41:59
  8. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.061666455 = score(doc=3406,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    30. 5.2010 16:22:35
  9. Eckert, K.: Thesaurus analysis and visualization in semantic search applications (2007) 0.01
    0.006995385 = product of:
      0.02798154 = sum of:
        0.02798154 = product of:
          0.05596308 = sum of:
            0.05596308 = weight(_text_:software in 3222) [ClassicSimilarity], result of:
              0.05596308 = score(doc=3222,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30993375 = fieldWeight in 3222, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3222)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    Vgl. unter: http://ki.informatik.uni-mannheim.de/fileadmin/publication/Eckert07Thesis.pdf. Für die Software vgl.: http://www.semtinel.org. Zur Beschreibung der Software: https://ub-madoc.bib.uni-mannheim.de/29611/.
  10. Wille, J.: Automatisches Klassifizieren bibliographischer Beschreibungsdaten : Vorgehensweise und Ergebnisse (2006) 0.01
    0.006925077 = product of:
      0.027700309 = sum of:
        0.027700309 = product of:
          0.055400617 = sum of:
            0.055400617 = weight(_text_:software in 6090) [ClassicSimilarity], result of:
              0.055400617 = score(doc=6090,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30681872 = fieldWeight in 6090, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6090)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Footnote
    http://www.fbi.fh-koeln.de/institut/papers/abschlussarbeiten/abschlussarbeiten_ausgabe.php Vgl. auch: http://eprints.rclis.org/archive/00006659/01/wille_-_automatisches_klassifizieren_bibliographischer_beschreibungsdaten_(diplomarbeit).pdf. Für die Software vgl.: http://blackwinter.de/da/.
  11. Sieber, W.: Visualisierung von Thesaurus-Strukturen unter besonderer Berücksichtigung eines Hyperbolic Tree Views (2004) 0.01
    0.006925077 = product of:
      0.027700309 = sum of:
        0.027700309 = product of:
          0.055400617 = sum of:
            0.055400617 = weight(_text_:software in 1456) [ClassicSimilarity], result of:
              0.055400617 = score(doc=1456,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30681872 = fieldWeight in 1456, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1456)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Wenige Software-Werkzeuge zur Visualisierung von Thesaurus-Strukturen sind über das prototypische Stadium hinaus gelangt. Konkrete Implementationen entsprechender Anwendungen werden evaluiert. Aus den Gebieten Thesaurus-Entwicklung, Visualisierung, Interaktion, Informations- und Graphenvisualisierung werden Kriterien ermittelt, an denen die Implementierungen gemessen werden. Ein generisches Werkzeug zur Visualisierung dreidimensionaler hyperbolischer Bäume wird dazu verwendet, die Strukturen eines Thesaurus darzustellen. Dieses Werkzeug wird mit in die Evaluation einbezogen. Es hat sich gezeigt, dass die Visualisierung der Thesaurus-Strukturen auf Basis weniger unterschiedlicher Verfahren erfolgt. Der generische Visualisierer ist für Thesaurus-Strukturen prinzipiell geeignet, doch fehlen ihm spezifische Möglichkeiten der Domäne Thesaurus.
  12. Kühle, G.: Lokale Kooperation öffentlicher Bibliotheken unterschiedlicher Träger in Bezug auf ein Konzept für einen gemeinsamen Online-Katalog am Beispiel der ÖBs in Willich (2009) 0.01
    0.006925077 = product of:
      0.027700309 = sum of:
        0.027700309 = product of:
          0.055400617 = sum of:
            0.055400617 = weight(_text_:software in 3202) [ClassicSimilarity], result of:
              0.055400617 = score(doc=3202,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30681872 = fieldWeight in 3202, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3202)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Dargestellt wird ein Konzept für eine lokale Kooperation kleiner öffentlicher Bibliotheken verschiedener Träger mit einem gemeinsamen WWW-OPAC. Das Konzept wird für eine verbundweite Recherche mit systematischer Sacherschließung durch eine Konkordanzklassifikation, für die Organisation eines lokalen Leihverkehrs und für die Organisation einer teilweise koordinierten Erwerbung entwickelt. Den Rahmen bilden die Funktionen und Leitbilder dieser Bibliotheken und mögliche Modelle für eine Kooperationsarchitektur, für die Software auf dem Markt angeboten wird.
  13. Hoffmann, R.: Mailinglisten für den bibliothekarischen Informationsdienst am Beispiel von RABE (2000) 0.01
    0.0065407157 = product of:
      0.026162863 = sum of:
        0.026162863 = product of:
          0.052325726 = sum of:
            0.052325726 = weight(_text_:22 in 4441) [ClassicSimilarity], result of:
              0.052325726 = score(doc=4441,freq=4.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.32829654 = fieldWeight in 4441, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4441)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 2.2000 10:25:05
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.22
  14. Thielemann, A.: Sacherschließung für die Kunstgeschichte : Möglichkeiten und Grenzen von DDC 700: The Arts (2007) 0.01
    0.0061666453 = product of:
      0.024666581 = sum of:
        0.024666581 = product of:
          0.049333163 = sum of:
            0.049333163 = weight(_text_:22 in 1409) [ClassicSimilarity], result of:
              0.049333163 = score(doc=1409,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30952093 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Nach der Veröffentlichung einer deutschen Übersetzung der Dewey Decimal Classification 22 im Oktober 2005 und ihrer Nutzung zur Inhaltserschließung in der Deutschen Nationalbibliographie seit Januar 2006 stellt sich aus Sicht der deutschen kunsthistorischen Spezialbibliotheken die Frage nach einer möglichen Verwendung der DDC und ihrer generellen Eignung zur Inhalterschließung kunsthistorischer Publikationen. Diese Frage wird vor dem Hintergrund der bestehenden bibliothekarischen Strukturen für die Kunstgeschichte sowie mit Blick auf die inhaltlichen Besonderheiten, die Forschungsmethodik und die publizistischen Traditionen dieses Faches erörtert.
  15. Mair, M.: Increasing the value of meta data by using associative semantic networks (2002) 0.01
    0.0059357807 = product of:
      0.023743123 = sum of:
        0.023743123 = product of:
          0.047486246 = sum of:
            0.047486246 = weight(_text_:software in 4972) [ClassicSimilarity], result of:
              0.047486246 = score(doc=4972,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.2629875 = fieldWeight in 4972, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4972)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Momentan verbreitete Methoden zur Strukturierung von Information können ihre Aufgabe immer schlechter befriedigend erfüllen. Der Grund dafür ist das explosive Wachstum menschlichen Wissens. Diese Diplomarbeit schlägt als einen möglichen Ausweg die Verwendung assoziativer semantischer Netzwerke vor. Maschinelles Wissensmanagement kann wesentlich intuitiver und einfacher benutzbar werden, wenn man sich die Art und Weise zunutze macht, mit der das menschliche Gehirn Informationen verarbeitet (im Speziellen assoziative Verbindungen). Der theoretische Teil dieser Arbeit diskutiert verschiedene Aspekte eines möglichen Designs eines semantischen Netzwerks mit assoziativen Verbindungen. Außer den Grundelementen und Problemen der Visualisierung werden hauptsächlich Verbesserungen ausgearbeitet, welche ein leistungsstarkes Arbeiten mit einem solchen Netzwerk erlauben. Im praktischen Teil wird ein Netzwerk-Prototyp mit den wichtigsten herausgearbeiteten Merkmalen implementiert. Die Basis der Applikation bildet der Hyperwave Information Server. Dieser detailiiertere Design-Teil gewährt tieferen Einblick in Software Requirements, Use Cases und teilweise auch in Klassendetails. Am Ende wird eine kurze Einführung in die Benutzung des implementierten Prototypen gegeben.
  16. Aufreiter, M.: Informationsvisualisierung und Navigation im Semantic Web (2008) 0.01
    0.0059357807 = product of:
      0.023743123 = sum of:
        0.023743123 = product of:
          0.047486246 = sum of:
            0.047486246 = weight(_text_:software in 4711) [ClassicSimilarity], result of:
              0.047486246 = score(doc=4711,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.2629875 = fieldWeight in 4711, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4711)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    Bachelorarbeit, eingereicht am Fachhochschul-Bachelorstudiengang Software Engineering in Hagenberg
  17. Faden, M.: ¬Der Einsatz eines WIKIs als zentrales Kommunikationsinstrument für die Thesauruspflege an verteilten Bibliotheksstandorten (2007) 0.00
    0.0049464838 = product of:
      0.019785935 = sum of:
        0.019785935 = product of:
          0.03957187 = sum of:
            0.03957187 = weight(_text_:software in 2824) [ClassicSimilarity], result of:
              0.03957187 = score(doc=2824,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.21915624 = fieldWeight in 2824, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2824)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Mit dieser Arbeit wird untersucht, welche Möglichkeiten und Vorteile ein Wiki bei der Pflege und Weiterentwicklung eines Thesaurus bietet. Als Basis für diese Arbeit wird ein entsprechendes Wiki, der Standard-Thesaurus Wirtschaft (STW) und Einrichtungen an verschiedenen Standorten, die mit dem STW arbeiten (das sog. STW-Konsortium) herangezogen. Um die Untersuchungsergebnisse zu präsentieren und zu belegen, wird parallel dazu der Prototyp "Wikisaurus oeconomicus" entwickelt; er ist die praktische Umsetzung der hier beschriebenen Möglichkeiten und wird im Internet zur Verfügung gestellt. Die Arbeit gliedert sich in zwei wesentliche Bereiche. Zuerst wird in einem kurzen Abriss die Entwicklungsgeschichte der Dokumentationssprachen, insbesondere von Thesauri, im 20. Jhd. beschrieben. Darauf aufbauend folgt die Darstellung der Genese und der Struktur des STW sowie dessen Pflege und Weiterentwicklung. Der zweite Teil widmet sich dann dem eigentlichen Untersuchungsgegenstand: Um diesen sinnvoll vor- und darstellen zu können, erfolgt eine Einführung in die, zugegebenermaßen kurze Geschichte der WikiWelt. Dazu wird noch die Software MediaWiki, deren Möglichkeiten sowie die Theorie der Zusammenarbeit in Wikis beschrieben. Danach wird ein möglicher Einsatz von Wikitechnik bei der Pflege und Weiterentwicklung des STW beschrieben. Wie oben schon erwähnt, wird zur Präsentation der Ergebnisse im Inter-net, der Prototyp "Wikisaurus oeconomicus" entwickelt. Neben der reinen Präsentation soll so auch ein (exemplarischer) Eindruck über die Praktikabilität und Anwendbarkeit der Wiki-technik vermittelt werden.
  18. Oberhauser, O.: Card-Image Public Access Catalogues (CIPACs) : a critical consideration of a cost-effective alternative to full retrospective catalogue conversion (2002) 0.00
    0.0048967693 = product of:
      0.019587077 = sum of:
        0.019587077 = product of:
          0.039174154 = sum of:
            0.039174154 = weight(_text_:software in 1703) [ClassicSimilarity], result of:
              0.039174154 = score(doc=1703,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.21695362 = fieldWeight in 1703, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1703)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: ABI-Technik 21(2002) H.3, S.292 (E. Pietzsch): "Otto C. Oberhauser hat mit seiner Diplomarbeit eine beeindruckende Analyse digitalisierter Zettelkataloge (CIPACs) vorgelegt. Die Arbeit wartet mit einer Fülle von Daten und Statistiken auf, wie sie bislang nicht vorgelegen haben. BibliothekarInnen, die sich mit der Digitalisierung von Katalogen tragen, finden darin eine einzigartige Vorlage zur Entscheidungsfindung. Nach einem einführenden Kapitel bringt Oberhauser zunächst einen Überblick über eine Auswahl weltweit verfügbarer CIPACs, deren Indexierungsmethode (Binäre Suche, partielle Indexierung, Suche in OCR-Daten) und stellt vergleichende Betrachtungen über geographische Verteilung, Größe, Software, Navigation und andere Eigenschaften an. Anschließend beschreibt und analysiert er Implementierungsprobleme, beginnend bei Gründen, die zur Digitalisierung führen können: Kosten, Umsetzungsdauer, Zugriffsverbesserung, Stellplatzersparnis. Er fährt fort mit technischen Aspekten wie Scannen und Qualitätskontrolle, Image Standards, OCR, manueller Nacharbeit, Servertechnologie. Dabei geht er auch auf die eher hinderlichen Eigenschaften älterer Kataloge ein sowie auf die Präsentation im Web und die Anbindung an vorhandene Opacs. Einem wichtigen Aspekt, nämlich der Beurteilung durch die wichtigste Zielgruppe, die BibliotheksbenutzerInnen, hat Oberhauser eine eigene Feldforschung gewidmet, deren Ergebnisse er im letzten Kapitel eingehend analysiert. Anhänge über die Art der Datenerhebung und Einzelbeschreibung vieler Kataloge runden die Arbeit ab. Insgesamt kann ich die Arbeit nur als die eindrucksvollste Sammlung von Daten, Statistiken und Analysen zum Thema CIPACs bezeichnen, die mir bislang begegnet ist. Auf einen schön herausgearbeiteten Einzelaspekt, nämlich die weitgehende Zersplitterung bei den eingesetzten Softwaresystemen, will ich besonders eingehen: Derzeit können wir grob zwischen Komplettlösungen (eine beauftragte Firma führt als Generalunternehmung sämtliche Aufgaben von der Digitalisierung bis zur Ablieferung der fertigen Anwendung aus) und geteilten Lösungen (die Digitalisierung wird getrennt von der Indexierung und der Softwareerstellung vergeben bzw. im eigenen Hause vorgenommen) unterscheiden. Letztere setzen ein Projektmanagement im Hause voraus. Gerade die Softwareerstellung im eigenen Haus aber kann zu Lösungen führen, die kommerziellen Angeboten keineswegs nachstehen. Schade ist nur, daß die vielfältigen Eigenentwicklungen bislang noch nicht zu Initiativen geführt haben, die, ähnlich wie bei Public Domain Software, eine "optimale", kostengünstige und weithin akzeptierte Softwarelösung zum Ziel haben. Einige kritische Anmerkungen sollen dennoch nicht unerwähnt bleiben. Beispielsweise fehlt eine Differenzierung zwischen "Reiterkarten"-Systemen, d.h. solchen mit Indexierung jeder 20. oder 50. Karte, und Systemen mit vollständiger Indexierung sämtlicher Kartenköpfe, führt doch diese weitreichende Designentscheidung zu erheblichen Kostenverschiebungen zwischen Katalogerstellung und späterer Benutzung. Auch bei den statistischen Auswertungen der Feldforschung hätte ich mir eine feinere Differenzierung nach Typ des CIPAC oder nach Bibliothek gewünscht. So haben beispielsweise mehr als die Hälfte der befragten BenutzerInnen angegeben, die Bedienung des CIPAC sei zunächst schwer verständlich oder seine Benutzung sei zeitaufwendig gewesen. Offen beibt jedoch, ob es Unterschiede zwischen den verschiedenen Realisierungstypen gibt.
  19. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.00
    0.0046249838 = product of:
      0.018499935 = sum of:
        0.018499935 = product of:
          0.03699987 = sum of:
            0.03699987 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.03699987 = score(doc=1746,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 3.2015 9:17:30
  20. Munzner, T.: Interactive visualization of large graphs and networks (2000) 0.00
    0.0039571873 = product of:
      0.01582875 = sum of:
        0.01582875 = product of:
          0.0316575 = sum of:
            0.0316575 = weight(_text_:software in 4746) [ClassicSimilarity], result of:
              0.0316575 = score(doc=4746,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.17532499 = fieldWeight in 4746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4746)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Many real-world domains can be represented as large node-link graphs: backbone Internet routers connect with 70,000 other hosts, mid-sized Web servers handle between 20,000 and 200,000 hyperlinked documents, and dictionaries contain millions of words defined in terms of each other. Computational manipulation of such large graphs is common, but previous tools for graph visualization have been limited to datasets of a few thousand nodes. Visual depictions of graphs and networks are external representations that exploit human visual processing to reduce the cognitive load of many tasks that require understanding of global or local structure. We assert that the two key advantages of computer-based systems for information visualization over traditional paper-based visual exposition are interactivity and scalability. We also argue that designing visualization software by taking the characteristics of a target user's task domain into account leads to systems that are more effective and scale to larger datasets than previous work. This thesis contains a detailed analysis of three specialized systems for the interactive exploration of large graphs, relating the intended tasks to the spatial layout and visual encoding choices. We present two novel algorithms for specialized layout and drawing that use quite different visual metaphors. The H3 system for visualizing the hyperlink structures of web sites scales to datasets of over 100,000 nodes by using a carefully chosen spanning tree as the layout backbone, 3D hyperbolic geometry for a Focus+Context view, and provides a fluid interactive experience through guaranteed frame rate drawing. The Constellation system features a highly specialized 2D layout intended to spatially encode domain-specific information for computational linguists checking the plausibility of a large semantic network created from dictionaries. The Planet Multicast system for displaying the tunnel topology of the Internet's multicast backbone provides a literal 3D geographic layout of arcs on a globe to help MBone maintainers find misconfigured long-distance tunnels. Each of these three systems provides a very different view of the graph structure, and we evaluate their efficacy for the intended task. We generalize these findings in our analysis of the importance of interactivity and specialization for graph visualization systems that are effective and scalable.