Search (129 results, page 1 of 7)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.04
    0.036990546 = product of:
      0.07398109 = sum of:
        0.05338227 = product of:
          0.1601468 = sum of:
            0.1601468 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.1601468 = score(doc=701,freq=2.0), product of:
                0.42742437 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.050415643 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.020598818 = weight(_text_:information in 701) [ClassicSimilarity], result of:
          0.020598818 = score(doc=701,freq=18.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.23274568 = fieldWeight in 701, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(2/4)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  2. Sperling, R.: Anlage von Literaturreferenzen für Onlineressourcen auf einer virtuellen Lernplattform (2004) 0.04
    0.03592316 = product of:
      0.07184632 = sum of:
        0.024031956 = weight(_text_:information in 4635) [ClassicSimilarity], result of:
          0.024031956 = score(doc=4635,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.27153665 = fieldWeight in 4635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=4635)
        0.047814365 = product of:
          0.09562873 = sum of:
            0.09562873 = weight(_text_:22 in 4635) [ClassicSimilarity], result of:
              0.09562873 = score(doc=4635,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.5416616 = fieldWeight in 4635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4635)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    26.11.2005 18:39:22
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  3. Milanesi, C.: Möglichkeiten der Kooperation im Rahmen von Subject Gateways : das Euler-Projekt im Vergleich mit weiteren europäischen Projekten (2001) 0.03
    0.030791279 = product of:
      0.061582558 = sum of:
        0.02059882 = weight(_text_:information in 4865) [ClassicSimilarity], result of:
          0.02059882 = score(doc=4865,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.23274569 = fieldWeight in 4865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=4865)
        0.04098374 = product of:
          0.08196748 = sum of:
            0.08196748 = weight(_text_:22 in 4865) [ClassicSimilarity], result of:
              0.08196748 = score(doc=4865,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.46428138 = fieldWeight in 4865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4865)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    22. 6.2002 19:41:59
    Theme
    Information Gateway
  4. Makewita, S.M.: Investigating the generic information-seeking function of organisational decision-makers : perspectives on improving organisational information systems (2002) 0.02
    0.024595305 = product of:
      0.04919061 = sum of:
        0.03211405 = weight(_text_:information in 642) [ClassicSimilarity], result of:
          0.03211405 = score(doc=642,freq=28.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.3628561 = fieldWeight in 642, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=642)
        0.01707656 = product of:
          0.03415312 = sum of:
            0.03415312 = weight(_text_:22 in 642) [ClassicSimilarity], result of:
              0.03415312 = score(doc=642,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.19345059 = fieldWeight in 642, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=642)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    The past decade has seen the emergence of a new paradigm in the corporate world where organisations emphasised connectivity as a means of exposing decision-makers to wider resources of information within and outside the organisation. Many organisations followed the initiatives of enhancing infrastructures, manipulating cultural shifts and emphasising managerial commitment for creating pools and networks of knowledge. However, the concept of connectivity is not merely presenting people with the data, but more importantly, to create environments where people can seek information efficiently. This paradigm has therefore caused a shift in the function of information systems in organisations. They have to be now assessed in relation to how they underpin people's information-seeking activities within the context of their organisational environment. This research project used interpretative research methods to investigate the nature of people's information-seeking activities at two culturally contrasting organisations. Outcomes of this research project provide insights into phenomena associated with people's information-seeking function, and show how they depend on the organisational context that is defined partly by information systems. It suggests that information-seeking is not just searching for data. The inefficiencies inherent in both people and their environments can bring opaqueness into people's data, which they need to avoid or eliminate as part of seeking information. This seems to have made information-seeking a two-tier process consisting of a primary process of searching and interpreting data and auxiliary process of avoiding and eliminating opaqueness in data. Based on this view, this research suggests that organisational information systems operate naturally as implicit dual-mechanisms to underpin the above two-tier process, and that improvements to information systems should concern maintaining the balance in these dual-mechanisms.
    Date
    22. 7.2022 12:16:58
  5. Liebwald, D.: Evaluierung juristischer Datenbanken (2003) 0.02
    0.02361183 = product of:
      0.04722366 = sum of:
        0.00849658 = weight(_text_:information in 2490) [ClassicSimilarity], result of:
          0.00849658 = score(doc=2490,freq=4.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0960027 = fieldWeight in 2490, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2490)
        0.038727082 = weight(_text_:standards in 2490) [ClassicSimilarity], result of:
          0.038727082 = score(doc=2490,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.17234999 = fieldWeight in 2490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2490)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in Mitt. VÖB 57(2004) H.2, S.71-73 (J. Pauser):"Bei der hier zu besprechenden Arbeit handelt es sich um die Ende 2003 erfolgte Drucklegung einer juristischen Dissertation an der Universität Wien. Die Autorin zielt darauf ab, "Grundlagen, Entstehung, verschiedene Ansätze und Entwicklungstendenzen desjuristischen Information Retrieval aufzuzeigen [...], um schließlich die Qualität der wichtigsten österreichischen Rechtsdatenbanken anhand der gewonnenen Erkenntnisse messen zu können". Das gewählte Thema ist spannend und wohl für jeden Informationswissenschaftler und praktischen Juristen von Relevanz. Elektronische Datenbanken mit Rechtsinformation, seien sie nun online oder offline, revolutionieren seit geraumer Zeit die juristische Arbeit nicht nur in Österreich. Das Recherchieren mittels dieser neuen "Werkzeuge" gehört bereits standardmäßig zur Grundausbildung eines jedes Juristen. Die Kenntnis der umfassenden Möglichkeiten dieser neuen juristischen Informationsquellen beeinflusst massiv die Qualität und vor allem Schnelligkeit des juristischen Arbeitens. Vor diesem Hintergrund ist es immens wichtig, dass die juristischen Datenbanken den Bedürfnissen der Nutzer möglichst zweckmäßig entgegenkommen. Doris Liebwald definiert im ersten Teil ihrer Arbeit den Begriff "Information Retrieval" als "Repräsentation, Speicherung und Organisation von Informationen und der Zugriff auf Informationen" und versucht anschließend Bewertungskriterien für Rechtsdatenbanken aufzustellen. Hinsichtlich der Daten (Gesetze, Gerichtsentscheidungen, juristische Literatur) fordert sie "Vollständigkeit", "Aktualität" und "Authentizität"; in technischer Sicht ergeben sich "Inhaltserschließung", "Suchfunktionen/-möglichkeiten", sowie die "Benutzerfreundlichkeit der Systemoberfläche" etwa durch einfache Bedienbarkeit, Verständlichkeit, Anreicherung durch Hilfefunktionen usw. als Bewertungskriterien, Schließlich sind aus praktisch-ökonomischer Sicht noch "Kosten" und der "Support" aufgenommen.
    Der Hauptteil der Studie umfasst nun fragebogenartig strukturierte Angaben zu insgesamt 18 österreichischen Rechtsinformationsdatenbanken und zwar: Das große - aber wohl nicht zu verhindern gewesene - Manko dieses Abschnittes ist nun, dass er den Stand von Frühjahr/Sommer 2002 wiedergibt und damit zum größten Teil nicht mehr aktuell ist, denn auf dem Rechtsinformationsmarkt ergaben sich in Ietzter Zeit eine Vielzahl an Änderungen durch Verlags- und Produktverschränkungen, technische Neuerungen und Neugestaltung vieler online-Datenbanken. Der Dokumentationsteil hat damit heute fast nur mehr rechtshistorischen Wert. Beispiele: Die "Arbeitsrecht CD-Rom" wurde bereits vom Markt genommen. - "jusline-pro" dürfte auch nicht mehr existieren, zumindest erscheint im Netz an dem angegebenen URL nun schon seit geraumer Zeit ein Hin weis darauf, dass das System "momentan" (sic) nicht zur Verfügung steht. - "Orac Online" und "ARD Online" wurden mittlerweile verändert und zusammengeführt. - Der Parlamentsserver (http://www.parlinkom.gv.at) hat einen umfassenden grafischen Relaunch hinter sich gebracht, der sich leider nicht zum Vorteil des Nutzers auswirkt. Zugegeben, das alte Design wirkte billig, veraltet und unschön, aber man fand schnell und zügig die "Stenographischen Protokolle" und die "Materialien". Das neue Design fällt trotzdem weit hinter die praktikablen Standards anderer europäischer Parlamente zurück. Leider wurde hier eine Chance vertan. Die Angesprochenen rechtsrelevanten Inhalte sind zwar weiterhin und in großer Menge vorhanden, doch erfordert die Suche nun ein gewisses Maß an archivarischem Fleiß. Viele Nutzer, die sich zuvor sehr leicht getan haben, hatten nach der Umstellung der Website massive Probleme. Vielleicht hätte man hier sinnvollerweise die Publikums-Website mit den allgemeinen Daten zum Parlamentvon der Datenbank-Website mit den gesetzgebungsrelevanten Daten trennen und letztere benutzerfreundlicher aufbereiten sollen. - Die RDB hat nun ein neues Content-Portal eröffnet, das mit dem alten, hier dargestellten, kaum mehr etwas gemeinsam hat. - Im RIS werden seit Anfang 2004 die Bundesgesetzblätter authentisch kundgemacht. - Die Steuerdatenbank ist nunmehr mit der SWK-Online vereinigt. Das mag hier als Hinweis genügen. Ein kurzes zehnseitiges "Ergebnis" beschließt die Studie. Hierwurde die Chance vertan, die dargestellten Datenbanken umfassender zu vergleichen und Unterschiede, Vorteile, Nutzungsmöglichkeiten, Praxisvor- und -nach teile usw. etwa mittels eines standardisierten Tests herauszuarbeiten. Die Arbeit wird ihren Wert vor allem darin entfalten, Datenbankanbieter zu einer Verbesserung ihrer Datenbanken anzuregen. Der Hinweis, dass "die dem User zur Verfügung gestellten Hilfefunktionen und Informationen als untauglich oder unzureichend zu bewerten sind" (S. 191), sollten sich wirklich alle Datenbankanbieter auf diesem Gebiet zu Herzen nehmen."
  6. Ingold, M.: ¬Das bibliothekarische Konzept der Informationskompetenz : ein Überblick (2005) 0.02
    0.022129761 = product of:
      0.088519044 = sum of:
        0.088519044 = weight(_text_:standards in 1413) [ClassicSimilarity], result of:
          0.088519044 = score(doc=1413,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.39394283 = fieldWeight in 1413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0625 = fieldNorm(doc=1413)
      0.25 = coord(1/4)
    
    Abstract
    Informationskompetenz hat sich in den letzten Jahren als wichtiges Teilgebiet des Bibliothekswesens etabliert. Der vorliegende Text gibt einen einführenden Überblick über Hintergrund und Entwicklung, Terminologie, Definitionen und Inhalte, Modelle und Standards sowie Vermittlungs- und Evaluationspraxis von Informationskompetenz im bibliothekarischen Kontext. Ein Blick auf Debatten und Kritik zeigt aber auch, dass sowohl Begriff wie Konzept in bibliothekarischen Fachkreisen keineswegs unumstritten sind.
  7. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.02
    0.015395639 = product of:
      0.030791279 = sum of:
        0.01029941 = weight(_text_:information in 1746) [ClassicSimilarity], result of:
          0.01029941 = score(doc=1746,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.116372846 = fieldWeight in 1746, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.02049187 = product of:
          0.04098374 = sum of:
            0.04098374 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.04098374 = score(doc=1746,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Date
    22. 3.2015 9:17:30
  8. Slavic-Overfield, A.: Classification management and use in a networked environment : the case of the Universal Decimal Classification (2005) 0.01
    0.014757427 = product of:
      0.029514855 = sum of:
        0.015353453 = weight(_text_:information in 2191) [ClassicSimilarity], result of:
          0.015353453 = score(doc=2191,freq=10.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.1734784 = fieldWeight in 2191, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2191)
        0.014161401 = product of:
          0.028322803 = sum of:
            0.028322803 = weight(_text_:organization in 2191) [ClassicSimilarity], result of:
              0.028322803 = score(doc=2191,freq=2.0), product of:
                0.17974974 = queryWeight, product of:
                  3.5653565 = idf(docFreq=3399, maxDocs=44218)
                  0.050415643 = queryNorm
                0.15756798 = fieldWeight in 2191, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5653565 = idf(docFreq=3399, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2191)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    In the Internet information space, advanced information retrieval (IR) methods and automatic text processing are used in conjunction with traditional knowledge organization systems (KOS). New information technology provides a platform for better KOS publishing, exploitation and sharing both for human and machine use. Networked KOS services are now being planned and developed as powerful tools for resource discovery. They will enable automatic contextualisation, interpretation and query matching to different indexing languages. The Semantic Web promises to be an environment in which the quality of semantic relationships in bibliographic classification systems can be fully exploited. Their use in the networked environment is, however, limited by the fact that they are not prepared or made available for advanced machine processing. The UDC was chosen for this research because of its widespread use and its long-term presence in online information retrieval systems. It was also the first system to be used for the automatic classification of Internet resources, and the first to be made available as a classification tool on the Web. The objective of this research is to establish the advantages of using UDC for information retrieval in a networked environment, to highlight the problems of automation and classification exchange, and to offer possible solutions. The first research question was is there enough evidence of the use of classification on the Internet to justify further development with this particular environment in mind? The second question is what are the automation requirements for the full exploitation of UDC and its exchange? The third question is which areas are in need of improvement and what specific recommendations can be made for implementing the UDC in a networked environment? A summary of changes required in the management and development of the UDC to facilitate its full adaptation for future use is drawn from this analysis.
  9. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.01
    0.014607265 = product of:
      0.02921453 = sum of:
        0.01213797 = weight(_text_:information in 867) [ClassicSimilarity], result of:
          0.01213797 = score(doc=867,freq=4.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.13714671 = fieldWeight in 867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.01707656 = product of:
          0.03415312 = sum of:
            0.03415312 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.03415312 = score(doc=867,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Pages
    22 S
  10. Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003) 0.01
    0.0138311 = product of:
      0.0553244 = sum of:
        0.0553244 = weight(_text_:standards in 2508) [ClassicSimilarity], result of:
          0.0553244 = score(doc=2508,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.24621427 = fieldWeight in 2508, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
      0.25 = coord(1/4)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
  11. Lebrecht, H.: Methoden und Probleme der Bilderschließung (2003) 0.01
    0.0138311 = product of:
      0.0553244 = sum of:
        0.0553244 = weight(_text_:standards in 2871) [ClassicSimilarity], result of:
          0.0553244 = score(doc=2871,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.24621427 = fieldWeight in 2871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
      0.25 = coord(1/4)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
  12. Buß, M.: Unternehmenssprache in internationalen Unternehmen : Probleme des Informationstransfers in der internen Kommunikation (2005) 0.01
    0.0128297005 = product of:
      0.025659401 = sum of:
        0.008582841 = weight(_text_:information in 1482) [ClassicSimilarity], result of:
          0.008582841 = score(doc=1482,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.09697737 = fieldWeight in 1482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1482)
        0.01707656 = product of:
          0.03415312 = sum of:
            0.03415312 = weight(_text_:22 in 1482) [ClassicSimilarity], result of:
              0.03415312 = score(doc=1482,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.19345059 = fieldWeight in 1482, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1482)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    22. 5.2005 18:25:26
    Theme
    Information Resources Management
  13. Düring, M.: ¬Die Dewey Decimal Classification : Entstehung, Aufbau und Ausblick auf eine Nutzung in deutschen Bibliotheken (2003) 0.01
    0.0128297005 = product of:
      0.025659401 = sum of:
        0.008582841 = weight(_text_:information in 2460) [ClassicSimilarity], result of:
          0.008582841 = score(doc=2460,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.09697737 = fieldWeight in 2460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.01707656 = product of:
          0.03415312 = sum of:
            0.03415312 = weight(_text_:22 in 2460) [ClassicSimilarity], result of:
              0.03415312 = score(doc=2460,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.19345059 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Die ständig steigende Zahl an publizierter Information in immer neuen Formen verlangt besonders von Informations- und Dokumentationseinrichtungen immer präzisere Lösungen zur Erschließung dieser Informationen und ihrer benutzerfreundlichen Aufbereitung. Besonders im derzeitigen Zeitalter der Datenbanken und Online-Kataloge ist die Kombination von verbaler und klassifikatorischer Sacherschließung gefordert, ohne dabei die Verbindung zu den älteren, vielerorts noch (zumindest zusätzlich) in Verwendung befindlichen, Zettelkatalogen zu verlieren. Weltweit ist eine Vielzahl an verschiedenen Klassifikationen im Einsatz. Die Wahl der für eine Einrichtung passenden Klassifikation ist abhängig von ihrer thematischen und informationellen Ausrichtung, der Größe und Art der Bestände und nicht zuletzt von technischen und personellen Voraussetzungen. Auf Seiten der zu wählenden Klassifikation sind die Einfachheit der Handhabung für den Bibliothekar, die Verständlichkeit für den Benutzer, die Erweiterungsfähigkeit der Klassifikation durch das Aufkommen neuer Wissensgebiete und die Einbindung in informationelle Netze mit anderen Einrichtungen von entscheidender Bedeutung. In dieser Arbeit soll die Dewey Dezimalklassifikation (DDC) hinsichtlich dieser Punkte näher beleuchtet werden. Sie ist die weltweit am häufigsten benutzte Klassifikation. Etwa 200.000 Bibliotheken in 135 Ländern erschließen ihre Bestände mit diesem System. Sie liegt derzeit bereits in der 22. ungekürzten Auflage vor und wurde bisher in 30 Sprachen übersetzt. Eine deutsche Komplettübersetzung wird im Jahre 2005 erscheinen. Trotz teils heftig geführter Standardisierungsdebatten und Plänen für die Übernahme von amerikanischen Formalerschließungsregeln herrscht in Bezug auf die Sacherschließung unter deutschen Bibliotheken wenig Einigkeit. Die DDC ist in Deutschland und anderen europäischen Ländern kaum verbreitet, sieht von Großbritannien und von der Verwendung in Bibliografien ab. Diese Arbeit geht demzufolge auf die historischen Gründe dieser Entwicklung ein und wagt einen kurzen Ausblick in die Zukunft der Dezimalklassifikation.
  14. Richter, S.: ¬Die formale Beschreibung von Dokumenten in Archiven und Bibliotheken : Perspektiven des Datenaustauschs (2004) 0.01
    0.0110648805 = product of:
      0.044259522 = sum of:
        0.044259522 = weight(_text_:standards in 4982) [ClassicSimilarity], result of:
          0.044259522 = score(doc=4982,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.19697142 = fieldWeight in 4982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.03125 = fieldNorm(doc=4982)
      0.25 = coord(1/4)
    
    Abstract
    Die Datenrecherche und der Zugriff auf Informationen wurde in den letzten Jahren durch Angebote im Internet erleichtert. Während im Bibliothekswesen bereits seit Jahrzehnten Erfahrungen durch die Verbundkatalogisierung im Bereich des Datenaustauschs gesammelt wurden, wurde eine kooperative Datenhaltung zwischen Archiven erst in den letzten Jahren begonnen. In dieser Arbeit wird der Frage nachgegangen, inwieweit Daten aus Archiven und Bibliotheken in gemeinsamen Datenpools angeboten werden können: Sind die Inhalte der verschiedenen Datenkategorien ähnlich genug, um sie zusammenfassen zu können? Welche Standards liegen den Daten zugrunde? Um diese Fragen beantworten zu können, werden zunächst die verschiedenen Regelwerke des Archivs- und Bibliothekswesens zur archivischen Verzeichnung bzw. der bibliographischen Beschreibung untersucht und anschließend die darauf fußenden Austauschformate. Folgende (Regel-) Werke werden in die Analyse integiert: Papritz: Die archivische Titelaufnahme bei Sachakten, die Ordnungs- und Verzeichnungsgrundsätze für die staatlichen Archive der Deutschen Demokratischen Republik (OVG-DDR), Internationale Grundsätze für die archivische Verzeichnung (ISAD(G)), das Handbuch für Wirtschaftsarchive, Praktische Archivkunde, die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB), die Anglo-American Cataloguing Rules (AACR), General International Standard Bibliographic Description (ISBD(G)) und für den Bereich der Nachlasserschließung als Schnittstelle zwischen Archiven und Bibliotheken die Ordnungs- und Verzeichnungsgrundsätze [des Goethe- und Schiller-Archivs] (OVG-GSA), König: Verwaltung und wissenschaftliche Erschließung von Nachlässen in Literaturarchiven sowie die Regeln zur Erschließung von Nachlässen und Autographen (RNA). Von den Datenaustauschformaten werden Encoded Archival Description (EAD), Maschinelles Austauschformat für Bibliotheken (MAB) und Machine Readable Cataloguing (MARC) vorgestellt. Die Analyse zeigt, dass Daten aus Archiven und Bibliotheken in einer gemeinsamen Datenmenge zur Verfügung gestellt werden können, um sie für eine spartenübergreifende Recherche nutzbar zu machen. Es muss aber eingeräumt werden, dass im Austauschformat für ähnliche Beschreibungselemente nicht identische Kategorienummern verwendet werden können, da hierfür die Inhalte der Kategorien zu stark differieren. Aus diesem Grund kann das MAB-Format auch nicht ohne weiteres für archivische Elemente verwendet werden: Entweder müsste das bestehende MAB-Schema an die Belange des Archivwesens angepasst werden oder es müsste ein neues Austauschformat generiert werden, da auch das internationale EAD-Format nicht ohne Änderungen auf die deutsche Verzeichnungstradition abgebildet werden kann. Insbesondere wäre sowohl innerhalb der Sparten Archiv- und Bibliothekswesen als auch darüber hinaus eine tiefere Diskussion um verbindliche Regelwerke und Austauschformate zu empfehlen.
  15. Kirk, J.: Theorising information use : managers and their work (2002) 0.01
    0.010831055 = product of:
      0.04332422 = sum of:
        0.04332422 = weight(_text_:information in 560) [ClassicSimilarity], result of:
          0.04332422 = score(doc=560,freq=26.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.4895196 = fieldWeight in 560, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=560)
      0.25 = coord(1/4)
    
    Abstract
    The focus of this thesis is information use. Although a key concept in information behaviour, information use has received little attention from information science researchers. Studies of other key concepts such as information need and information seeking are dominant in information behaviour research. Information use is an area of interest to information professionals who rely on research outcomes to shape their practice. There are few empirical studies of how people actually use information that might guide and refine the development of information systems, products and services.
    Theme
    Information
  16. Oberhauser, O.: Card-Image Public Access Catalogues (CIPACs) : a critical consideration of a cost-effective alternative to full retrospective catalogue conversion (2002) 0.01
    0.009681771 = product of:
      0.038727082 = sum of:
        0.038727082 = weight(_text_:standards in 1703) [ClassicSimilarity], result of:
          0.038727082 = score(doc=1703,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.17234999 = fieldWeight in 1703, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1703)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: ABI-Technik 21(2002) H.3, S.292 (E. Pietzsch): "Otto C. Oberhauser hat mit seiner Diplomarbeit eine beeindruckende Analyse digitalisierter Zettelkataloge (CIPACs) vorgelegt. Die Arbeit wartet mit einer Fülle von Daten und Statistiken auf, wie sie bislang nicht vorgelegen haben. BibliothekarInnen, die sich mit der Digitalisierung von Katalogen tragen, finden darin eine einzigartige Vorlage zur Entscheidungsfindung. Nach einem einführenden Kapitel bringt Oberhauser zunächst einen Überblick über eine Auswahl weltweit verfügbarer CIPACs, deren Indexierungsmethode (Binäre Suche, partielle Indexierung, Suche in OCR-Daten) und stellt vergleichende Betrachtungen über geographische Verteilung, Größe, Software, Navigation und andere Eigenschaften an. Anschließend beschreibt und analysiert er Implementierungsprobleme, beginnend bei Gründen, die zur Digitalisierung führen können: Kosten, Umsetzungsdauer, Zugriffsverbesserung, Stellplatzersparnis. Er fährt fort mit technischen Aspekten wie Scannen und Qualitätskontrolle, Image Standards, OCR, manueller Nacharbeit, Servertechnologie. Dabei geht er auch auf die eher hinderlichen Eigenschaften älterer Kataloge ein sowie auf die Präsentation im Web und die Anbindung an vorhandene Opacs. Einem wichtigen Aspekt, nämlich der Beurteilung durch die wichtigste Zielgruppe, die BibliotheksbenutzerInnen, hat Oberhauser eine eigene Feldforschung gewidmet, deren Ergebnisse er im letzten Kapitel eingehend analysiert. Anhänge über die Art der Datenerhebung und Einzelbeschreibung vieler Kataloge runden die Arbeit ab. Insgesamt kann ich die Arbeit nur als die eindrucksvollste Sammlung von Daten, Statistiken und Analysen zum Thema CIPACs bezeichnen, die mir bislang begegnet ist. Auf einen schön herausgearbeiteten Einzelaspekt, nämlich die weitgehende Zersplitterung bei den eingesetzten Softwaresystemen, will ich besonders eingehen: Derzeit können wir grob zwischen Komplettlösungen (eine beauftragte Firma führt als Generalunternehmung sämtliche Aufgaben von der Digitalisierung bis zur Ablieferung der fertigen Anwendung aus) und geteilten Lösungen (die Digitalisierung wird getrennt von der Indexierung und der Softwareerstellung vergeben bzw. im eigenen Hause vorgenommen) unterscheiden. Letztere setzen ein Projektmanagement im Hause voraus. Gerade die Softwareerstellung im eigenen Haus aber kann zu Lösungen führen, die kommerziellen Angeboten keineswegs nachstehen. Schade ist nur, daß die vielfältigen Eigenentwicklungen bislang noch nicht zu Initiativen geführt haben, die, ähnlich wie bei Public Domain Software, eine "optimale", kostengünstige und weithin akzeptierte Softwarelösung zum Ziel haben. Einige kritische Anmerkungen sollen dennoch nicht unerwähnt bleiben. Beispielsweise fehlt eine Differenzierung zwischen "Reiterkarten"-Systemen, d.h. solchen mit Indexierung jeder 20. oder 50. Karte, und Systemen mit vollständiger Indexierung sämtlicher Kartenköpfe, führt doch diese weitreichende Designentscheidung zu erheblichen Kostenverschiebungen zwischen Katalogerstellung und späterer Benutzung. Auch bei den statistischen Auswertungen der Feldforschung hätte ich mir eine feinere Differenzierung nach Typ des CIPAC oder nach Bibliothek gewünscht. So haben beispielsweise mehr als die Hälfte der befragten BenutzerInnen angegeben, die Bedienung des CIPAC sei zunächst schwer verständlich oder seine Benutzung sei zeitaufwendig gewesen. Offen beibt jedoch, ob es Unterschiede zwischen den verschiedenen Realisierungstypen gibt.
  17. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.00853828 = product of:
      0.03415312 = sum of:
        0.03415312 = product of:
          0.06830624 = sum of:
            0.06830624 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.06830624 = score(doc=3406,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    30. 5.2010 16:22:35
  18. Ewert, H.: Aktuelle Tendenzen der Fachinformationspolitik in Deutschland : Das interdisziplinäre Metaportal Vascoda (2004) 0.01
    0.00849658 = product of:
      0.03398632 = sum of:
        0.03398632 = weight(_text_:information in 3753) [ClassicSimilarity], result of:
          0.03398632 = score(doc=3753,freq=4.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.3840108 = fieldWeight in 3753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=3753)
      0.25 = coord(1/4)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
    Theme
    Information Gateway
  19. Wei, W.: SOAP als Basis für verteilte, heterogene virtuelle OPACs (2002) 0.01
    0.008298661 = product of:
      0.033194643 = sum of:
        0.033194643 = weight(_text_:standards in 4097) [ClassicSimilarity], result of:
          0.033194643 = score(doc=4097,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.14772856 = fieldWeight in 4097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
      0.25 = coord(1/4)
    
    Content
    Überblick über die Kapitel In Kapitel l. Simple Object Acces Protocol (SOAP) wird zuerst der Hintergrund der Entwicklung von SOAP untersucht. Mit einer kurzen Vorstellung der Entwicklung von verteilter Anwendung bis Web Service wird die Situation dargestellt, dass die vorhandenen Standards wie CORBA, DCOM sowie RMI die Ansprüche der stark heterogenen Umgebung wie Internet nicht erfüllen können. Um diesen Mangel der vorhandenen Lösungen zu überwinden, wurde SOAP mit dem Ziel der Unterstützung des plattformenunabhängigen Nachrichtenaustausches entwickelt. Anschließend wird der Begriff Web Service eingeführt, mit dem SOAP stark verbunden ist. Dabei wird über die Möglichkeit des Einsatzes von SOAP in den Bibliothekssystemen diskutiert. Schließlich wird SOAP durch unterschiedliche Aspekte wie SOAP und XML, SOAP Nachricht, Fehler Behandlung usw. untersucht. In Kapitel 3. Die durch Internet erweiterte Bibliothek wird die Beziehung zwischen dem Internet und der Bibliothek aus zwei Sichten, die verteilte Suche und Metadaten, beschrieben. In dem Teil über die verteilte Suche wird vorwiegend das Protokoll Z39.50, womit die bisherigen verteilten Bibliothekssysteme realisiert werden, dargestellt. In dem Teil der Metadaten wird sich zuerst mit der Bedeutung der Metadaten für die Bibliothek sowie für das Internet auseinandergesetzt. Anschließend wird über die existierenden Probleme der Metadaten und die Lösungsmöglichkeiten diskutiert. Schließlich wird eine Untersuchung einiger Metadatenstandards mit Dublin Core als Schwerpunkt durchgeführt, weil Dublin Core zur Zeit der Standard für das Internet und aus diesem Grund auch fir die Internet bezogene Bibliotheksanwendung wichtig ist. In Kapitel 4. Die Entwicklung eines verteilten Bibliothekssystems mit dem SOAP-Einsatz wird die Entwicklung des praktischen Projektes beschrieben. Zuerst wird das Ziel und die Funktionalität des Projektes festgelegt, dass ein verteiltes Bibliothekssystem mit dem Einsatz von SOAP entwickelt wird und das System eine verteilte Suche auf mehreren entfernten Bibliotheksdatenbanken ermöglichen soll. Anschließend wird beschrieben, in welchen Schritten das System entworfen und implementiert wird. Mit dem ersten System kann man nur in einer Datenbank suchen, während man mit dem zweiten System parallel in zwei Datenbanken suchen kann. Dublin Core wird als der Metadatenstandard im gesamten System eingesetzt. Die im System verwendeten Softwarepakete und die Softwarestandardtechnologien werden vorgestellt. Es wird untersucht, wie einzelne technische Komponenten zusammenarbeiten. Schließlich wird die Entwicklung der einzelnen Programmmodule und die Kommunikation zwischen ihnen beschrieben.
  20. Jackenkroll, M.: Nutzen von XML für die Herstellung verschiedener medialer Varianten von Informationsmitteln : dargestellt am Beispiel eines geografischen Lexikonartikels (2002) 0.01
    0.008298661 = product of:
      0.033194643 = sum of:
        0.033194643 = weight(_text_:standards in 4804) [ClassicSimilarity], result of:
          0.033194643 = score(doc=4804,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.14772856 = fieldWeight in 4804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4804)
      0.25 = coord(1/4)
    
    Content
    "Die Extensible Markup Language (XML) ist eine Metaauszeichnungssprache, die 1998 vom World Wide Web Consortium (W3C), einer Organisation, die sich mit der Erstellung von Web Standards und neuen Technologien für das Internet beschäftigt, als neue Empfehlung für Web-Anwendungen festgesetzt wurde. Seitdem ist viel über XML und die sich durch diese Sprache ergebenden neuen Möglichkeiten des Datenaustausches über das Internet publiziert worden. In XML-Dokumenten werden die hierarchische Struktur und der Inhalt der Dokumente festgelegt, aber keinerlei Angaben zum Layout gemacht. Dieses wird in so genannten Stylesheets definiert. Mit Hilfe mehrerer Stylesheets, die sich alle auf ein XML-Dokument beziehen, ist es möglich, aus einem Datenbestand verschiedene Ausgabeprodukte, z.B. eine Online-Version und eine druckbare Ausgabe eines Dokuments, zu erzeugen. Diese Möglichkeit der Herstellung verschiedener medialer Varianten eines Produkts ist auch für die Herstellung von Informationsmitteln interessant. Im Bereich der Produktion von Informationsmitteln, vor allem von Lexika und Enzyklopädien, ist in den letzten Jahren zu beobachten gewesen, dass neben der traditionellen, gedruckten Ausgabe des Nachschlagewerks zunehmend auch elektronische Varianten, die durch multimediale Elemente angereichert sind, angeboten werden. Diese elektronischen Nachschlagewerke werden sowohl offline, d.h. auf CD-ROM bzw. DVD, als auch online im Internet veröffentlicht. Im Gegensatz zu den gedruckten Versionen werden die neuen Produkte fast jährlich aktualisiert. Diese neue Situation erforderte Veränderungen im Herstellungsprozess. Ein Verfahren, das die Erzeugung verschiedener medialer Varianten eines Produkts möglichst einfach und problemlos ermöglicht, wurde benötigt. XML und ihr Vorgänger, die Standard Generalized Markup Language (SGML), schienen die perfekte Lösung für dieses Problem zu sein. Die Erwartungen an den Nutzen, den SGML und XML bringen könnten, waren hoch: "Allein dieses Spitzklammerformat, eingespeist in einen Datenpool, soll auf Knopfdruck die Generierung der verschiedensten Medienprodukte ermöglichen". Ziel dieser Arbeit ist es, darzustellen, wie der neue Standard XML bei der Publikation von Informationsmitteln eingesetzt werden kann, um aus einem einmal erfassten Datenbestand mit möglichst geringem Aufwand mehrere Ausgabeprodukte zu generieren. Es wird darauf eingegangen, welche Ausgabeformen sich in diesem Bereich für XML-Dokumente anbieten und mit welchen Verfahren und Hilfsmitteln die jeweiligen Ausgabeformate erstellt werden können. In diesem Zusammenhang sollen auch die Aspekte behandelt werden, die sich bei der Umwandlung von XML-Dokumenten in andere For mate unter Umständen als problematisch erweisen könnten.

Languages

  • d 111
  • e 17

Types