Search (2615 results, page 1 of 131)

  • × year_i:[2000 TO 2010}
  • × language_ss:"e"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.41
    0.4050102 = product of:
      0.5670143 = sum of:
        0.034518216 = product of:
          0.17259108 = sum of:
            0.17259108 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.17259108 = score(doc=562,freq=2.0), product of:
                0.3070917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03622214 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.2 = coord(1/5)
        0.17259108 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.17259108 = score(doc=562,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.17259108 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.17259108 = score(doc=562,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.17259108 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.17259108 = score(doc=562,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0147228 = product of:
          0.0294456 = sum of:
            0.0294456 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.0294456 = score(doc=562,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.37
    0.36819437 = product of:
      0.6443401 = sum of:
        0.040271256 = product of:
          0.20135628 = sum of:
            0.20135628 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.20135628 = score(doc=306,freq=2.0), product of:
                0.3070917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03622214 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.2 = coord(1/5)
        0.20135628 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.20135628 = score(doc=306,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.20135628 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.20135628 = score(doc=306,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.20135628 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.20135628 = score(doc=306,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.5714286 = coord(4/7)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  3. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.34
    0.34076422 = product of:
      0.5963374 = sum of:
        0.07856413 = product of:
          0.19641033 = sum of:
            0.17259108 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.17259108 = score(doc=2918,freq=2.0), product of:
                0.3070917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03622214 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
            0.023819257 = weight(_text_:system in 2918) [ClassicSimilarity], result of:
              0.023819257 = score(doc=2918,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20878783 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.4 = coord(2/5)
        0.17259108 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.17259108 = score(doc=2918,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.17259108 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.17259108 = score(doc=2918,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.17259108 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.17259108 = score(doc=2918,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.5714286 = coord(4/7)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
    Source
    System Sciences, 2009. HICSS '09. 42nd Hawaii International Conference
  4. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.26
    0.26491702 = product of:
      0.46360478 = sum of:
        0.118422605 = product of:
          0.197371 = sum of:
            0.115060724 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.115060724 = score(doc=701,freq=2.0), product of:
                0.3070917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03622214 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
            0.054806177 = weight(_text_:retrieval in 701) [ClassicSimilarity], result of:
              0.054806177 = score(doc=701,freq=28.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.5001983 = fieldWeight in 701, product of:
                  5.2915025 = tf(freq=28.0), with freq of:
                    28.0 = termFreq=28.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
            0.027504109 = weight(_text_:system in 701) [ClassicSimilarity], result of:
              0.027504109 = score(doc=701,freq=6.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.24108742 = fieldWeight in 701, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.6 = coord(3/5)
        0.115060724 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.115060724 = score(doc=701,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.115060724 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.115060724 = score(doc=701,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.115060724 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.115060724 = score(doc=701,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5714286 = coord(4/7)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  5. Fensel, D.: Ontologies : a silver bullet for knowledge management and electronic commerce (2004) 0.08
    0.08450886 = product of:
      0.19718733 = sum of:
        0.003661892 = product of:
          0.01830946 = sum of:
            0.01830946 = weight(_text_:retrieval in 1949) [ClassicSimilarity], result of:
              0.01830946 = score(doc=1949,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.16710453 = fieldWeight in 1949, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1949)
          0.2 = coord(1/5)
        0.17617446 = weight(_text_:abfrage in 1949) [ClassicSimilarity], result of:
          0.17617446 = score(doc=1949,freq=4.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.61642385 = fieldWeight in 1949, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1949)
        0.017350987 = product of:
          0.034701973 = sum of:
            0.034701973 = weight(_text_:22 in 1949) [ClassicSimilarity], result of:
              0.034701973 = score(doc=1949,freq=4.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.27358043 = fieldWeight in 1949, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1949)
          0.5 = coord(1/2)
      0.42857143 = coord(3/7)
    
    Abstract
    The author systematically introduces the notion of ontologies to the non-expert reader and demonstrates in detail how to apply this conceptual framework for improved intranet retrieval of corporate information and knowledge and for enhanced Internetbased electronic commerce. He also describes ontology languages (XML, RDF, and OWL) and ontology tools, and the application of ontologies. In addition to structural improvements, the second edition covers recent developments relating to the Semantic Web, and emerging web-based standard languages.
    Classification
    004.67/8 22
    DDC
    004.67/8 22
    RSWK
    World Wide Web / Datenbanksystem / Abfrage / Inferenz <Künstliche Intelligenz>
    Subject
    World Wide Web / Datenbanksystem / Abfrage / Inferenz <Künstliche Intelligenz>
  6. Weiße, A.: AG Dezimalklassifikation (AG DK) (2002) 0.06
    0.060567256 = product of:
      0.1413236 = sum of:
        0.009158121 = product of:
          0.022895303 = sum of:
            0.010985675 = weight(_text_:retrieval in 1693) [ClassicSimilarity], result of:
              0.010985675 = score(doc=1693,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.10026272 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1693)
            0.011909628 = weight(_text_:system in 1693) [ClassicSimilarity], result of:
              0.011909628 = score(doc=1693,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.104393914 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1693)
          0.4 = coord(2/5)
        0.074744485 = weight(_text_:abfrage in 1693) [ClassicSimilarity], result of:
          0.074744485 = score(doc=1693,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.26152647 = fieldWeight in 1693, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1693)
        0.057421 = sum of:
          0.042698197 = weight(_text_:zugriff in 1693) [ClassicSimilarity], result of:
            0.042698197 = score(doc=1693,freq=2.0), product of:
              0.2160124 = queryWeight, product of:
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.03622214 = queryNorm
              0.19766548 = fieldWeight in 1693, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1693)
          0.0147228 = weight(_text_:22 in 1693) [ClassicSimilarity], result of:
            0.0147228 = score(doc=1693,freq=2.0), product of:
              0.12684377 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03622214 = queryNorm
              0.116070345 = fieldWeight in 1693, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1693)
      0.42857143 = coord(3/7)
    
    Abstract
    Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
    Das Recherchesystem bietet eine Übersicht der Fachgebiete nach UDK, ein Register der Fächer (z.B. Register A-Z Wirtschaftswissenschaften), eine alphabetische Auflistung der Fächer und die systematische Gliederung der Fachgebiete mit Anzeige der Anzahl der Titelnachweise. Der von der Firma Mikro Univers GmbH Berlin erstellte digitalisierte Katalog wurde ab 1.8.02 frei geschaltet (http://altkataloge.uni-muenster.de/de/index sys.htm). Das von der ULB Münster realisierte Projekt könnte für andere Universitätsbibliotheken Anregung sein, konventionelle Systematische Zettelkataloge, die vor allem ältere wissenschaftliche Literatur nachweisen und erfahrungsgemäß in dieser Form wenig genutzt werden, in digitalisierter Form einem über die Grenzen der jeweiligen Universitätsbibliothek erweiterten Nutzerkreis zur Verfügung zu stellen. Herr Dr. Jiri Pika (ETH Zürich) referierte in seinem Vortrag "Anwendung der UDK in NEBIS in der Schweiz: ein Ausblick" über die seit etwa 20 Jahren praktizierte inhaltliche Erschließung von Dokumenten nach UDK im neuen Bibliothekssystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz http://www.nebis.ch/index.html), das das Bibliothekssystem ETHICS ablöste. Wie im System ETHICS beruht die Abfrage auf Deskriptoren in drei Sprachen (deutsch, englisch, französisch) und einer Anzahl weiterer Begriffe (Synonyme, Akronyme), womit ein benutzerfreundlicher den Gegebenheiten der multilingualen Schweiz angepasster Einstieg in die Recherche ermöglicht wird. Hinter den Deskriptoren steht eine einzige DK-Zahl, die im Hintergrund die mit ihr verknüpften Titel zusammenführt. Das von Fachreferenten gepflegte Sachregister beinhaltet etwa 63 513 Grundbegriffe (Stand 27.3.2002) mit einer DK-Zahl, die Anzahl der Zusatzbegriffe beträgt das 5 - 8fache. Die Vorzüge des Systems bestehen darin, dass unter Verwendung von Deskriptoren bei der Recherche der Zugriff sowohl auf gedruckte als auch auf elektronische Medien (etwa 2 Millionen Dokumente) möglich ist, ohne dass Kenntnisse des Klassifikationssystems erforderlich sind. Mit der Umstellung von ETHICS auf NEBIS im Jahre 1999 wurde eine neue Benutzeroberfläche angeboten und eine wesentliche Verkürzung der Antwortzeiten erreicht. Zum Anwenderkreis gehören etwa 60 Bibliotheken von Hochschulen, Fachhochschulen und Forschungsanstalten aus allen Regionen der Schweiz, z.B. ETH Zürich, Ecole Polytechnique Federale de Lausanne, weitere Schweizer Verbundbibliotheken, sowie in der Suchmaschine GERHARD (German Harvest Automated Retrieval Directory http://www.gerhard.de/gerold/owa/gerhard.create_ Index html?form-language=99). Der im Programm ausgewiesene Vortrag von Herrn Dr. Bernd Lorenz (München) zum Thema "Konkordanz RVK (Regensburger Verbundklassifikation) - DDC (Dewey Decimal Classification): Notwendigkeit und Vorüberlegungen" wurde vertretungsweise von Herrn Dr. Hans-Joachim Hermes (Chemnitz) übernommen. Bereits seit Beginn der Überlegungen, die DDC in der Deutschen Nationalbibliographie als Klassifikationssystem zu verwenden, werden auch Vorstellungen über eine Konkordanz zwischen den beiden Klassifikationssystemen RVK und DDC geäußert. Die geplante Konkordanz wird die Nutzung beider Klassifikationssysteme vergrößern. In der Darstellung wurden Probleme auf der sprachlichterminologischen Ebene, die bei den Benennungen der Notationen sichtbar werden, aufgezeigt. Nach den Fachvorträgen fand die turnusmäßige Neuwahl des Leiters der AG Dezimalklassifikationen statt. Zum neuen Vorsitzenden wurde Herr Dr. Bernd Lorenz (Bayerische Beamtenfachhochschule München) gewählt.
  7. Fensel, D.: Ontologies : a silver bullet for knowledge management and electronic commerce (2001) 0.05
    0.05181519 = product of:
      0.18135315 = sum of:
        0.005178697 = product of:
          0.025893483 = sum of:
            0.025893483 = weight(_text_:retrieval in 163) [ClassicSimilarity], result of:
              0.025893483 = score(doc=163,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23632148 = fieldWeight in 163, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=163)
          0.2 = coord(1/5)
        0.17617446 = weight(_text_:abfrage in 163) [ClassicSimilarity], result of:
          0.17617446 = score(doc=163,freq=4.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.61642385 = fieldWeight in 163, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.0390625 = fieldNorm(doc=163)
      0.2857143 = coord(2/7)
    
    Abstract
    Ontologies have been developed and investigated for quite a while now in artificial intelligente and natural language processing to facilitate knowledge sharing and reuse. More recently, the notion of ontologies has attracied attention from fields such as intelligent information integration, cooperative information systems, information retrieval, electronic commerce, and knowledge management. The author systematicaliy introduces the notion of ontologies to the non-expert reader and demonstrates in detail how to apply this conceptual framework for improved intranet retrieval of corporate information and knowledge and for enhanced Internet-based electronic commerce. In the second part of the book, the author presents a more technical view an emerging Web standards, like XML, RDF, XSL-T, or XQL, allowing for structural and semantic modeling and description of data and information.
    RSWK
    World Wide Web / Datenbanksystem / Abfrage / Inferenz <Künstliche Intelligenz>
    Subject
    World Wide Web / Datenbanksystem / Abfrage / Inferenz <Künstliche Intelligenz>
  8. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.04
    0.042777516 = product of:
      0.09981421 = sum of:
        0.0074209156 = product of:
          0.018552288 = sum of:
            0.0073237834 = weight(_text_:retrieval in 2789) [ClassicSimilarity], result of:
              0.0073237834 = score(doc=2789,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.06684181 = fieldWeight in 2789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2789)
            0.0112285055 = weight(_text_:system in 2789) [ClassicSimilarity], result of:
              0.0112285055 = score(doc=2789,freq=4.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.098423526 = fieldWeight in 2789, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2789)
          0.4 = coord(2/5)
        0.057530362 = weight(_text_:mehrsprachigkeit in 2789) [ClassicSimilarity], result of:
          0.057530362 = score(doc=2789,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.18733935 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.03486293 = product of:
          0.06972586 = sum of:
            0.06972586 = weight(_text_:zugriff in 2789) [ClassicSimilarity], result of:
              0.06972586 = score(doc=2789,freq=12.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.3227864 = fieldWeight in 2789, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2789)
          0.5 = coord(1/2)
      0.42857143 = coord(3/7)
    
    Content
    Dieses DDC-Tool ermöglicht den Zugriff auf lokale, mit DDC-erschlossene Titeldaten. Für einige bereits übersetzte DDC-Klassen kann mithilfe eines Browsers gearbeitet werden. Auch die gezielte verbale Suche nach DDC-Elementen ist möglich. Die Frage nach Aspekten, wie z. B. geografischen, soll durch getrennte Ablage der Notationselemente in den Titeldatensätzen ermöglicht werden. Schließlich lassen sich künftig auch integrierte Suchen über DDC und SWD oder andere Erschließungssysteme denken, um Literatur zu einem Thema zu finden. Das von Lars Svensson vorgestellte Retrieval-Interface bietet eine zentrale Lösung: nicht für jeden lokalen OPAC müssen eigene Suchstrukturen entwickelt werden, um auf DDC-Daten zugreifen zu können. Wie Datenbestände mit verschiedenen Erschließungen unter einer Oberfläche zusammengeführt werden und dabei die DDC als Meta-Ebene genutzt wird, das ist heute schon im Subject Gateway Renardus sichtbar." Der Renardus-Broker ermöglicht das Cross-Browsen und Cross-Searchen über verteilte Internetquellen in Europa. Für die Navigation über die DDC mussten zunächst Crosswalks zwischen den lokalen Klassifikationsklassen und der DDC erstellt werden. Das an der Universitätsbibliothek Regensburg entwickelte Tool CarmenX wurde dazu von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen weiterentwickelt und ermöglicht den Zugriff auf die ver schiedenen Klassifikationssysteme. Über diese Entwicklungen berichtete Dr. Friedrich Geißelmann, Universitäsbibliothek Regensburg. Er leitete das CARMEN-Teilprojekt »Grosskonkordanzen zwischen Thesauri und Klassifikationen«, in dem das Werkzeug CarmenX entstand. In diesem CARMEN-Arbeitspaket erfolgten sowohl grundlegende methodische Untersuchungen zu Crosskonkordanzen als auch prototypische Umsetzungen in den Fachgebieten Mathematik, Physik und Sozialwissenschaften. Ziel war es, bei Recherchen in verteilten Datenbanken mit unterschiedlichen Klassifikationen und Thesauri von einem vertrauten System auszugehen und in weitere wechseln zu können, ohne genaue Kenntnis von den Systemen haben zu müssen. So wurden z. B. im Bereich Crosskonkordanzen zwischen Allgemein- und Fachklassifikationen die RVK und die Mathematical Subject Classification (MSC) und Physics and Astronomy Classification Scheme (PACS) ausgewählt.
    Katja Heyke, Universitäts- und Stadtbibliothek Köln, und Manfred Faden, Bibliothek des HWWA-Instituts für Wirtschaftsforschung Hamburg, stellten ähnliche Entwicklungen für den Fachbereich Wirtschaftswissenschaften vor. Hier wird eine Crosskonkordanz zwischen dem Standard Thesaurus Wirtschaft (STW) und dem Bereich Wirtschaft der SWD aufgebaut." Diese Datenbank soll den Zugriff auf die mit STW und SWD erschlossenen Bestände ermöglichen. Sie wird dazu weitergegeben an die virtuelle Fachbibliothek EconBiz und an den Gemeinsamen Bibliotheksverbund. Die Crosskonkordanz Wirtschaft bietet aber auch die Chance zur kooperativen Sacherschließung, denn sie eröffnet die Möglichkeit der gegenseitigen Übernahme von Sacherschließungsdaten zwischen den Partnern Die Deutsche Bibliothek, Universitäts- und Stadtbibliothek Köln, HWWA und Bibliothek des Instituts für Weltwirtschaft Kiel. Am Beispiel der Wirtschaftswissenschaften zeigt sich der Gewinn solcher KonkordanzProjekte für Indexierer und Benutzer. Der Austausch über die Erschließungsregeln und die systematische Analyse der Normdaten führen zur Bereinigung von fachlichen Schwachstellen und Inkonsistenzen in den Systemen. Die Thesauri werden insgesamt verbessert und sogar angenähert. Die Vortragsreihe schloss mit einem Projekt, das die Heterogenität der Daten aus dem Blickwinkel der Mehrsprachigkeit betrachtet. Martin Kunz, Deutsche Bibliothek Frankfurt am Main, informierte über das Projekt MACS (Multilingual Access to Subject Headings). MACS bietet einen mehrsprachigen Zugriff auf Bibliothekskataloge. Dazu wurde eine Verbindung zwischen den Schlagwortnormdateien LCSH, RAMEAU und SWD erarbeitet. Äquivalente Vorzugsbezeichnungen der Normdateien werden intellektuell nachgewiesen und als Link abgelegt. Das Projekt beschränkte sich zunächst auf die Bereiche Sport und Theater und widmet sich in einer nächsten Stufe den am häufigsten verwendeten Schlagwörtern. MACS geht davon aus, dass ein Benutzer in der Sprache seiner Wahl (Deutsch, Englisch, Französisch) eine Schlagwortsuche startet, und ermöglicht ihm, seine Suche auf die affilierten Datenbanken im Ausland auszudehnen. Martin Kunz plädierte für einen Integrationsansatz, der auf dem gegenseitigen Respekt vor der Terminologie der kooperierenden Partner beruht. Er sprach sich dafür aus, in solchen Vorhaben den Begriff der Thesaurus föderation anzuwenden, der die Autonomie der Thesauri unterstreicht.
    Wie kann man den Suchenden einen einheitlichen Zugriff auf Inhalte bieten, ganz gleich, in welchem System und mit welcher Methode sie erschlossen sind? Diese Frage hat die Vortragsreihe in unterschiedlichen Ansätzen untersucht. Die bewährten Orientierungssysteme sind für den Zugriff der Benutzer auf verteilte und auch fachübergreifende Bestände nicht mehr ausreichend. Einheitliche und einfache Zugänge zu Informationen in der Onlinewelt erfordern die Integration der vorhandenen Klassifikationen und Thesauri. Solche Transferkomponenten können die verschiedenen Schalen der Inhaltserschließung - verschiedene Erschließungsqualitäten und -niveaus - zusammenführen. Sie helfen Konsistenzbrüche auszugleichen und unsere Erschließungsdaten optimal anzubieten."
  9. Knowledge organization and the global information society : Proceedings of the 8th International ISKO Conference 13-16 July 2004, London, UK (2004) 0.03
    0.03315992 = product of:
      0.07737315 = sum of:
        0.012902393 = product of:
          0.03225598 = sum of:
            0.016376477 = weight(_text_:retrieval in 3356) [ClassicSimilarity], result of:
              0.016376477 = score(doc=3356,freq=10.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.14946283 = fieldWeight in 3356, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3356)
            0.015879504 = weight(_text_:system in 3356) [ClassicSimilarity], result of:
              0.015879504 = score(doc=3356,freq=8.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13919188 = fieldWeight in 3356, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3356)
          0.4 = coord(2/5)
        0.057530362 = weight(_text_:mehrsprachigkeit in 3356) [ClassicSimilarity], result of:
          0.057530362 = score(doc=3356,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.18733935 = fieldWeight in 3356, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.015625 = fieldNorm(doc=3356)
        0.0069403946 = product of:
          0.013880789 = sum of:
            0.013880789 = weight(_text_:22 in 3356) [ClassicSimilarity], result of:
              0.013880789 = score(doc=3356,freq=4.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.109432176 = fieldWeight in 3356, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3356)
          0.5 = coord(1/2)
      0.42857143 = coord(3/7)
    
    Content
    Inhalt: Session 1 A: Theoretical Foundations of Knowledge Organization 1 Hanne Albrechtsen, Hans H K Andersen, Bryan Cleal and Annelise Mark Pejtersen: Categorical complexity in knowledge integration: empirical evaluation of a cross-cultural film research collaboratory; Clare Beghtol: Naive classification systems and the global information society; Terence R Smith and Marcia L Zeng: Concept maps supported by knowledge organization structures; B: Linguistic and Cultural Approaches to Knowledge Organization 1 Rebecca Green and Lydia Fraser: Patterns in verbal polysemy; Maria J López-Huertas, MarioBarite and Isabel de Torres: Terminological representation of specialized areas in conceptual structures: the case of gender studies; Fidelia Ibekwe-SanJuan and Eric SanJuan: Mining for knowledge chunks in a terminology network Session 2 A: Applications of Artificial Intelligence and Knowledge Representation 1 Jin-Cheon Na, Haiyang Sui, Christopher Khoo, Syin Chan and Yunyun Zhou: Effectiveness of simple linguistic processing in automatic sentiment classification of product reviews; Daniel J O'Keefe: Cultural literacy in a global information society-specific language: an exploratory ontological analysis utilizing comparative taxonomy; Lynne C Howarth: Modelling a natural language gateway to metadata-enabled resources; B: Theoretical Foundations of Knowledge Organization 2: Facets & Their Significance Ceri Binding and Douglas Tudhope: Integrating faceted structure into the search process; Vanda Broughton and Heather Lane: The Bliss Bibliographic Classification in action: moving from a special to a universal faceted classification via a digital platform; Kathryn La Barre: Adventures in faceted classification: a brave new world or a world of confusion? Session 3 A: Theoretical Foundations of Knowledge Organization 3 Elin K Jacob: The structure of context: implications of structure for the creation of context in information systems; Uta Priss: A semiotic-conceptual framework for knowledge representation Giovanni M Sacco; Accessing multimedia infobases through dynamic taxonomies; Joseph T Tennis: URIS and intertextuality: incumbent philosophical commitments in the development of the semantic web; B: Social & Sociological Concepts in Knowledge Organization Grant Campbell: A queer eye for the faceted guy: how a universal classification principle can be applied to a distinct subculture; Jonathan Furner and Anthony W Dunbar: The treatment of topics relating to people of mixed race in bibliographic classification schemes: a critical ace-theoretic approach; H Peter Ohly: The organization of Internet links in a social science clearing house; Chern Li Liew: Cross-cultural design and usability of a digital library supporting access to Maori cultural heritage resources: an examination of knowledge organization issues; Session 4 A: Knowledge Organization of Universal and Special Systems 1: Dewey Decimal Classification Sudatta Chowdhury and G G Chowdhury: Using DDC to create a visual knowledge map as an aid to online information retrieval; Joan S Mitchell: DDC 22: Dewey in the world, the world in Dewey; Diane Vizine-Goetz and Julianne Beall: Using literary warrant to define a version of the DDCfor automated classification services; B: Applications in Knowledge Representation 2 Gerhard J A Riesthuis and Maja Zumer: FRBR and FRANAR: subject access; Victoria Frâncu: An interpretation of the FRBR model; Moshe Y Sachs and Richard P Smiraglia: From encyclopedism to domain-based ontology for knowledge management: the evolution of the Sachs Classification (SC); Session 5 A: Knowledge Organization of Universal and Special Systems 2 Ágnes Hajdu Barát: Knowledge organization of the Universal Decimal Classification: new solutions, user friendly methods from Hungary; Ia C McIlwaine: A question of place; Aida Slavic and Maria Inês Cordeiro: Core requirements for automation of analytico-synthetic classifications;
    B: Applications in Knowledge Representation 3 Barbara H Kwasnik and You-Lee Chun: Translation of classifications: issues and solutions as exemplified in the Korean Decimal Classification; Hur-Li Lee and Jennifer Clyde: Users' perspectives of the "Collection" and the online catalogue; Jens-Erik Mai: The role of documents, domains and decisions in indexing Session 6 A: Knowledge Organization of Universal and Special Systems 3 Stella G Dextre Clarke, Alan Gilchrist and Leonard Will: Revision and extension of thesaurus standards; Michèle Hudon: Conceptual compatibility in controlled language tools used to index and access the content of moving image collections; Antonio Garcia Jimdnez, Félix del Valle Gastaminza: From thesauri to ontologies: a case study in a digital visual context; Ali Asghar Shiri and Crawford Revie: End-user interaction with thesauri: an evaluation of cognitive overlap in search term selection; B: Special Applications Carol A Bean: Representation of medical knowledge for automated semantic interpretation of clinical reports; Chew-Hung Lee, Christopher Khoo and Jin-Cheon Na: Automatic identification of treatment relations for medical ontology learning: an exploratory study; A Neelameghan and M C Vasudevan: Integrating image files, case records of patients and Web resources: case study of a knowledge Base an tumours of the central nervous system; Nancy J Williamson: Complementary and alternative medicine: its place in the reorganized medical sciences in the Universal Decimal Classification; Session 7 A: Applications in Knowledge Representation 4 Claudio Gnoli: Naturalism vs pragmatism in knowledge organization; Wouter Schallier: On the razor's edge: between local and overall needs in knowledge organization; Danielle H Miller: User perception and the online catalogue: public library OPAC users "think aloud"; B: Knowledge Organization in Corporate Information Systems Anita S Coleman: Knowledge structures and the vocabulary of engineering novices; Evelyne Mounier and Céline Paganelli: The representation of knowledge contained in technical documents: the example of FAQs (frequently asked questions); Martin S van der Walt: A classification scheme for the organization of electronic documents in small, medium and micro enterprises (SMMEs); Session 8 A: Knowledge Organization of Non-print Information: Sound, Image, Multimedia Laura M Bartoto, Cathy S Lowe and Sharon C Glotzer: Information management of microstructures: non-print, multidisciplinary information in a materials science digital library; Pauline Rafferty and Rob Hidderley: A survey of Image trieval tools; Richard P Smiraglia: Knowledge sharing and content genealogy: extensiog the "works" model as a metaphor for non-documentary artefacts with case studies of Etruscan artefacts; B: Linguistic and Cultural Approaches to Knowledge Organization 2 Graciela Rosemblat, Tony Tse and Darren Gemoets: Adapting a monolingual consumer health system for Spanish cross-language information retrieval; Matjaz Zalokar: Preparation of a general controlled vocabulary in Slovene and English for the COBISS.SI library information system, Slovenia; Marianne Dabbadie, Widad Mustafa El Hadi and Francois Fraysse: Coaching applications: a new concept for usage testing an information systems. Testing usage an a corporate information system with K-Now; Session 9 Theories of Knowledge and Knowledge Organization Keiichi Kawamura: Ranganathan and after: Coates' practice and theory; Shiyan Ou, Christopher Khoo, Dion H Goh and Hui-Ying Heng: Automatic discourse parsing of sociology dissertation abstracts as sentence categorization; Iolo Jones, Daniel Cunliffe, Douglas Tudhope: Natural language processing and knowledge organization systems as an aid to retrieval
    Footnote
    Rez. in: Mitt. VÖB 58(2005) H.1, S.78-81 (O. Oberhauser): "Die 1989 gegründete Internationale Gesellschaft für Wissensorganisation (ISKO) ist eine der wenigen Vereinigungen, deren Interessensschwerpunkt ganz auf wissenschaftliche und praktische Fragen der inhaltlichen Erschliessung und des sachlichen Informationszugangs ausgerichtet ist. Die deutschsprachige Sektion der ISKO hat ihren Sitz in Bonn; die Gesellschaft ist jedoch hierzulande nicht ausreichend bekannt und hat bislang nurwenige Mitglieder aus Österreich. Neben der nunmehr bereits seit über dreissig Jahren erscheinenden Fachzeitschrift Knowledge Organization (bis 1993 International Classification) publiziert die ISKO mehrere Buchserien, die früher im Frankfurter Indeks-Verlag erschienen und heute - wie auch die Zeitschrift - in Würzburg bei Ergon verlegt werden. Unter diesen nehmen die Tagungsbände der internationalen ISKO-Konferenzen, die seit 1990 alle zwei Jahre (an wechselnden Orten) abgehalten werden, eine bedeutende Stellung ein. Nun liegen die Proceedings der im Juli des vergangenen Jahres in London veranstalteten achten Konferenz vor, editiert in einheitlichem Layout, an dem mit Ausnahme der relativ kleinen Schrift, einem mitunter miss glückten Randausgleich bei den Titelüberschriften, unschönen (da fehlenden) Abständen bei den Überschriften von Subkapiteln sowie den üblichen vermeidbaren Tippfehlern (z.B. "trieval" anstelle von "retrieval" im Inhaltsverzeichnis, p. 9) wenig auszusetzen ist. Der trotz des kleinen Fonts stattlich wirkende Band versammelt immerhin 55 Vorträge, die, offenbar der Organisation der Tagung entsprechend, in 17 Abschnitte gegliedert sind. Die letzteren sind allerdings nur aus dem Inhaltsverzeichnis ersichtlich und entbehren jeden Kommentars, der sie auch inhaltlich hätte näher charakterisieren können. Die Herkunft der Autoren der Vorträge - darunter einige grosse und bekannte Namen - spiegelt die Internationalität der Vereinigung wider. Der deutsche Sprachraum ist allerdings nur durch einen einzigen Beitrag vertreten (H. Peter Ohly vom IZ Sozialwissenschaften, Bonn, über die Erschliessung einer Datenbank für Web-Ressourcen); bibliothekarische Autoren aus dem Raum "D-A-CH" sucht man vergebens. Die meisten Vorträge sind relativ kurz und bündig gehalten; die durchschnittliche Länge beträgt etwa vier bis sechs Seiten.
    Das Rahmenthema der Tagung kam aufgrund des vor und nach der ISKO-Konferenz abgehaltenen "UN World Summit an an Information Society" zustande. Im Titel des Buches ist die "globale Wissensgesellschaft" freilich eher irreführend, da keiner der darin abgedruckten Beiträge zentral davon handelt. Der eine der beiden Vorträge, die den Begriff selbst im Titel anführen, beschäftigt sich mit der Konstruktion einer Taxonomie für "cultural literacy" (O'Keefe), der andere mit sogenannten "naiven Klassifikationssystemen" (Beghtol), d.h. solchen, die im Gegensatz zu "professionellen" Systemen von Personen ohne spezifisches Interesse an klassifikatorischen Fragen entwickelt wurden. Beiträge mit "multi-kulti"-Charakter behandeln etwa Fragen wie - kulturübergreifende Arbeit, etwa beim EU-Filmarchiv-Projekt Collate (Albrechtsen et al.) oder einem Projekt zur Maori-Kultur (Liew); - Mehrsprachigkeit bzw. Übersetzung, z.B. der koreanischen Dezimalklassifikation (Kwasnik & Chun), eines auf der Sears ListofSubject Headings basierenden slowenischen Schlagwortvokabulars (Zalokar), einer spanisch-englischen Schlagwortliste für Gesundheitsfragen (Rosemblat et al.); - universelle Klassifikationssysteme wie die Dewey-Dezimalklassifikation (Joan Mitchell über die DDC 22, sowie zwei weitere Beiträge) und die Internationale Dezimalklassifikation (la McIlwaine über Geographika, Nancy Williamson über Alternativ- und Komplementärmedizin in der UDC). Unter den 55 Beiträgen finden sich folgende - aus der Sicht des Rezensenten - besonders interessante thematische "Cluster": - OPAC-orientierte Beiträge, etwa über die Anforderungen bei derAutomatisierung analytisch-synthetischer Klassifikationssysteme (Slavic & Cordeiro) sowie Beiträge zu Benutzerforschung und -verhalten (Lee & Clyde; Miller); - Erschliessung und Retrieval von visuellen bzw. multimedialen Ressourcen, insbesondere mit Ausrichtung auf Thesauri (Hudin; Garcia Jimenez & De Valle Gastaminza; Rafferty & Hidderley); - Thesaurus-Standards (Dextre Clark et al.), Thesauri und Endbenutzer (Shiri & Revie); - Automatisches Klassifizieren (Vizine-Goetz & Beall mit Bezug auf die DDC; Na et al. über methodische Ansätze bei der Klassifizierung von Produktbesprechungen nach positiven bzw. negativen Gefühlsäusserungen); - Beiträge über (hierzulande) weniger bekannte Systeme wie Facettenklassifikation einschliesslich der Bliss-Klassifikation sowie der Umsetzung der Ideen von Ranganathan durch E.J. Coates (vier Vorträge), die Sachs-Klassifikation (Sachs & Smiraglia) sowie M. S. van der Walts Schema zur Klassifizierung elektronischer Dokumente in Klein- und Mittelbetrieben. Auch die übrigen Beiträge sind mehrheitlich interessant geschrieben und zeugen vom fachlichen Qualitätsstandard der ISKO-Konferenzen. Der Band kann daher bibliothekarischen bzw. informationswissenschaftlichen Ausbildungseinrichtungen sowie Bibliotheken mit Sammelinteresse für Literatur zu Klassifikationsfragen ausdrücklich empfohlen werden. Ausserdem darf der nächsten (= neunten) internationalen ISKO-Konferenz, die 2006 in Wien abgehalten werden soll, mit Interesse entgegengesehen werden.
  10. Hawking, D.; Robertson, S.: On collection size and retrieval effectiveness (2003) 0.02
    0.020598568 = product of:
      0.072094984 = sum of:
        0.01657183 = product of:
          0.08285914 = sum of:
            0.08285914 = weight(_text_:retrieval in 4109) [ClassicSimilarity], result of:
              0.08285914 = score(doc=4109,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.75622874 = fieldWeight in 4109, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.125 = fieldNorm(doc=4109)
          0.2 = coord(1/5)
        0.055523157 = product of:
          0.111046314 = sum of:
            0.111046314 = weight(_text_:22 in 4109) [ClassicSimilarity], result of:
              0.111046314 = score(doc=4109,freq=4.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.8754574 = fieldWeight in 4109, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4109)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Date
    14. 8.2005 14:22:22
    Source
    Information retrieval. 6(2003) no.1, S.99-150
  11. Rademaker, C.A.: ¬The classification of plants in the United States Patent Classification System (2000) 0.01
    0.014846974 = product of:
      0.051964406 = sum of:
        0.012703604 = product of:
          0.06351802 = sum of:
            0.06351802 = weight(_text_:system in 6200) [ClassicSimilarity], result of:
              0.06351802 = score(doc=6200,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.5567675 = fieldWeight in 6200, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.125 = fieldNorm(doc=6200)
          0.2 = coord(1/5)
        0.0392608 = product of:
          0.0785216 = sum of:
            0.0785216 = weight(_text_:22 in 6200) [ClassicSimilarity], result of:
              0.0785216 = score(doc=6200,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.61904186 = fieldWeight in 6200, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=6200)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Source
    World patent information. 22(2000), S.301-307
  12. Rademaker, C.A.: ¬The classification of ornamental designs in the United States Patent Classification System (2000) 0.01
    0.014846974 = product of:
      0.051964406 = sum of:
        0.012703604 = product of:
          0.06351802 = sum of:
            0.06351802 = weight(_text_:system in 6308) [ClassicSimilarity], result of:
              0.06351802 = score(doc=6308,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.5567675 = fieldWeight in 6308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.125 = fieldNorm(doc=6308)
          0.2 = coord(1/5)
        0.0392608 = product of:
          0.0785216 = sum of:
            0.0785216 = weight(_text_:22 in 6308) [ClassicSimilarity], result of:
              0.0785216 = score(doc=6308,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.61904186 = fieldWeight in 6308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=6308)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Source
    World patent information. 22(2000), S.123-133
  13. Enser, P.G.B.: Visual image retrieval (2008) 0.01
    0.014565388 = product of:
      0.050978854 = sum of:
        0.011718053 = product of:
          0.058590267 = sum of:
            0.058590267 = weight(_text_:retrieval in 3281) [ClassicSimilarity], result of:
              0.058590267 = score(doc=3281,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.5347345 = fieldWeight in 3281, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.125 = fieldNorm(doc=3281)
          0.2 = coord(1/5)
        0.0392608 = product of:
          0.0785216 = sum of:
            0.0785216 = weight(_text_:22 in 3281) [ClassicSimilarity], result of:
              0.0785216 = score(doc=3281,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.61904186 = fieldWeight in 3281, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3281)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Date
    22. 1.2012 13:01:26
  14. Knowledge organization and classification in international information retrieval (2004) 0.01
    0.014189045 = product of:
      0.049661655 = sum of:
        0.014437442 = product of:
          0.036093604 = sum of:
            0.022199038 = weight(_text_:retrieval in 1441) [ClassicSimilarity], result of:
              0.022199038 = score(doc=1441,freq=6.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20260347 = fieldWeight in 1441, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1441)
            0.013894566 = weight(_text_:system in 1441) [ClassicSimilarity], result of:
              0.013894566 = score(doc=1441,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.1217929 = fieldWeight in 1441, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1441)
          0.4 = coord(2/5)
        0.035224214 = product of:
          0.07044843 = sum of:
            0.07044843 = weight(_text_:zugriff in 1441) [ClassicSimilarity], result of:
              0.07044843 = score(doc=1441,freq=4.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.3261314 = fieldWeight in 1441, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1441)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Footnote
    Rez. in Mitteilungen VÖB 57(2004) H.3/4, S.83-84 (O. Oberhauser): "Der Klappentext zu diesem Buch, das gleichzeitig als Cataloging & Classification Quarterly, Jg. 37, Nr. 1/2, veröffentlicht wurde, weiss mit eindrucksvollen Lobpreisungen bekannter anglo-amerikanischer Professoren aufzuwarten. Das Werk ist ein Sammelband mit 14 Artikeln von Autoren aus sechs Ländern, unter denen Kanada mit sechs Beiträgen klar dominiert (was nicht weiter überraschend ist, da die Herausgeberinnen von dort stammen). Das deklarierte Ziel des Bandes ist die Behandlung von Themen, die im Zusammenhang mit Information und Wissen in einem internationalisierten Kontext von Relevanz sind. Dies wird in vier thematisch gegliederten Abschnitten versucht. Das erste dieser Kapitel, General Bibliographic Systems, enthält vier Aufsätze, deren erster die Rolle allgemeiner und spezialisierter Klassifikationssysteme unter den Auspizien von Interoperabilität und weltweitem Zugriff reflektiert. Die anderen behandeln eine Adaptierung der DDC für die Verwendung bei der Erschliessung feministischer Literatur, die Probleme bei der Übersetzung von Klassifikationen von einer Sprache/Kultur in eine andere sowie den multilingualen Zugriff auf Dokumente in bibliographischen Datenbanken durch mehrsprachige, mit UDK-Zahlen verknüpfte Deskriptoren. Die zweite Sektion (ebenfalls vier Artikel) ist mit Information Organization in Knowledge Resources betitelt. Ihre konkreten Themen sind a) die Schwächen bibliothekarischer sachlicher Suchsysteme im internationalen Web-Kontext, b) die Recherche erziehungswissenschaftlicher Web-Ressourcen mittels "subject trees" bzw. in virtuellen Bibliotheken, c) Techniken für Text- und Data-Mining im Rahmen von Wissensorganisation und -ermittlung sowie d) Ansätze für die Wissensermittlung in nicht-bibliographischen Datenbanken.
    Im dritten Kapitel, Linguistics, Terminology, and Natural Language Processing, werden Anwendungen der Sprachtechnologie auf die Informationsrecherche und -verteilung über Sprachgrenzen hinweg, die Auswirkungen unterschiedlicher Sprachvarianten auf lexikalische Wissensmuster sowie ein "gateway" für fachübergreifende Wissensbanken, das auf einem Vokabular von Allgemeinbegriffen aus neun verschiedenen MetadatenSchemata beruht, behandelt. Der letzte Abschnitt trägt den etwas rätselhaften Titel Knowledge in the World and the World of Knowledge und enthält so heterogene Beiträge wie den Entwurf eines axiomatischen Systems für die semantische Integration von Ontologien, einen Vergleich der einflussreichen Knowledge-Management-Ansätze von Nonaka & Takeuchi (Japan) und Davenport & Prusak (USA) sowie einen Vergleich der Repräsentation amerikanischer und internationaler agrarökonomischer Themen in LCC (Library of Congress Classification) und NAICS (North American Industrial Classification System). Die eingangs erwähnten Lobeshymnen sind meiner Meinung nach ein wenig übertrieben. Das Buch ist nicht mehr und nicht weniger als ein recht typischer Sammelband mit wissenschaftlichen Artikeln von unterschiedlicher Qualität. Einige davon sind in verständlicher Sprache verfasst (wie etwa der kurze Beitrag über allgemeine vs. spezifische Klassifikationssysteme von J.-E. Mai), andere sind für normale Bibliothekare bzw. Informationswissenschaftler praktisch unlesbar (wie jener über Ontologien von R. E. Kent, der mehr als nur oberflächliche Kenntnisse der formalen Logik voraussetzt). Einige Artikel fand ich recht interessant, andere eher etwas langatmig. Die meisten Beiträge werden vermutlich eher bei wissenschaftlichen Vertretern unserer Disziplin auf Interesse stossen als bei Praktikern. Dass das Buch überein brauchbares Register verfügt, sei positiv vermerkt, zumal derlei heute nicht mehrselbstverständlich ist. Zur Anschaffung empfehlen würde ich diesen Band nicht nur Bibliotheken mit Spezialisierung auf Bibliotheks- und Informationswissenschaft, sondern auch allen grossen wissenschaftlichen Bibliotheken."
    LCSH
    Information retrieval
    Subject
    Information retrieval
  15. Torra, V.; Lanau, S.; Miyamoto, S.: Image clustering for the exploration of video sequences (2006) 0.01
    0.014188916 = product of:
      0.049661204 = sum of:
        0.032484602 = product of:
          0.08121151 = sum of:
            0.025633242 = weight(_text_:retrieval in 5284) [ClassicSimilarity], result of:
              0.025633242 = score(doc=5284,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23394634 = fieldWeight in 5284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5284)
            0.055578265 = weight(_text_:system in 5284) [ClassicSimilarity], result of:
              0.055578265 = score(doc=5284,freq=8.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.4871716 = fieldWeight in 5284, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5284)
          0.4 = coord(2/5)
        0.0171766 = product of:
          0.0343532 = sum of:
            0.0343532 = weight(_text_:22 in 5284) [ClassicSimilarity], result of:
              0.0343532 = score(doc=5284,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.2708308 = fieldWeight in 5284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5284)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    In this article we present a system for the exploration of video sequences. The system, GAMBAL for the Exploration of Video Sequences (GAMBAL-EVS), segments video sequences, extracting an image for each shot, and then clusters such images and presents them in a visualization system. The system allows the user to find similarities between images and to proceed through the video sequences to find the relevant ones.
    Date
    22. 7.2006 17:15:51
    Footnote
    Beitrag in einer Special Topic Section on Soft Approaches to Information Retrieval and Information Access on the Web
  16. Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005) 0.01
    0.013443955 = product of:
      0.04705384 = sum of:
        0.0015879505 = product of:
          0.007939752 = sum of:
            0.007939752 = weight(_text_:system in 3675) [ClassicSimilarity], result of:
              0.007939752 = score(doc=3675,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.06959594 = fieldWeight in 3675, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3675)
          0.2 = coord(1/5)
        0.04546589 = sum of:
          0.028465465 = weight(_text_:zugriff in 3675) [ClassicSimilarity], result of:
            0.028465465 = score(doc=3675,freq=2.0), product of:
              0.2160124 = queryWeight, product of:
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.03622214 = queryNorm
              0.13177699 = fieldWeight in 3675, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.015625 = fieldNorm(doc=3675)
          0.017000426 = weight(_text_:22 in 3675) [ClassicSimilarity], result of:
            0.017000426 = score(doc=3675,freq=6.0), product of:
              0.12684377 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03622214 = queryNorm
              0.1340265 = fieldWeight in 3675, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=3675)
      0.2857143 = coord(2/7)
    
    Content
    "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
    Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
    Der Abschluss des Workshops ließ die Ebene der bisher vorwiegend erörterten praktischen Aufgabenstellungen des gegenwärtigen Bibliothekswesens weit hinter sich. Winfried Gödert und Michael Preuss von der Fachhochschule Köln reflektierten gemeinsam die Möglichkeit der Existenz einer universal einsetzbaren, durch alle Menschen in allen Wissensgebieten verwendbaren Klassifikation. Die von ihnen gefundene Lösung besteht in der Erweiterung eines Kernsystems durch eine spezifische Form der Lokalisierung, durch das Andocken der universal gültigen und allgemein verständlichen Klassifikationsmerkmale am jeweils verschiedenen Sinnhorizont des Empfängers. Aus dieser Erkenntnis leiteten Gödert und Preuss eine Reihe von Forderungen an die DDC Deutsch ab, etwa die Er schließung multilingualer Bestände durch ein multilinguales Zugangsvokabular oder den Zugriff auf eine möglichst große Zahl von Dateien, die nur nach einem universalen System erschlossen sind. Interessanterweise waren es gerade diese theoretischen Reflexionen, die Anlass zu lebhafter Diskussion boten und kritische Einwürfe aus dem Publikum hervorriefen, während es zuvor nur wenige Anfragen zu der Übersetzungsarbeit und dem Einsatz des Web-Tools gegeben hatte. Das Projekt DDC Deutsch ist zu Ende - die Arbeit an und mit der DDC Deutsch hat gerade erst begonnen. Auch die Diskussion über den Umfang des konkreten Einsatzes der DDC Deutsch ist noch im Fluss. Die Deutsche Bibliothek setzt hier, wie Magda HeinerFreiling noch einmal betonte, auf einen regen Meinungsaustausch mit den Bibliotheken im deutschsprachigen Raum. So entließ der Workshop die Teilnehmer mit der Erkenntnis, einen großen Schritt vorwärts gekommen zu sein, aber dennoch erst am Anfang einer zukunftsträchtigen Entwicklung zu stehen."
  17. Huag, P.W.; Dai, S.K.: Design of a two-stage content-based image retrieval system using texture similarity (2004) 0.01
    0.013270704 = product of:
      0.046447463 = sum of:
        0.031724665 = product of:
          0.07931166 = sum of:
            0.0380555 = weight(_text_:retrieval in 2559) [ClassicSimilarity], result of:
              0.0380555 = score(doc=2559,freq=6.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.34732026 = fieldWeight in 2559, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2559)
            0.041256163 = weight(_text_:system in 2559) [ClassicSimilarity], result of:
              0.041256163 = score(doc=2559,freq=6.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.36163113 = fieldWeight in 2559, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2559)
          0.4 = coord(2/5)
        0.0147228 = product of:
          0.0294456 = sum of:
            0.0294456 = weight(_text_:22 in 2559) [ClassicSimilarity], result of:
              0.0294456 = score(doc=2559,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23214069 = fieldWeight in 2559, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2559)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Efficacy and efficiency are two important issues in designing content-based image retrieval systems. In this paper, we present an efficient two-stage image retrieval system with high performance of efficacy based on two novel texture features, the composite sub-band gradient (CSG) vector and the energy distribution pattern (EDP)-string. Both features are generated from the sub-images of a wavelet decomposition of the original image. At the first stage, a fuzzy matching process based on EDP-strings is performed and serves as a signature filter to quickly remove a large number of non-promising database images from further consideration. At the second stage, the images passing through the filter will be compared with the query image based on their CSG vectors for detailed feature inspection. By exercising a database of 2400 images obtained from the Brodatz album, we demonstrated that both high efficacy and high efficiency can be achieved simultaneously by our proposed system
    Date
    14. 8.2004 19:22:02
  18. Beppler, F.D.; Fonseca, F.T.; Pacheco, R.C.S.: Hermeneus: an architecture for an ontology-enabled information retrieval (2008) 0.01
    0.013270704 = product of:
      0.046447463 = sum of:
        0.031724665 = product of:
          0.07931166 = sum of:
            0.0380555 = weight(_text_:retrieval in 3261) [ClassicSimilarity], result of:
              0.0380555 = score(doc=3261,freq=6.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.34732026 = fieldWeight in 3261, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3261)
            0.041256163 = weight(_text_:system in 3261) [ClassicSimilarity], result of:
              0.041256163 = score(doc=3261,freq=6.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.36163113 = fieldWeight in 3261, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3261)
          0.4 = coord(2/5)
        0.0147228 = product of:
          0.0294456 = sum of:
            0.0294456 = weight(_text_:22 in 3261) [ClassicSimilarity], result of:
              0.0294456 = score(doc=3261,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23214069 = fieldWeight in 3261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3261)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Ontologies improve IR systems regarding its retrieval and presentation of information, which make the task of finding information more effective, efficient, and interactive. In this paper we argue that ontologies also greatly improve the engineering of such systems. We created a framework that uses ontology to drive the process of engineering an IR system. We developed a prototype that shows how a domain specialist without knowledge in the IR field can build an IR system with interactive components. The resulting system provides support for users not only to find their information needs but also to extend their state of knowledge. This way, our approach to ontology-enabled information retrieval addresses both the engineering aspect described here and also the usability aspect described elsewhere.
    Date
    28.11.2016 12:43:22
  19. Denda, K.: Beyond subject headings : a structured information retrieval tool for interdisciplinary fields (2005) 0.01
    0.0127447145 = product of:
      0.0446065 = sum of:
        0.010253297 = product of:
          0.051266484 = sum of:
            0.051266484 = weight(_text_:retrieval in 1038) [ClassicSimilarity], result of:
              0.051266484 = score(doc=1038,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.46789268 = fieldWeight in 1038, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1038)
          0.2 = coord(1/5)
        0.0343532 = product of:
          0.0687064 = sum of:
            0.0687064 = weight(_text_:22 in 1038) [ClassicSimilarity], result of:
              0.0687064 = score(doc=1038,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.5416616 = fieldWeight in 1038, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1038)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Date
    10. 9.2000 17:38:22
  20. Voorhees, E.M.; Harman, D.: Overview of the Sixth Text REtrieval Conference (TREC-6) (2000) 0.01
    0.0127447145 = product of:
      0.0446065 = sum of:
        0.010253297 = product of:
          0.051266484 = sum of:
            0.051266484 = weight(_text_:retrieval in 6438) [ClassicSimilarity], result of:
              0.051266484 = score(doc=6438,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.46789268 = fieldWeight in 6438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6438)
          0.2 = coord(1/5)
        0.0343532 = product of:
          0.0687064 = sum of:
            0.0687064 = weight(_text_:22 in 6438) [ClassicSimilarity], result of:
              0.0687064 = score(doc=6438,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.5416616 = fieldWeight in 6438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6438)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Date
    11. 8.2001 16:22:19

Languages

Types

  • a 2243
  • m 233
  • el 169
  • s 102
  • b 26
  • x 13
  • r 8
  • n 5
  • i 4
  • p 2
  • More… Less…

Themes

Subjects

Classifications