Search (3257 results, page 1 of 163)

  • × year_i:[2000 TO 2010}
  • × type_ss:"a"
  1. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.42
    0.4207935 = product of:
      0.7363886 = sum of:
        0.04602429 = product of:
          0.23012145 = sum of:
            0.23012145 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.23012145 = score(doc=140,freq=2.0), product of:
                0.3070917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03622214 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.2 = coord(1/5)
        0.23012145 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.23012145 = score(doc=140,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.23012145 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.23012145 = score(doc=140,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.23012145 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.23012145 = score(doc=140,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.5714286 = coord(4/7)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.41
    0.4050102 = product of:
      0.5670143 = sum of:
        0.034518216 = product of:
          0.17259108 = sum of:
            0.17259108 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.17259108 = score(doc=562,freq=2.0), product of:
                0.3070917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03622214 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.2 = coord(1/5)
        0.17259108 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.17259108 = score(doc=562,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.17259108 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.17259108 = score(doc=562,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.17259108 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.17259108 = score(doc=562,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0147228 = product of:
          0.0294456 = sum of:
            0.0294456 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.0294456 = score(doc=562,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  3. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.37
    0.36819437 = product of:
      0.6443401 = sum of:
        0.040271256 = product of:
          0.20135628 = sum of:
            0.20135628 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.20135628 = score(doc=306,freq=2.0), product of:
                0.3070917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03622214 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.2 = coord(1/5)
        0.20135628 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.20135628 = score(doc=306,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.20135628 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.20135628 = score(doc=306,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.20135628 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.20135628 = score(doc=306,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.5714286 = coord(4/7)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  4. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.34
    0.34076422 = product of:
      0.5963374 = sum of:
        0.07856413 = product of:
          0.19641033 = sum of:
            0.17259108 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.17259108 = score(doc=2918,freq=2.0), product of:
                0.3070917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03622214 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
            0.023819257 = weight(_text_:system in 2918) [ClassicSimilarity], result of:
              0.023819257 = score(doc=2918,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20878783 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.4 = coord(2/5)
        0.17259108 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.17259108 = score(doc=2918,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.17259108 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.17259108 = score(doc=2918,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.17259108 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.17259108 = score(doc=2918,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.5714286 = coord(4/7)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
    Source
    System Sciences, 2009. HICSS '09. 42nd Hawaii International Conference
  5. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.26
    0.26299593 = product of:
      0.46024287 = sum of:
        0.028765181 = product of:
          0.1438259 = sum of:
            0.1438259 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.1438259 = score(doc=5895,freq=2.0), product of:
                0.3070917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03622214 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.2 = coord(1/5)
        0.1438259 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.1438259 = score(doc=5895,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.1438259 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.1438259 = score(doc=5895,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.1438259 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.1438259 = score(doc=5895,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
      0.5714286 = coord(4/7)
    
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  6. Loth, K.: Thematische Abfrage einer dreisprachigen Datenbank mit computerlinguistischen Komponenten (2004) 0.06
    0.061648224 = product of:
      0.43153754 = sum of:
        0.43153754 = weight(_text_:abfrage in 887) [ClassicSimilarity], result of:
          0.43153754 = score(doc=887,freq=6.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            1.5099239 = fieldWeight in 887, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.078125 = fieldNorm(doc=887)
      0.14285715 = coord(1/7)
    
    Abstract
    Der Beitrag befasst sich mit dem Einsatz der Computerlinguistik bei der thematischen Abfrage einer mehrsprachigen bibliographischen Datenbank. Das Verbundsystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz) wurde durch computerlinguistische Komponenten ergänzt, um die thematische Abfrage in den drei Sprachen Deutsch, Englisch und Französisch effektiver und benutzerfreundlicher zu machen.
  7. Weiße, A.: AG Dezimalklassifikation (AG DK) (2002) 0.06
    0.060567256 = product of:
      0.1413236 = sum of:
        0.009158121 = product of:
          0.022895303 = sum of:
            0.010985675 = weight(_text_:retrieval in 1693) [ClassicSimilarity], result of:
              0.010985675 = score(doc=1693,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.10026272 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1693)
            0.011909628 = weight(_text_:system in 1693) [ClassicSimilarity], result of:
              0.011909628 = score(doc=1693,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.104393914 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1693)
          0.4 = coord(2/5)
        0.074744485 = weight(_text_:abfrage in 1693) [ClassicSimilarity], result of:
          0.074744485 = score(doc=1693,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.26152647 = fieldWeight in 1693, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1693)
        0.057421 = sum of:
          0.042698197 = weight(_text_:zugriff in 1693) [ClassicSimilarity], result of:
            0.042698197 = score(doc=1693,freq=2.0), product of:
              0.2160124 = queryWeight, product of:
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.03622214 = queryNorm
              0.19766548 = fieldWeight in 1693, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1693)
          0.0147228 = weight(_text_:22 in 1693) [ClassicSimilarity], result of:
            0.0147228 = score(doc=1693,freq=2.0), product of:
              0.12684377 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03622214 = queryNorm
              0.116070345 = fieldWeight in 1693, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1693)
      0.42857143 = coord(3/7)
    
    Abstract
    Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
    Das Recherchesystem bietet eine Übersicht der Fachgebiete nach UDK, ein Register der Fächer (z.B. Register A-Z Wirtschaftswissenschaften), eine alphabetische Auflistung der Fächer und die systematische Gliederung der Fachgebiete mit Anzeige der Anzahl der Titelnachweise. Der von der Firma Mikro Univers GmbH Berlin erstellte digitalisierte Katalog wurde ab 1.8.02 frei geschaltet (http://altkataloge.uni-muenster.de/de/index sys.htm). Das von der ULB Münster realisierte Projekt könnte für andere Universitätsbibliotheken Anregung sein, konventionelle Systematische Zettelkataloge, die vor allem ältere wissenschaftliche Literatur nachweisen und erfahrungsgemäß in dieser Form wenig genutzt werden, in digitalisierter Form einem über die Grenzen der jeweiligen Universitätsbibliothek erweiterten Nutzerkreis zur Verfügung zu stellen. Herr Dr. Jiri Pika (ETH Zürich) referierte in seinem Vortrag "Anwendung der UDK in NEBIS in der Schweiz: ein Ausblick" über die seit etwa 20 Jahren praktizierte inhaltliche Erschließung von Dokumenten nach UDK im neuen Bibliothekssystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz http://www.nebis.ch/index.html), das das Bibliothekssystem ETHICS ablöste. Wie im System ETHICS beruht die Abfrage auf Deskriptoren in drei Sprachen (deutsch, englisch, französisch) und einer Anzahl weiterer Begriffe (Synonyme, Akronyme), womit ein benutzerfreundlicher den Gegebenheiten der multilingualen Schweiz angepasster Einstieg in die Recherche ermöglicht wird. Hinter den Deskriptoren steht eine einzige DK-Zahl, die im Hintergrund die mit ihr verknüpften Titel zusammenführt. Das von Fachreferenten gepflegte Sachregister beinhaltet etwa 63 513 Grundbegriffe (Stand 27.3.2002) mit einer DK-Zahl, die Anzahl der Zusatzbegriffe beträgt das 5 - 8fache. Die Vorzüge des Systems bestehen darin, dass unter Verwendung von Deskriptoren bei der Recherche der Zugriff sowohl auf gedruckte als auch auf elektronische Medien (etwa 2 Millionen Dokumente) möglich ist, ohne dass Kenntnisse des Klassifikationssystems erforderlich sind. Mit der Umstellung von ETHICS auf NEBIS im Jahre 1999 wurde eine neue Benutzeroberfläche angeboten und eine wesentliche Verkürzung der Antwortzeiten erreicht. Zum Anwenderkreis gehören etwa 60 Bibliotheken von Hochschulen, Fachhochschulen und Forschungsanstalten aus allen Regionen der Schweiz, z.B. ETH Zürich, Ecole Polytechnique Federale de Lausanne, weitere Schweizer Verbundbibliotheken, sowie in der Suchmaschine GERHARD (German Harvest Automated Retrieval Directory http://www.gerhard.de/gerold/owa/gerhard.create_ Index html?form-language=99). Der im Programm ausgewiesene Vortrag von Herrn Dr. Bernd Lorenz (München) zum Thema "Konkordanz RVK (Regensburger Verbundklassifikation) - DDC (Dewey Decimal Classification): Notwendigkeit und Vorüberlegungen" wurde vertretungsweise von Herrn Dr. Hans-Joachim Hermes (Chemnitz) übernommen. Bereits seit Beginn der Überlegungen, die DDC in der Deutschen Nationalbibliographie als Klassifikationssystem zu verwenden, werden auch Vorstellungen über eine Konkordanz zwischen den beiden Klassifikationssystemen RVK und DDC geäußert. Die geplante Konkordanz wird die Nutzung beider Klassifikationssysteme vergrößern. In der Darstellung wurden Probleme auf der sprachlichterminologischen Ebene, die bei den Benennungen der Notationen sichtbar werden, aufgezeigt. Nach den Fachvorträgen fand die turnusmäßige Neuwahl des Leiters der AG Dezimalklassifikationen statt. Zum neuen Vorsitzenden wurde Herr Dr. Bernd Lorenz (Bayerische Beamtenfachhochschule München) gewählt.
  8. Oberhauser, O.: Automatisches Klassifizieren und Bibliothekskataloge (2005) 0.06
    0.058995128 = product of:
      0.20648293 = sum of:
        0.0051266486 = product of:
          0.025633242 = sum of:
            0.025633242 = weight(_text_:retrieval in 4099) [ClassicSimilarity], result of:
              0.025633242 = score(doc=4099,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23394634 = fieldWeight in 4099, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4099)
          0.2 = coord(1/5)
        0.20135628 = weight(_text_:mehrsprachigkeit in 4099) [ClassicSimilarity], result of:
          0.20135628 = score(doc=4099,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.65568775 = fieldWeight in 4099, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4099)
      0.2857143 = coord(2/7)
    
    Abstract
    In der bibliothekarischen Welt sind die Vorzüge einer klassifikatorischen Inhaltserschließung seit jeher wohlbekannt. Auch im Zeitalter der Online-Kataloge gibt es dafür keinen wirklichen Ersatz, da - kurz formuliert - ein stichwortbasiertes Retrieval alleine mit Problemen wie Ambiguität und Mehrsprachigkeit nicht fertig zu werden vermag. Zahlreiche Online-Kataloge weisen daher Notationen verschiedener Klassifikationssysteme auf; allerdings sind die darauf basierenden Abfragemöglichkeiten meist noch arg unterentwickelt. Viele Datensätze in OPACs sind aber überhaupt nicht sachlich erschlossen, sei es, dass sie aus retrospektiv konvertierten Nominalkatalogen stammen, sei es, dass ein Mangel an personellen Ressourcen ihre inhaltliche Erschließung verhindert hat. Angesichts großer Mengen solcher Datensätze liegt ein Interesse an automatischen Verfahren zur Sacherschließung durchaus nahe.
  9. Oberhauser, O.: ¬Das RVK-Interface der FU Berlin : modifiziert, zentral gehostet und lokal im Online-Katalog der WU Wien genutzt (2009) 0.05
    0.05129442 = product of:
      0.17953046 = sum of:
        0.0051266486 = product of:
          0.025633242 = sum of:
            0.025633242 = weight(_text_:retrieval in 3277) [ClassicSimilarity], result of:
              0.025633242 = score(doc=3277,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23394634 = fieldWeight in 3277, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3277)
          0.2 = coord(1/5)
        0.1744038 = weight(_text_:abfrage in 3277) [ClassicSimilarity], result of:
          0.1744038 = score(doc=3277,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.6102284 = fieldWeight in 3277, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3277)
      0.2857143 = coord(2/7)
    
    Abstract
    Der Beitrag berichtet über ein an der Universitätsbibliothek der Freien Universität Berlin entwickeltes und in den dortigen Aleph-OPAC integriertes Gateway zu der Datenbank "RVK-Online". Dieses unterstützt neben der hierarchischen Navigation in der Baumstruktur der Regensburger Verbundklassifikation sowie der Recherche in ihren verbalen Elementen auch die Abfrage von RVK-Notationen im lokalen OPAC. Das Interface wurde in der Verbundzentrale OBVSG modifiziert und so implementiert, dass es als gehostete Anwendung für lokale Online-Kataloge einsetzbar ist. Als erstes österreichisches Lokalsystem nutzt nun die Wirtschaftsuniversität Wien diese Lösung in ihrem OPAC.
    Theme
    Klassifikationssysteme im Online-Retrieval
  10. Wandeler, J.: Comprenez-vous only Bahnhof? : Mehrsprachigkeit in der Mediendokumentation (2003) 0.05
    0.0492959 = product of:
      0.17253564 = sum of:
        0.16272044 = weight(_text_:mehrsprachigkeit in 1512) [ClassicSimilarity], result of:
          0.16272044 = score(doc=1512,freq=4.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.5298757 = fieldWeight in 1512, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.0098152 = product of:
          0.0196304 = sum of:
            0.0196304 = weight(_text_:22 in 1512) [ClassicSimilarity], result of:
              0.0196304 = score(doc=1512,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.15476047 = fieldWeight in 1512, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1512)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Das Hauptthema dieser Tagung - Multimedia - beschäftigt sich mit der Vielfalt der Medien und Quellen, mit denen wir es heute zu tun haben. Da liegt es nahe, sich auch mit einer anderen Form der Vielfalt, dem Thema Mehrsprachigkeit zu beschäftigen. Und die Veranstalter dieser Tagung waren der Meinung, dass ein Schweizer dazu mit Sicherheit etwas zu sagen habe. Das ist insofern richtig, als wir in einem mehrsprachigen Land leben und mit diesem Problem im Alltag vertraut sind, sowohl im täglichen Leben, wie auch eben im dokumentarischen Alltag. Aus dieser praktischen Sicht und nicht als Sprachwissenschafter, der ich nicht bin, möchte ich mich dem Thema nähern. Die Vielfalt der deutschen Sprache: Wenn die Schweiz ein mehrsprachiges Land ist - ist dann Deutschland im Gegensatz dazu ein einsprachiges Land? Auf den ersten Blick sicher ja - in Deutschland spricht man deutsch - aber die Sache ist doch nicht so einfach. Natürlich leben auch hier, wie überall, Menschen aus anderen Ländern mit anderen Muttersprachen - in dieser Optik gibt es wohl fast nur mehrsprachige Länder. Aber auch wenn wir nur die einheimische Bevölkerung mit deutschem Pass betrachten, ist die Sache nicht so eindeutig. Zwar haben sie das Deutsche als gemeinsame Sprache, die von allen gesprochen und verstanden wird. Aber die eigentliche Muttersprache der Deutschen oder mindestens einer grossen Mehrheit ist nicht das Hochdeutsche, sondern einer der vielen Dialekte. Diese Dialekte sind ja höchst unterschiedlich und einem Bayern oder Schwaben geht es sicher nicht anders, als es mir vor Jahren ergangen ist, als ich in Norddeutschland erstmals plattdeutsch sprechen hörte: ich hab nicht mal mehr Bahnhof verstanden und benötigte einige Wochen, bis ich der Unterhaltung wenigstens in groben Zügen folgen konnte. Das Hochdeutsche ist da der gemeinsame Nenner und ermöglichst erst die Verständigung, auch wenn es mit vielfältigen Akzenten und regional eingefärbtem Vokabular gesprochen wird. In diesem Sinne ist die Situation nicht anders als in der deutschsprachigen Schweiz, wo auch ganz unterschiedliche Dialekte gesprochen werden. Allerdings gibt es doch einen wichtigen Unterschied: Hier in Deutschland ist Hochdeutsch die allgemeine Umgangssprache sowohl in der mündlichen wie in der schriftlichen Kommunikation. Dialekte werden im privaten Bereich gesprochen, aber im öffentlichen Bereich, im Geschäftsleben, in der Wissenschaft etc. ist Hochdeutsch die Umgangssprache.
    Date
    22. 4.2003 12:09:10
  11. Oberhauser, O.: Praktische Lösungen für lokale Systematiken (2) : Ein einfaches Interface für den Online-Katalog (2007) 0.05
    0.04794435 = product of:
      0.16780521 = sum of:
        0.018316243 = product of:
          0.045790605 = sum of:
            0.02197135 = weight(_text_:retrieval in 724) [ClassicSimilarity], result of:
              0.02197135 = score(doc=724,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20052543 = fieldWeight in 724, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=724)
            0.023819257 = weight(_text_:system in 724) [ClassicSimilarity], result of:
              0.023819257 = score(doc=724,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20878783 = fieldWeight in 724, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=724)
          0.4 = coord(2/5)
        0.14948897 = weight(_text_:abfrage in 724) [ClassicSimilarity], result of:
          0.14948897 = score(doc=724,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.52305293 = fieldWeight in 724, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.046875 = fieldNorm(doc=724)
      0.2857143 = coord(2/7)
    
    Abstract
    Der Beitrag berichtet über die Erstellung eines hierarchischen Browse- und Abfrage-Interfaces für die lokale Systematik der Bibliothek der Sigmund Freud Privatstiftung (Wien), deren Online-Katalog an der Zentrale des Österreichischen Bibliothekenverbundes (OBVSG) unter Aleph 500 geführt wird. Da dieses System selbst keinerlei Features für die klassifikatorische Recherche vorsieht, wurden 25 HTLM-Seiten in den OPAC integriert, die eine hierarchische Navigation auf den drei Ebenen der Systematik ermöglichen. Mittels eines wöchentlich automatisch eingesetzten Perl-Programms wird dabei auch angezeigt, mit welchen Treffermengen in der jeweiligen Klasse bzw. den zugehörigen Unterklassen (in etwa) zu rechnen ist; diese Anzeige ist ausserdem mit der unmittelbaren Suche nach den betreffenden Titeln verlinkt. Da vonseiten der Bibliothek lediglich die Notationen katalogisiert werden, erfolgt bei der Titel-Vollanzeige mittels einer JavaScript-basierten Umnutzung der Aleph-Funktion "Suchdienste" ebenfalls ein Link auf das hierarchische Interface, um die Bedeutung der jeweiligen Notation im systematischen Kontext zu veranschaulichen.
    Theme
    Klassifikationssysteme im Online-Retrieval
  12. Rusch-Feja, D.: ¬Die Open Archives Initiative (OAI) : Neue Zugangsformen zu wissenschaftlichen Arbeiten? (2001) 0.05
    0.04691765 = product of:
      0.16421176 = sum of:
        0.14948897 = weight(_text_:abfrage in 1133) [ClassicSimilarity], result of:
          0.14948897 = score(doc=1133,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.52305293 = fieldWeight in 1133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.0147228 = product of:
          0.0294456 = sum of:
            0.0294456 = weight(_text_:22 in 1133) [ClassicSimilarity], result of:
              0.0294456 = score(doc=1133,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23214069 = fieldWeight in 1133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1133)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Nach einer Erläuterung der Ereignisse und Gründe, die zur Entwicklung der Open Archives Initiative (OAI) geführt haben, wird die Entstehungsgeschichte der OAI sowie ihre Organisationsstruktur dargestellt. Der Input und Diskussionen von Interessierten und Erstanwendern bei mehreren öffentlichen Workshops trugen zur Optimierung der Alpha-Version des Protokolls bei, mit dem Ergebnis, dass die erste offizielle Version im Januar 2001 vorgestellt wurde. Darauf hin folgten zwei Workshops in den USA und Europa zur Darlegung des Protokolls und Vorstellung exemplarischer Implementierung des Protokolls. Das OAI Metadata Harvesting Protokoll wird in seiner Zielsetzung und Möglichkeiten detailliert dargestellt. Auch die vom Protokoll erforderlichen Metadaten werden erläutert. Die Basisbefehle zur Abfrage in verschiedenen OAI-kompatiblen Repositories, auch mit Unterscheidung zwischen besonderen Sammlungen innerhalb der Repositories werden erklärt. Zum Schluß werden die Aussichten für die OAI im Rahmen der Experimentierphase der 1. Version des Protokolls sowie im Rahmen der gegenwärtigen Entwicklungen im wissenschaftlichen Publikationswesen diskutiert.
    Date
    22. 4.2002 12:23:54
  13. Oberhauser, O.: Praktische Lösungen für lokale Systematiken (3) : automatisierte Anzeige der Klassenbenennungen (2007) 0.04
    0.04396664 = product of:
      0.15388323 = sum of:
        0.00439427 = product of:
          0.02197135 = sum of:
            0.02197135 = weight(_text_:retrieval in 1402) [ClassicSimilarity], result of:
              0.02197135 = score(doc=1402,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20052543 = fieldWeight in 1402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1402)
          0.2 = coord(1/5)
        0.14948897 = weight(_text_:abfrage in 1402) [ClassicSimilarity], result of:
          0.14948897 = score(doc=1402,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.52305293 = fieldWeight in 1402, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.046875 = fieldNorm(doc=1402)
      0.2857143 = coord(2/7)
    
    Abstract
    Im letzten Heft der VÖB-Mitteilungen wurde über die Erstellung eines hie-rarchischen Browse- und Abfrage-Interfaces für die lokale Systematik im Online-Katalog der Bibliothek der Sigmund Freud Privatstiftung, der im Rahmen eines Aleph-Sharing-Lokalsystems an der Verbundzentrale OBVSG betrieben wird, berichtet. Im Hinblick auf die Darstellung der den Titeldatensätzen jeweils zugeordneten Systematikgruppen in der Vollanzeige des OPACs galt damals noch (sinngemäß): Da vonseiten der Bibliothek lediglich die Notationen katalogisiert werden, wird bei der Titel-Vollanzeige mittels einer JavaScript-basierten Umnutzung der Aleph-Funktion "Suchdienste" ein Link auf das hierarchische Interface generiert, um die Bedeutung der jeweiligen Notation im systematischen Kontext zu veranschaulichen. Diese Lösung, die zwar durchaus besser als das kommentarlose Display einzelner "nackter" Notationen war, ist nunmehr obsolet geworden. Ein vor kurzem implementierter, einfacher Automatismus aus der "Werkstatt" der Verbundzentrale bewirkt die Einspielung der Klassennamen bereits im Katalogisierungsprozess und macht so die Anzeige dieser Benennungen im Katalog (OPAC bzw. Bearbeitungs-GUI) möglich.
    Theme
    Klassifikationssysteme im Online-Retrieval
  14. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.04
    0.042777516 = product of:
      0.09981421 = sum of:
        0.0074209156 = product of:
          0.018552288 = sum of:
            0.0073237834 = weight(_text_:retrieval in 2789) [ClassicSimilarity], result of:
              0.0073237834 = score(doc=2789,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.06684181 = fieldWeight in 2789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2789)
            0.0112285055 = weight(_text_:system in 2789) [ClassicSimilarity], result of:
              0.0112285055 = score(doc=2789,freq=4.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.098423526 = fieldWeight in 2789, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2789)
          0.4 = coord(2/5)
        0.057530362 = weight(_text_:mehrsprachigkeit in 2789) [ClassicSimilarity], result of:
          0.057530362 = score(doc=2789,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.18733935 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.03486293 = product of:
          0.06972586 = sum of:
            0.06972586 = weight(_text_:zugriff in 2789) [ClassicSimilarity], result of:
              0.06972586 = score(doc=2789,freq=12.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.3227864 = fieldWeight in 2789, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2789)
          0.5 = coord(1/2)
      0.42857143 = coord(3/7)
    
    Content
    Dieses DDC-Tool ermöglicht den Zugriff auf lokale, mit DDC-erschlossene Titeldaten. Für einige bereits übersetzte DDC-Klassen kann mithilfe eines Browsers gearbeitet werden. Auch die gezielte verbale Suche nach DDC-Elementen ist möglich. Die Frage nach Aspekten, wie z. B. geografischen, soll durch getrennte Ablage der Notationselemente in den Titeldatensätzen ermöglicht werden. Schließlich lassen sich künftig auch integrierte Suchen über DDC und SWD oder andere Erschließungssysteme denken, um Literatur zu einem Thema zu finden. Das von Lars Svensson vorgestellte Retrieval-Interface bietet eine zentrale Lösung: nicht für jeden lokalen OPAC müssen eigene Suchstrukturen entwickelt werden, um auf DDC-Daten zugreifen zu können. Wie Datenbestände mit verschiedenen Erschließungen unter einer Oberfläche zusammengeführt werden und dabei die DDC als Meta-Ebene genutzt wird, das ist heute schon im Subject Gateway Renardus sichtbar." Der Renardus-Broker ermöglicht das Cross-Browsen und Cross-Searchen über verteilte Internetquellen in Europa. Für die Navigation über die DDC mussten zunächst Crosswalks zwischen den lokalen Klassifikationsklassen und der DDC erstellt werden. Das an der Universitätsbibliothek Regensburg entwickelte Tool CarmenX wurde dazu von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen weiterentwickelt und ermöglicht den Zugriff auf die ver schiedenen Klassifikationssysteme. Über diese Entwicklungen berichtete Dr. Friedrich Geißelmann, Universitäsbibliothek Regensburg. Er leitete das CARMEN-Teilprojekt »Grosskonkordanzen zwischen Thesauri und Klassifikationen«, in dem das Werkzeug CarmenX entstand. In diesem CARMEN-Arbeitspaket erfolgten sowohl grundlegende methodische Untersuchungen zu Crosskonkordanzen als auch prototypische Umsetzungen in den Fachgebieten Mathematik, Physik und Sozialwissenschaften. Ziel war es, bei Recherchen in verteilten Datenbanken mit unterschiedlichen Klassifikationen und Thesauri von einem vertrauten System auszugehen und in weitere wechseln zu können, ohne genaue Kenntnis von den Systemen haben zu müssen. So wurden z. B. im Bereich Crosskonkordanzen zwischen Allgemein- und Fachklassifikationen die RVK und die Mathematical Subject Classification (MSC) und Physics and Astronomy Classification Scheme (PACS) ausgewählt.
    Katja Heyke, Universitäts- und Stadtbibliothek Köln, und Manfred Faden, Bibliothek des HWWA-Instituts für Wirtschaftsforschung Hamburg, stellten ähnliche Entwicklungen für den Fachbereich Wirtschaftswissenschaften vor. Hier wird eine Crosskonkordanz zwischen dem Standard Thesaurus Wirtschaft (STW) und dem Bereich Wirtschaft der SWD aufgebaut." Diese Datenbank soll den Zugriff auf die mit STW und SWD erschlossenen Bestände ermöglichen. Sie wird dazu weitergegeben an die virtuelle Fachbibliothek EconBiz und an den Gemeinsamen Bibliotheksverbund. Die Crosskonkordanz Wirtschaft bietet aber auch die Chance zur kooperativen Sacherschließung, denn sie eröffnet die Möglichkeit der gegenseitigen Übernahme von Sacherschließungsdaten zwischen den Partnern Die Deutsche Bibliothek, Universitäts- und Stadtbibliothek Köln, HWWA und Bibliothek des Instituts für Weltwirtschaft Kiel. Am Beispiel der Wirtschaftswissenschaften zeigt sich der Gewinn solcher KonkordanzProjekte für Indexierer und Benutzer. Der Austausch über die Erschließungsregeln und die systematische Analyse der Normdaten führen zur Bereinigung von fachlichen Schwachstellen und Inkonsistenzen in den Systemen. Die Thesauri werden insgesamt verbessert und sogar angenähert. Die Vortragsreihe schloss mit einem Projekt, das die Heterogenität der Daten aus dem Blickwinkel der Mehrsprachigkeit betrachtet. Martin Kunz, Deutsche Bibliothek Frankfurt am Main, informierte über das Projekt MACS (Multilingual Access to Subject Headings). MACS bietet einen mehrsprachigen Zugriff auf Bibliothekskataloge. Dazu wurde eine Verbindung zwischen den Schlagwortnormdateien LCSH, RAMEAU und SWD erarbeitet. Äquivalente Vorzugsbezeichnungen der Normdateien werden intellektuell nachgewiesen und als Link abgelegt. Das Projekt beschränkte sich zunächst auf die Bereiche Sport und Theater und widmet sich in einer nächsten Stufe den am häufigsten verwendeten Schlagwörtern. MACS geht davon aus, dass ein Benutzer in der Sprache seiner Wahl (Deutsch, Englisch, Französisch) eine Schlagwortsuche startet, und ermöglicht ihm, seine Suche auf die affilierten Datenbanken im Ausland auszudehnen. Martin Kunz plädierte für einen Integrationsansatz, der auf dem gegenseitigen Respekt vor der Terminologie der kooperierenden Partner beruht. Er sprach sich dafür aus, in solchen Vorhaben den Begriff der Thesaurus föderation anzuwenden, der die Autonomie der Thesauri unterstreicht.
    Wie kann man den Suchenden einen einheitlichen Zugriff auf Inhalte bieten, ganz gleich, in welchem System und mit welcher Methode sie erschlossen sind? Diese Frage hat die Vortragsreihe in unterschiedlichen Ansätzen untersucht. Die bewährten Orientierungssysteme sind für den Zugriff der Benutzer auf verteilte und auch fachübergreifende Bestände nicht mehr ausreichend. Einheitliche und einfache Zugänge zu Informationen in der Onlinewelt erfordern die Integration der vorhandenen Klassifikationen und Thesauri. Solche Transferkomponenten können die verschiedenen Schalen der Inhaltserschließung - verschiedene Erschließungsqualitäten und -niveaus - zusammenführen. Sie helfen Konsistenzbrüche auszugleichen und unsere Erschließungsdaten optimal anzubieten."
  15. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.04
    0.037072238 = product of:
      0.12975283 = sum of:
        0.005178697 = product of:
          0.025893483 = sum of:
            0.025893483 = weight(_text_:retrieval in 566) [ClassicSimilarity], result of:
              0.025893483 = score(doc=566,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23632148 = fieldWeight in 566, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=566)
          0.2 = coord(1/5)
        0.12457414 = weight(_text_:abfrage in 566) [ClassicSimilarity], result of:
          0.12457414 = score(doc=566,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.43587744 = fieldWeight in 566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
      0.2857143 = coord(2/7)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  16. Hauer, M.: Mehrsprachige semantische Netze leichter entwickeln (2002) 0.03
    0.0337115 = product of:
      0.11799024 = sum of:
        0.0029295133 = product of:
          0.014647567 = sum of:
            0.014647567 = weight(_text_:retrieval in 3894) [ClassicSimilarity], result of:
              0.014647567 = score(doc=3894,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13368362 = fieldWeight in 3894, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3894)
          0.2 = coord(1/5)
        0.115060724 = weight(_text_:mehrsprachigkeit in 3894) [ClassicSimilarity], result of:
          0.115060724 = score(doc=3894,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.3746787 = fieldWeight in 3894, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=3894)
      0.2857143 = coord(2/7)
    
    Abstract
    AGI - Information Management Consultants liefern seit nunmehr 16 Jahren eine Software zur Entwicklung von Thesauri und Klassifikationen, ehemals bezeichnet als INDEX, seit zweieinhalb Jahren als IC INDEX neu entwickelt. Solche Terminologien werden oft auch als Glossar, Lexikon, Topic Maps, RDF, semantisches Netz, Systematik, Aktenplan oder Nomenklatur bezeichnet. Die Software erlaubt zwar schon immer, dass solche terminologischen Werke mehrsprachig angelegt sind, doch es gab keine speziellen Werkzeuge, um die Übersetzung zu erleichtern. Die Globalisierung führt zunehmend auch zur Mehrsprachigkeit von Fachterminologien, wie laufende Projekte belegen. In IC INDEX 5.08 wurde deshalb ein spezieller Workflow für die Übersetzung implementiert, der Wortfelder bearbeitet und dabei weitgehend automatisch, aber vom Übersetzer kontrolliert, die richtigen Verbindungen zwischen den Termen in den anderen Sprachen erzeugt. Bereits dieser Workflow beschleunigt wesentlich die Übersetzungstätigkeit. Doch es geht noch schneller: der eTranslation Server von Linguatec generiert automatisch Übersetzungsvorschläge für Deutsch/English und Deutsch/Französisch. Demnächst auch Deutsch/Spanisch und Deutsch/Italienisch. Gerade bei Mehrwortbegriffen, Klassenbezeichnungen und Komposita spielt die automatische Übersetzung gegenüber dem Wörterbuch-Lookup ihre Stärke aus. Der Rückgriff ins Wörterbuch ist selbstverständlich auch implementiert, sowohl auf das Linguatec-Wörterbuch und zusätzlich jedes beliebige über eine URL adressierbare Wörterbuch. Jeder Übersetzungsvorschlag muss vom Terminologie-Entwickler bestätigt werden. Im Rahmen der Oualitätskontrolle haben wir anhand vorliegender mehrsprachiger Thesauri getestet mit dem Ergebnis, dass die automatischen Vorschläge oft gleich und fast immer sehr nahe an der gewünschten Übersetzung waren. Worte, die für durchschnittlich gebildete Menschen nicht mehr verständlich sind, bereiten auch der maschinellen Übersetzung Probleme, z.B. Fachbegriffe aus Medizin, Chemie und anderen Wissenschaften. Aber auch ein Humanübersetzer wäre hier ohne einschlägige Fachausbildung überfordert. Also, ohne Fach- und ohne Sprachkompetenz geht es nicht, aber mit geht es ziemlich flott. IC INDEX basiert auf Lotus Notes & Domino 5.08. Beliebige Relationen zwischen Termen sind zulässig, die ANSI-Normen sind implementiert und um zusätzliche Relationen ergänzt, 26 Relationen gehören zum Lieferumfang. Ausgaben gemäß Topic Maps oder RDF - zwei eng verwandte Normen-werden bei Nachfrage entwickelt. Ausgaben sind in HMTL, XML, eine ansprechende Druckversion unter MS Word 2000 und für verschiedene Search-Engines vorhanden. AGI - Information Management Consultants, Neustadt an der Weinstraße, beraten seit 1983 Unternehmen und Organisationen im dem heute als Knowledge Management bezeichneten Feld. Seit 1994 liefern sie eine umfassende, hochintegrative Lösung: "Information Center" - darin ist IC INDEX ein eigenständiges Modul zur Unterstützung von mehrsprachiger Indexierung und mehrsprachigem semantischem Retrieval. Linguatec, München, ist einstmals aus den linguistischen Forschungslabors von IBM hervorgegangen und ist über den Personal Translator weithin bekannt.
  17. Troxler, W.: Einige Erfahrungen aus dem Informationsverbund Deutschsschweiz (IDS) (2002) 0.03
    0.032874495 = product of:
      0.23012145 = sum of:
        0.23012145 = weight(_text_:mehrsprachigkeit in 1093) [ClassicSimilarity], result of:
          0.23012145 = score(doc=1093,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.7493574 = fieldWeight in 1093, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=1093)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Katalogsituation in der Schweiz ist in verschiedenen Bereichen uneinheitlicher als in Deutschland. Dies liegt vor allem an der Mehrsprachigkeit, am Fehlen von schweizerischen Normdateien und am Fehlen von einheitlichen Sacherschließungssystemen. Das Folgende beschränkt sich deshalb auf die Situation im Informationsverbund Deutschschweiz (IDS).
  18. Ansorge, K.; Vierschilling, N.: http://dnb.ddb.de : Von dicken Wälzern zur Online-Verzeichnung (2003) 0.03
    0.032031197 = product of:
      0.112109184 = sum of:
        0.0872019 = weight(_text_:abfrage in 1952) [ClassicSimilarity], result of:
          0.0872019 = score(doc=1952,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.3051142 = fieldWeight in 1952, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1952)
        0.024907282 = product of:
          0.049814563 = sum of:
            0.049814563 = weight(_text_:zugriff in 1952) [ClassicSimilarity], result of:
              0.049814563 = score(doc=1952,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23060973 = fieldWeight in 1952, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1952)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    - Möglichkeit des Generierens von SDIProfilen (z.B. wöchentliche Abfrage einer bestimmten Bibliografiereihe und/oder einer bestimmten Sachgruppe auf neu hinzugekommene Titel), - Auswahl bestimmter Medienarten (z. B. nur Online-Publikationen oder Dissertationen), - Fortentwicklung der Möglichkeit, Datensätze in strukturierter Form online abzurufen und damit das jetzige Angebot über DDB-online durch weitere Datenformate wie z.B. den Zugriff auf weitere Datenbestände wie die Daten des Deutschen Musikarchivs Berlin zu erweitern, - Verlinkung der Suchanfrage zu einer Bestellmöglichkeit des Titels beim Buchhandel. Daneben bleiben natürlich die bisherigen Angebote des Datendienstes und der Titelkartendienste erhalten. Dass eine Änderung der bisherigen Erscheinungsweise notwendig ist, belegen unter anderem die Absatzzahlen der gedruckten Ausgaben der Deutschen Nationalbibliografie. Die Zahl der Abonnenten für die gedruckten Verzeichnisse ist in den vergangenen Jahren kontinuierlich gesunken. Der Verlag MVB Marketing- und Verlagsservice des Buchhandels GmbH hat Der Deutschen Bibliothek aufgrund dieser Entwicklung mitgeteilt, dass die gedruckten Ausgaben der Deutschen Nationalbibliografie in der jetzigen Ausstattung nicht mehr wirtschaftlich herzustellen sind.
  19. Sandner, M.: Neues aus der Kommission für Sacherschliessung (2005) 0.03
    0.029559158 = product of:
      0.10345705 = sum of:
        0.0027789134 = product of:
          0.013894566 = sum of:
            0.013894566 = weight(_text_:system in 2183) [ClassicSimilarity], result of:
              0.013894566 = score(doc=2183,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.1217929 = fieldWeight in 2183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2183)
          0.2 = coord(1/5)
        0.10067814 = weight(_text_:mehrsprachigkeit in 2183) [ClassicSimilarity], result of:
          0.10067814 = score(doc=2183,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.32784387 = fieldWeight in 2183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
      0.2857143 = coord(2/7)
    
    Content
    "Unsere Sitzung fand diesmal am 13. 9. 2005 in Bozen im Rahmen der ODOK statt. Es waren daher auch viele interessierte Südtiroler und italienische Sacherschließungskollegen/-innen zu Gast. Eine der beiden Konferenzsprachen war Englisch, und so konnten wir Mehrsprachigkeit, das Thema unserer Sitzung und der beiden Gastvorträge, gleich selbst praktizieren. Patrice LANDRY, der Leiter der Sacherschließung an derSLB in Bern, der seit kurzem den Vorsitz der IFLA-Sektion "Classification and Indexing" und der Arbeitsgruppe "Guidelines for subject access for national bibliographic agencies" übernommen hatte, referierte über den jüngsten Stand des Projekts MACS (Multilingual Access to Subjects) und ließ uns am Nachmittag in seinem Workshop hinter die Kulissen der bereits mit echten Titeldaten operierenden Suchoberfläche blicken. Er zeigte die verschiedenen Recherche- und Editier-Funktionen im Management Linking System und brachte Beispiele für die kooperative Bearbeitung an einigen Datensätzen der bisher bereits miteinander verzahnten Normdateien SWD, LCSH und RAMEAU. Schließlich eröffnete er Ausblicke auf die künftige Einbindung weiterer Sprachen, etwa des Italienischen durch den Soggetario und auf die Anreicherung der Daten, etwa mit DDC-Notationen durch die Nähe zum DDB-Projekt "CrissCross". Federica PARADISI, die in der Sacherschließungsabteilung der BNC in Florenz sowohl für die italienische Übersetzung der DDC und deren Anwendung in ganz Italien als auch für die Überarbeitung des seit 1956 existierenden italienischen Wortschatzes für die verbale Erschließung und für dessen Aufbereitung zu einer modernen, bald auch elektronischen Normdatei zuständig ist und an der Erstellung der italienischen Nationalbibliografie mitwirkt, hat zuletzt gemeinsam mit Anna Lucarelli den Prototyp des "Nuovo Soggetario" erarbeitet und stellte dieses umfangreiche Projekt vor. Der von ihr skizzierte Zeitplan gibt Anlass zur Hoffnung, dass MACS für die Auffindung beschlagworteter Literatur in Bibliothekskatalogen schon in einem Jahr um einen sprachlichen Zugang reicher sein könnte. Beide Gastreferenten/-innen standen dem Auditorium im Anschluss an die Präsentationen für Fragen zur Verfügung, und die neuen fachlichen Kontakte vertieften sich in den Pausengesprächen noch mehr. Vor der Führung durch die Dewey-Ausstellung im Lichthof der UB Bozen demonstrierte Margit SANDNER zum Abschluss dieses multilingualen Sacherschließungsnachmittags mit einigen Beispielen in deutscherSprache die Suchfunktionen in den beiden Webversionen von DDC Deutsch MelvilSearch (für OPACs) und MelvilClass (für das Klassifizieren) und kündigte an, dass ab Oktober bis Jahresende kostenlose Testaccounts vergeben werden. Wer daran interessiert ist, diese deutschsprachigen Webtools bereits auszuprobieren, wendet sich am besten direkt an Herrn Dr. Lars Svensson in Der Deutschen Bibliothek in Frankfurt: svensson@dbf.ddb.de. Die ab Jänner 2006 gültigen Lizenzbedingungen für "Melvil" entnehmen Sie bitte: http//www.ddc-deutsch.de/licence-melvil.html Noch zwei aktuelle Hinweise: - Informationstag der Arbeitsstelle für Standardisierung (DDB) über aktuelle Tendenzen in Sachen Regelwerke f. Formal- und Sacherschließung, Formate, Normdateien und Datentausch am 15. November in Wien. - Aufsatz über die Zukunft der SWD von Esther Scheven (BD 2005, H. 6, S. 748-773), in dem u. a. auch auf unsere seinerzeitige KofSE-Studie: Schlagwort "Benutzerforschung" ... (VÖB-Mitt. 1997, H. 3-4, S. 28-49) rekurriert wird."
  20. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.03
    0.02650278 = product of:
      0.09275973 = sum of:
        0.0055578267 = product of:
          0.027789133 = sum of:
            0.027789133 = weight(_text_:system in 5912) [ClassicSimilarity], result of:
              0.027789133 = score(doc=5912,freq=8.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.2435858 = fieldWeight in 5912, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5912)
          0.2 = coord(1/5)
        0.0872019 = weight(_text_:abfrage in 5912) [ClassicSimilarity], result of:
          0.0872019 = score(doc=5912,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.3051142 = fieldWeight in 5912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
      0.2857143 = coord(2/7)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."

Languages

Types

Themes