Search (209 results, page 1 of 11)

  • × language_ss:"d"
  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Milanesi, C.: Möglichkeiten der Kooperation im Rahmen von Subject Gateways : das Euler-Projekt im Vergleich mit weiteren europäischen Projekten (2001) 0.11
    0.10627228 = product of:
      0.21254456 = sum of:
        0.02683438 = weight(_text_:und in 4865) [ClassicSimilarity], result of:
          0.02683438 = score(doc=4865,freq=2.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.29385152 = fieldWeight in 4865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4865)
        0.027257364 = weight(_text_:der in 4865) [ClassicSimilarity], result of:
          0.027257364 = score(doc=4865,freq=2.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.29615843 = fieldWeight in 4865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4865)
        0.15845281 = product of:
          0.23767921 = sum of:
            0.17069103 = weight(_text_:mathematik in 4865) [ClassicSimilarity], result of:
              0.17069103 = score(doc=4865,freq=2.0), product of:
                0.2303155 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.041202344 = queryNorm
                0.74111825 = fieldWeight in 4865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4865)
            0.066988185 = weight(_text_:22 in 4865) [ClassicSimilarity], result of:
              0.066988185 = score(doc=4865,freq=2.0), product of:
                0.1442836 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041202344 = queryNorm
                0.46428138 = fieldWeight in 4865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4865)
          0.6666667 = coord(2/3)
      0.5 = coord(3/6)
    
    Date
    22. 6.2002 19:41:59
    Field
    Mathematik
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  2. Thielemann, A.: Sacherschließung für die Kunstgeschichte : Möglichkeiten und Grenzen von DDC 700: The Arts (2007) 0.07
    0.07005279 = product of:
      0.14010558 = sum of:
        0.035779174 = weight(_text_:und in 1409) [ClassicSimilarity], result of:
          0.035779174 = score(doc=1409,freq=8.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.39180204 = fieldWeight in 1409, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1409)
        0.044511087 = weight(_text_:der in 1409) [ClassicSimilarity], result of:
          0.044511087 = score(doc=1409,freq=12.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.4836247 = fieldWeight in 1409, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1409)
        0.05981531 = product of:
          0.08972296 = sum of:
            0.045064174 = weight(_text_:29 in 1409) [ClassicSimilarity], result of:
              0.045064174 = score(doc=1409,freq=2.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.31092256 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
            0.04465879 = weight(_text_:22 in 1409) [ClassicSimilarity], result of:
              0.04465879 = score(doc=1409,freq=2.0), product of:
                0.1442836 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041202344 = queryNorm
                0.30952093 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.6666667 = coord(2/3)
      0.5 = coord(3/6)
    
    Abstract
    Nach der Veröffentlichung einer deutschen Übersetzung der Dewey Decimal Classification 22 im Oktober 2005 und ihrer Nutzung zur Inhaltserschließung in der Deutschen Nationalbibliographie seit Januar 2006 stellt sich aus Sicht der deutschen kunsthistorischen Spezialbibliotheken die Frage nach einer möglichen Verwendung der DDC und ihrer generellen Eignung zur Inhalterschließung kunsthistorischer Publikationen. Diese Frage wird vor dem Hintergrund der bestehenden bibliothekarischen Strukturen für die Kunstgeschichte sowie mit Blick auf die inhaltlichen Besonderheiten, die Forschungsmethodik und die publizistischen Traditionen dieses Faches erörtert.
    Date
    14. 2.2008 19:56:29
  3. Rötzer, A.: ¬Die Einteilung der Wissenschaften : Analyse und Typologisierung von Wissenschaftsklassifikationen (2003) 0.07
    0.06939046 = product of:
      0.13878092 = sum of:
        0.029284807 = weight(_text_:und in 684) [ClassicSimilarity], result of:
          0.029284807 = score(doc=684,freq=28.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.3206851 = fieldWeight in 684, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
        0.06523202 = weight(_text_:wissenschaftstheorie in 684) [ClassicSimilarity], result of:
          0.06523202 = score(doc=684,freq=2.0), product of:
            0.26363608 = queryWeight, product of:
              6.39857 = idf(docFreq=199, maxDocs=44218)
              0.041202344 = queryNorm
            0.24743208 = fieldWeight in 684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.39857 = idf(docFreq=199, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
        0.044264086 = weight(_text_:der in 684) [ClassicSimilarity], result of:
          0.044264086 = score(doc=684,freq=62.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.48094094 = fieldWeight in 684, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
      0.5 = coord(3/6)
    
    Abstract
    In dem Maße, in dem sich die Wissenschaften partikularisieren und atomisieren, wird es immer schwieriger, Überblick zu gewinnen auch schon über nah verwandte Wissenschaften. Daher wächst die Bedeutung der Klassifizierung hinsichtlich ihrer pragmatischen Funktionen stark an. Zudem sind es heute besonders die Querschnittswissenschaften, die im Zentrum des Forschungsinteresses stehen. Dort werden derzeit die größten Fortschritte gemacht. Man denke dabei nur an die Krebsforschung, die sich im molekularen Bereich in einen Forschungsraum zwischen Chemie und Biologie bewegt. Gerade die Medizin bietet viele Beispiele dieser die Wissenschaftsgrenzen überschreitenden Forschungen: der ganze Bereich der Gentechnik, die Nanotechnik, aber auch die medizinische Informatik und Robotik. Aus diesem Grund sind es nicht nur pragmatische Funktionen, die von einer heutigen Wissenschaftsklassifikation bedient werden müssen, sondern auch epistemologische. Wissenschaftsklassifikationen bieten die Möglichkeit, Zusammenhänge zwischen den Wissenschaften erkennbar machen und eröffnen damit unter Umständen neue Wege der Forschung. Dennoch geriet die Wissenschaftsklassifikation gerade in den letzten Jahren in eine Krise. Die Absage an die Systemhaftigkeit des Ganzen der Wissenschaft, die sich im Zuge der postmodernen Theorie durchgesetzt hat, stellte die Wissenschaftsklassifikation vor Probleme, die sie mit den üblichen Ansätzen nicht lösen konnte. Neue Wege der Klassifikation vor dem Hintergrund der Erkenntnisse dieser neuen Theorieansätze galt es nun zu finden. Jede Zeit findet sich ihre Problemlösungswege, und so hat sich auch für die Wissenschaftsklassifikation der Gegenwart neue Möglichkeiten eröffnet, die sich mit Hilfe der neuen Medien verwirklichen lassen.
    Durch die rasche Vermehrung und erhöhte Verschränkung der Wissenschaften stoßen die klassischen zweidimensionalen und hierarchischen Klassifikationen heute an eine Grenze. Die eindeutige Hierarchisierung kann hier nur auf Kosten der potentiell auszubildenden Beziehungen zwischen den zu klassifizierenden Wissenschaften gehen, denn, um die Logik der Hierarchie zu bewahren, muss häufig auf die Logik der inhaltlichen Zusammenhänge verzichten werden. Eine Lösung in Form von mehrdimensionalen Verbindungen und In-Bezug-Setzungen bieten die Darstellungsmöglichkeiten der neuen Medien. Einen Schritt in diese Richtung unternahm ARTUR P. SCHMIDT mit seinem 1999 auch als CD-Rom erschienen 'Wissensnavigator'. Unter Bezugnahme auf Deleuzes und Guattaris 'Rhizom' fordert er eine ungehinderte Vernetzung des Wissens in alle Richtungen. Er sieht sich damit im Einklang mit den Entwicklungen seiner Zeit. Interaktive Benutzung soll diese totale Vernetzung des Wissens generieren, indem der Benutzer der Enzyklopädie durch seine Anfragen bei ihrer Evolution mitwirkt. Die Darstellbarkeit dieser Vernetzung soll mit Hilfe eines sich in einem 4-dimensionalen Raum befindlichen "Hyperkubus" ermöglicht werden, der "in einer Matrix ein neuronales Netzwerk" enthalten soll. Neben diesem wohl noch als utopisch zu bezeichnenden Projekt gibt es derzeit eine Anzahl konservativerer Ansätze der Klassifizierung im Internet, die größte Differenzierungen erlauben, aber auf ungeregelte 'Hyperverlinkung' verzichten. Sollten jedoch Projekte wie die ARTUR P. SCHMIDTS realisiert werden können, so ist damit vielleicht auch Nietzsches Forderung zu erfüllen, die er noch in weiter Ferne vermutete.
    Mit Hilfe mehrdimensionaler In-Bezug-Setzungen könnte auch einem wechselseitigen Prozess entgegnet werden, der sich seit gut einem Jahrhundert mehr und mehr dynamisierte: Gleichzeitig mit dem Differenzierungsprozess der Wissenschaften, der besonders in den letzten Jahrzehnten immer rascher fortschreitet und hybride Wissenschaftsbezeichnungen wie 'Physikochemie', 'Biophysik' oder 'Soziobiologie' entstehen ließ, geht ein Integrationsprozess einher, der diese Wissenschaften sich wieder annähern lässt. Diese Gleichzeitigkeit der entgegengesetzten Prozesse von Differenzierung und Integration könnte eine neue Form der Einheit der Wissenschaften schaffen, die eine Entwicklung der Wissenschaften zu einem einheitlichen Ganzes in Gang setzt. Damit könnten die großen Potentiale, die in diesem dialektischen Prozess von Differenzierung und Integration hinsichtlich neuer Forschungsergebnisse verwirklicht werden.
    Content
    Dissertation zur Erlangung eines Doktorgrades. Vorgelegt an der philosophischen Fakultät der Universität Passau. - Auch unter: http://deposit.ddb.de/cgi-bin/dokserv?idn=980197058&dok_var=d1&dok_ext=pdf&filename=980197058.pdf
    Field
    Wissenschaftstheorie
    Theme
    Geschichte der Klassifikationssysteme
  4. Wunderlich, B.: ¬Die wissenschaftliche Erschließung von Bekleidung mit systematischen Ordnungssystemen im musealen Kontext : Wie bekommt man Hemd und Hose in die Datenbank? (2005) 0.05
    0.052800532 = product of:
      0.105601065 = sum of:
        0.04647851 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.04647851 = score(doc=4173,freq=6.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.5089658 = fieldWeight in 4173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4173)
        0.027257364 = weight(_text_:der in 4173) [ClassicSimilarity], result of:
          0.027257364 = score(doc=4173,freq=2.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.29615843 = fieldWeight in 4173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4173)
        0.031865187 = product of:
          0.09559555 = sum of:
            0.09559555 = weight(_text_:29 in 4173) [ClassicSimilarity], result of:
              0.09559555 = score(doc=4173,freq=4.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.6595664 = fieldWeight in 4173, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4173)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Date
    28.11.1999 13:32:29
    27. 9.2005 14:29:52
    Footnote
    Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
    Imprint
    Potsdam : Institut für Information und Dokumentation
  5. Semenova, E.: Erstellung einer Dokumentationssprache : Am Beispiel der Oberbegriffsdatei für die Sonderausstellungsdatenbank im Institut für Museumskunde, Berlin (2004) 0.05
    0.04951468 = product of:
      0.09902936 = sum of:
        0.037949543 = weight(_text_:und in 1734) [ClassicSimilarity], result of:
          0.037949543 = score(doc=1734,freq=4.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.41556883 = fieldWeight in 1734, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1734)
        0.038547736 = weight(_text_:der in 1734) [ClassicSimilarity], result of:
          0.038547736 = score(doc=1734,freq=4.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.4188313 = fieldWeight in 1734, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=1734)
        0.022532087 = product of:
          0.06759626 = sum of:
            0.06759626 = weight(_text_:29 in 1734) [ClassicSimilarity], result of:
              0.06759626 = score(doc=1734,freq=2.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.46638384 = fieldWeight in 1734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1734)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Date
    28.11.1999 13:32:29
    Footnote
    Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
    Imprint
    Potsdam : Institut für Information und Dokumentation
  6. Spies, B.: Website-Optimierung für Suchhilfen : Vorschläge für den Internetauftritt der Stiftung Naturschutz Berlin (2004) 0.04
    0.044697236 = product of:
      0.08939447 = sum of:
        0.031306777 = weight(_text_:und in 6791) [ClassicSimilarity], result of:
          0.031306777 = score(doc=6791,freq=2.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.34282678 = fieldWeight in 6791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6791)
        0.03180026 = weight(_text_:der in 6791) [ClassicSimilarity], result of:
          0.03180026 = score(doc=6791,freq=2.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.34551817 = fieldWeight in 6791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=6791)
        0.026287435 = product of:
          0.0788623 = sum of:
            0.0788623 = weight(_text_:29 in 6791) [ClassicSimilarity], result of:
              0.0788623 = score(doc=6791,freq=2.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.5441145 = fieldWeight in 6791, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6791)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Date
    9.11.2005 10:43:29
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  7. Düring, M.: ¬Die Dewey Decimal Classification : Entstehung, Aufbau und Ausblick auf eine Nutzung in deutschen Bibliotheken (2003) 0.04
    0.044261217 = product of:
      0.088522434 = sum of:
        0.043303795 = weight(_text_:und in 2460) [ClassicSimilarity], result of:
          0.043303795 = score(doc=2460,freq=30.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.47420087 = fieldWeight in 2460, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.03591473 = weight(_text_:der in 2460) [ClassicSimilarity], result of:
          0.03591473 = score(doc=2460,freq=20.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.390223 = fieldWeight in 2460, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.009303915 = product of:
          0.027911745 = sum of:
            0.027911745 = weight(_text_:22 in 2460) [ClassicSimilarity], result of:
              0.027911745 = score(doc=2460,freq=2.0), product of:
                0.1442836 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041202344 = queryNorm
                0.19345059 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Die ständig steigende Zahl an publizierter Information in immer neuen Formen verlangt besonders von Informations- und Dokumentationseinrichtungen immer präzisere Lösungen zur Erschließung dieser Informationen und ihrer benutzerfreundlichen Aufbereitung. Besonders im derzeitigen Zeitalter der Datenbanken und Online-Kataloge ist die Kombination von verbaler und klassifikatorischer Sacherschließung gefordert, ohne dabei die Verbindung zu den älteren, vielerorts noch (zumindest zusätzlich) in Verwendung befindlichen, Zettelkatalogen zu verlieren. Weltweit ist eine Vielzahl an verschiedenen Klassifikationen im Einsatz. Die Wahl der für eine Einrichtung passenden Klassifikation ist abhängig von ihrer thematischen und informationellen Ausrichtung, der Größe und Art der Bestände und nicht zuletzt von technischen und personellen Voraussetzungen. Auf Seiten der zu wählenden Klassifikation sind die Einfachheit der Handhabung für den Bibliothekar, die Verständlichkeit für den Benutzer, die Erweiterungsfähigkeit der Klassifikation durch das Aufkommen neuer Wissensgebiete und die Einbindung in informationelle Netze mit anderen Einrichtungen von entscheidender Bedeutung. In dieser Arbeit soll die Dewey Dezimalklassifikation (DDC) hinsichtlich dieser Punkte näher beleuchtet werden. Sie ist die weltweit am häufigsten benutzte Klassifikation. Etwa 200.000 Bibliotheken in 135 Ländern erschließen ihre Bestände mit diesem System. Sie liegt derzeit bereits in der 22. ungekürzten Auflage vor und wurde bisher in 30 Sprachen übersetzt. Eine deutsche Komplettübersetzung wird im Jahre 2005 erscheinen. Trotz teils heftig geführter Standardisierungsdebatten und Plänen für die Übernahme von amerikanischen Formalerschließungsregeln herrscht in Bezug auf die Sacherschließung unter deutschen Bibliotheken wenig Einigkeit. Die DDC ist in Deutschland und anderen europäischen Ländern kaum verbreitet, sieht von Großbritannien und von der Verwendung in Bibliografien ab. Diese Arbeit geht demzufolge auf die historischen Gründe dieser Entwicklung ein und wagt einen kurzen Ausblick in die Zukunft der Dezimalklassifikation.
  8. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.04
    0.043774642 = product of:
      0.087549284 = sum of:
        0.03549855 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.03549855 = score(doc=1746,freq=14.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.040886045 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.040886045 = score(doc=1746,freq=18.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.011164698 = product of:
          0.033494093 = sum of:
            0.033494093 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.033494093 = score(doc=1746,freq=2.0), product of:
                0.1442836 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041202344 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  9. Buß, M.: Unternehmenssprache in internationalen Unternehmen : Probleme des Informationstransfers in der internen Kommunikation (2005) 0.04
    0.042670883 = product of:
      0.08534177 = sum of:
        0.033542972 = weight(_text_:und in 1482) [ClassicSimilarity], result of:
          0.033542972 = score(doc=1482,freq=18.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.3673144 = fieldWeight in 1482, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1482)
        0.042494882 = weight(_text_:der in 1482) [ClassicSimilarity], result of:
          0.042494882 = score(doc=1482,freq=28.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.46171808 = fieldWeight in 1482, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1482)
        0.009303915 = product of:
          0.027911745 = sum of:
            0.027911745 = weight(_text_:22 in 1482) [ClassicSimilarity], result of:
              0.027911745 = score(doc=1482,freq=2.0), product of:
                0.1442836 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041202344 = queryNorm
                0.19345059 = fieldWeight in 1482, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1482)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    In der vorliegenden Arbeit werden die Auswirkungen einer Unternehmenssprache auf den Informationstransfer in der internen Kommunikation internationaler Unternehmen untersucht. Eine Unternehmenssprache ist die von der Unternehmensleitung festgelegte, offizielle Sprache in der internen Kommunikation. Die Arbeit beginnt mit einer Analyse der Aufgaben und Ziele von Sprache, wonach im zweiten Teil das Unternehmen und die interne Kommunikation betrachtet werden. Auf dieser Grundlage werden die Auswirkungen der Unternehmenssprache auf die internen Netzwerke eines Unternehmens untersucht. Netzwerke bilden die Basis zum erfolgreichen Informationstransfer und entstehen durch Kommunikation. Im Unternehmen existieren formelle und informelle Netzwerke, die auf der Kommunikation zwischen Menschen direkt oder über Hilfsmittel sowie auf der Kommunikation zwischen Mensch und Maschine beruhen. Es stellt sich heraus, dass eine Unternehmenssprache positiv auf die Innenbindung der technischen Netzwerkstruktur wirkt. Dadurch ergeben sich Kosten- und Zeitvorteile. Innerhalb der zwischenmenschlichen Netzwerke bildet eine Unternehmenssprache die Basis für das Gelingen einer unternehmensweiten Zusammenarbeit. Synergieeffekte sind zu erwarten, welche die Leistung des Unternehmens steigern. In Bezug auf die Mitarbeiter, deren Muttersprache jedoch nicht die Unternehmenssprache ist, muss mit erheblichen Schwierigkeiten gerechnet werden. Es wird ein Bezug zwischen der Relevanz der beschriebenen Vor- und Nachteile und der Organisationsstruktur hergestellt und Empfehlungen für eine erfolgreiche Umsetzung des Konzepts 'Unternehmenssprache' gegeben.
    Date
    22. 5.2005 18:25:26
  10. Witschel, H.F.: Text, Wörter, Morpheme : Möglichkeiten einer automatischen Terminologie-Extraktion (2004) 0.04
    0.04007039 = product of:
      0.08014078 = sum of:
        0.022361983 = weight(_text_:und in 126) [ClassicSimilarity], result of:
          0.022361983 = score(doc=126,freq=8.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.24487628 = fieldWeight in 126, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
        0.034071706 = weight(_text_:der in 126) [ClassicSimilarity], result of:
          0.034071706 = score(doc=126,freq=18.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.37019804 = fieldWeight in 126, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
        0.023707088 = product of:
          0.07112126 = sum of:
            0.07112126 = weight(_text_:mathematik in 126) [ClassicSimilarity], result of:
              0.07112126 = score(doc=126,freq=2.0), product of:
                0.2303155 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.041202344 = queryNorm
                0.30879927 = fieldWeight in 126, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=126)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit einem Teilgebiet des TextMining, versucht also Information (in diesem Fall Fachterminologie) aus natürlichsprachlichem Text zu extrahieren. Die der Arbeit zugrundeliegende These besagt, daß in vielen Gebieten des Text Mining die Kombination verschiedener Methoden sinnvoll sein kann, um dem Facettenreichtum natürlicher Sprache gerecht zu werden. Die bei der Terminologie-Extraktion angewandten Methoden sind statistischer und linguistischer (bzw. musterbasierter) Natur. Um sie herzuleiten, wurden einige Eigenschaften von Fachtermini herausgearbeitet, die für deren Extraktion relevant sind. So läßt sich z.B. die Tatsache, daß viele Fachbegriffe Nominalphrasen einer bestimmten Form sind, direkt für eine Suche nach gewissen POS-Mustern ausnützen, die Verteilung von Termen in Fachtexten führte zu einem statistischen Ansatz - der Differenzanalyse. Zusammen mit einigen weiteren wurden diese Ansätze in ein Verfahren integriert, welches in der Lage ist, aus dem Feedback eines Anwenders zu lernen und in mehreren Schritten die Suche nach Terminologie zu verfeinern. Dabei wurden mehrere Parameter des Verfahrens veränderlich belassen, d.h. der Anwender kann sie beliebig anpassen. Bei der Untersuchung der Ergebnisse anhand von zwei Fachtexten aus unterschiedlichen Domänen wurde deutlich, daß sich zwar die verschiedenen Verfahren gut ergänzen, daß aber die optimalen Werte der veränderbaren Parameter, ja selbst die Auswahl der angewendeten Verfahren text- und domänenabhängig sind.
    Imprint
    Leipzig : Universität / Fakultät für Mathematik und Informatik Institut für Informatik
  11. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.04
    0.039380807 = product of:
      0.078761615 = sum of:
        0.033542972 = weight(_text_:und in 1670) [ClassicSimilarity], result of:
          0.033542972 = score(doc=1670,freq=18.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.3673144 = fieldWeight in 1670, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.03591473 = weight(_text_:der in 1670) [ClassicSimilarity], result of:
          0.03591473 = score(doc=1670,freq=20.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.390223 = fieldWeight in 1670, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.009303915 = product of:
          0.027911745 = sum of:
            0.027911745 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
              0.027911745 = score(doc=1670,freq=2.0), product of:
                0.1442836 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041202344 = queryNorm
                0.19345059 = fieldWeight in 1670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1670)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Es ist ein semantisches Netz für den Gegenstandsbereich Luftfahrt modelliert worden, welches Unternehmensinformationen, Organisationen, Fluglinien, Flughäfen, etc. enthält, Diese sind 10 Hauptkategorien zugeordnet worden, die untergliedert nach Facetten sind. Die Begriffe des Gegenstandsbereiches sind mit 23 unterschiedlichen Relationen verknüpft worden (Z. B.: 'hat Standort in', bietet an, 'ist Homebase von', etc). Der Schwerpunkt der Betrachtung liegt auf dem Unterschied zwischen den drei klassischen Standardrelationen und den zusätzlich eingerichteten Relationen, bezüglich ihrem Nutzen für ein effizientes Retrieval. Die angelegten Kategorien und Relationen sind sowohl für eine kognitive als auch für eine maschinelle Verarbeitung geeignet.
    Das Ziel der vorliegenden Arbeit ist es, ein Modell für ein Informationssystems zu erstellen und die Voraussetzungen und Aspekte zu betrachten, die notwendig sind, um Einsichten in die begrifflichen Zusammenhänge des Gegenstandsbereiches Luftfahrt zu erlangen. Der Ansatz, der hier erläutert wird, plädiert für die Konstruktion einer begrifflichen Wissensstruktur in Form eines semantischen Netzes. Ausgangspunkt dieser Überlegungen ist die Auffassung, daß zwar das kontrollierte Vokabular eines Thesaurus mit seiner Verweisstruktur vielfältiges Wissen enthält, das aber aufgrund der drei klassischen Standardrelationen nur unzureichend repräsentiert und damit auch nur beschränkt zugänglich ist. Es wird erläutert, welche Vorteile eine Erweiterung der drei Thesaurusrelationen erbringen kann und in welcher Funktion die Relationen bei der Formulierung der Suchanfrage unterstützend sein können. Gezeigt wird, wie die Begriffstrukturen eines semantischen Netzes deutlicher hervortreten, wenn bei der Erstellung einer Wissensstruktur eines Gegenstandsbereiches Kategorien zugrunde gelegt werden und welche Gestaltungsprinzipien den Suchprozeß unterstützen können. Dazu werden die Voraussetzungen erörtert, die garantieren, daß komplexe Suchanfragen (erfolgreich) geleistet werden können und zu präzisen Treffermengen führen.
    Date
    26. 9.2006 21:00:22
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  12. Nicoletti, M.: Automatische Indexierung (2001) 0.04
    0.038311914 = product of:
      0.07662383 = sum of:
        0.02683438 = weight(_text_:und in 4326) [ClassicSimilarity], result of:
          0.02683438 = score(doc=4326,freq=2.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.29385152 = fieldWeight in 4326, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4326)
        0.027257364 = weight(_text_:der in 4326) [ClassicSimilarity], result of:
          0.027257364 = score(doc=4326,freq=2.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.29615843 = fieldWeight in 4326, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4326)
        0.022532087 = product of:
          0.06759626 = sum of:
            0.06759626 = weight(_text_:29 in 4326) [ClassicSimilarity], result of:
              0.06759626 = score(doc=4326,freq=2.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.46638384 = fieldWeight in 4326, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4326)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Content
    Inhalt: 1. Aufgabe - 2. Ermittlung von Mehrwortgruppen - 2.1 Definition - 3. Kennzeichnung der Mehrwortgruppen - 4. Grundformen - 5. Term- und Dokumenthäufigkeit --- Termgewichtung - 6. Steuerungsinstrument Schwellenwert - 7. Invertierter Index. Vgl. unter: http://www.grin.com/de/e-book/104966/automatische-indexierung.
    Date
    29. 9.2017 12:00:04
  13. Hoffmann, R.: Mailinglisten für den bibliothekarischen Informationsdienst am Beispiel von RABE (2000) 0.04
    0.037657354 = product of:
      0.07531471 = sum of:
        0.04025157 = weight(_text_:und in 4441) [ClassicSimilarity], result of:
          0.04025157 = score(doc=4441,freq=18.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.4407773 = fieldWeight in 4441, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4441)
        0.019273868 = weight(_text_:der in 4441) [ClassicSimilarity], result of:
          0.019273868 = score(doc=4441,freq=4.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.20941564 = fieldWeight in 4441, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4441)
        0.015789269 = product of:
          0.047367804 = sum of:
            0.047367804 = weight(_text_:22 in 4441) [ClassicSimilarity], result of:
              0.047367804 = score(doc=4441,freq=4.0), product of:
                0.1442836 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041202344 = queryNorm
                0.32829654 = fieldWeight in 4441, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4441)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Welche qualitativen Verbesserungsmöglichkeiten bieten Mailinglisten für den bibliothekarischen Informationsdienst? Nach einem Überblick über Aufgaben und Formen bibliothekarischer Informationsdienstleistungen und einer Einführung in Mailinglisten für den Informationsdienst wird in dieser Arbeit exemplarisch die im Juli als deutschsprachigen Pendant zu Stumpers-L für Auskunftsbibliothekare gegründete Mailingliste 'RABE' (Recherche und Auskunft in bibliothekarischen Einrichtungen) beschrieben und analysiert. Dazu werden die Ergebnisse zweier empirischer Untersuchungen herangezogen: einer im März 1999 durchgeführten Umfrage unter den Listenmitgliedern und einer Auswertung der im WWW-Archiv von RABE bis Februar 1999 gespeicherten Listenbeiträge. Unter anderem wurde dabei die institutionelle und geographische Herkunft der Listenmitglieder, ihr Nutzungsverhalten (Aktivitätsprofile), ihre Erfahrungen mit RABE und die zur Beantwortung von Auskunftsfragen verwendeten Informationsquellen untersucht. Abschließend erfolgt eine Bewertung von RABE als Instrument im bibliothekarischen Informationsdienst
    Date
    22. 2.2000 10:25:05
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.22
  14. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.03
    0.033509485 = product of:
      0.06701897 = sum of:
        0.03225091 = weight(_text_:und in 548) [ClassicSimilarity], result of:
          0.03225091 = score(doc=548,freq=26.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.3531656 = fieldWeight in 548, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.027257364 = weight(_text_:der in 548) [ClassicSimilarity], result of:
          0.027257364 = score(doc=548,freq=18.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.29615843 = fieldWeight in 548, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.0075106956 = product of:
          0.022532087 = sum of:
            0.022532087 = weight(_text_:29 in 548) [ClassicSimilarity], result of:
              0.022532087 = score(doc=548,freq=2.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.15546128 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    Enthält die Kapitel: 2: Wissensrepräsentation 2.1 Deklarative Wissensrepräsentation 2.2 Klassifikationen des BMM 2.3 Thesauri und Ontologien: existierende kommerzielle Software 2.4 Erstellung eines Thesaurus im Rahmen des LeWi-Projektes 3: Analysekomponenten 3.1 Sprachliche Phänomene in der maschinellen Textanalyse 3.2 Analysekomponenten: Lösungen und Forschungsansätze 3.3 Die Analysekomponenten im LeWi-Projekt 4: Information Retrieval 4.1 Grundlagen des Information Retrieval 4.2 Automatische Indexierungsmethoden und -verfahren 4.3 Automatische Indexierung des BMM im Rahmen des LeWi-Projektes 4.4 Suchstrategien und Suchablauf im LeWi-Kontext
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
    Date
    29. 3.2009 11:11:45
    Series
    Saarbrücker Beiträge zur Sprach- und Translationswissenschaft; Bd.8
  15. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.03
    0.033352733 = product of:
      0.066705465 = sum of:
        0.02958212 = weight(_text_:und in 867) [ClassicSimilarity], result of:
          0.02958212 = score(doc=867,freq=14.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.32394084 = fieldWeight in 867, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.02781943 = weight(_text_:der in 867) [ClassicSimilarity], result of:
          0.02781943 = score(doc=867,freq=12.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.30226544 = fieldWeight in 867, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.009303915 = product of:
          0.027911745 = sum of:
            0.027911745 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.027911745 = score(doc=867,freq=2.0), product of:
                0.1442836 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041202344 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/ChristophLehrke.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
    Pages
    22 S
  16. Hilgers, C.; Maddi, Y.: Fachlexika als Online-Informationsspeicher : Konzeption und Erstellung einer Online-Datenbank zur Bewertung aktueller Trends aus Sicht der Lexikographie und der Usabilityforschung (2004) 0.03
    0.03326033 = product of:
      0.099780984 = sum of:
        0.04950036 = weight(_text_:und in 3698) [ClassicSimilarity], result of:
          0.04950036 = score(doc=3698,freq=20.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.54205674 = fieldWeight in 3698, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3698)
        0.050280623 = weight(_text_:der in 3698) [ClassicSimilarity], result of:
          0.050280623 = score(doc=3698,freq=20.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.5463122 = fieldWeight in 3698, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3698)
      0.33333334 = coord(2/6)
    
    Abstract
    Ziel ist die Bewertung meist einsprachiger (weniger mehrsprachiger) Online-Fachlexika mit einschlägigen Usability- und Accessibility-Kriterien und solchen der Lexikographie. Nach Behandlung der theoretischen Grundlagen der Usability-Forschung, der Accessibility-Guidelines zur Nutzung von Websites und der Lexikographie, werden Bewertungskriterien (Heuristiken), Abläufe der heuristischen Evaluation (keine Benutzertests) und die Präsentation der Ergebnisse erarbeitet. Getestet werden im Internet frei zugängliche, kostenlose Fachlexika und Glossare und die Ergebnisse in einer entwickelten php/MySOL-Datenbank präsentiert, mit Empfehlungen für die bessere Gestaltung der Online-Nachschlagewerke.
    Footnote
    Diplomarbeit im Studiengang Bibliotheks- und Informationsmanagement
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  17. Amon, H.: Optimierung von Webseiten für Suchmaschinen und Kataloge : Empfehlungen zur Optimierung der Web-Seiten der Bibliothek und Dokumentation der Deutschen Gesellschaft für Auswärtige Politik (DGAP) (2004) 0.03
    0.031229883 = product of:
      0.09368965 = sum of:
        0.04647851 = weight(_text_:und in 4626) [ClassicSimilarity], result of:
          0.04647851 = score(doc=4626,freq=6.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.5089658 = fieldWeight in 4626, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4626)
        0.047211144 = weight(_text_:der in 4626) [ClassicSimilarity], result of:
          0.047211144 = score(doc=4626,freq=6.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.5129615 = fieldWeight in 4626, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4626)
      0.33333334 = coord(2/6)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  18. Müller, M.: ¬Das Fremde und die Medien : interkulturelle Vergleiche der Darstellung von Ethnizität im öffentlich-rechtlichen Fernsehen und deren Rezeption in den Metropolen Hamburg und Sydney (2004) 0.03
    0.030971665 = product of:
      0.09291499 = sum of:
        0.05657184 = weight(_text_:und in 3717) [ClassicSimilarity], result of:
          0.05657184 = score(doc=3717,freq=20.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.6194934 = fieldWeight in 3717, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3717)
        0.03634315 = weight(_text_:der in 3717) [ClassicSimilarity], result of:
          0.03634315 = score(doc=3717,freq=8.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.3948779 = fieldWeight in 3717, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3717)
      0.33333334 = coord(2/6)
    
    Abstract
    Nach historischem Abriß des öffentlich-rechtlichen Rundfunks in Deutschland und Australien werden Programmstrukturen und -richtlinien behandelt, die sich auf die ethnische Vielfalt der Länder beziehen, ferner die multikulturelle Gesellschaft beider Länder und die Rolle der Medien bei der Integration. Ausgewählte Formate und ihre Programme werden auf ihren Anteil an Multikulturalität hin ausgewertet und Ergebnisse einer in Sydney und Hamburg durchgeführten Rezeptionsstudie miteinander verglichen.
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  19. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.03
    0.03057031 = product of:
      0.091710925 = sum of:
        0.044499785 = weight(_text_:und in 2222) [ClassicSimilarity], result of:
          0.044499785 = score(doc=2222,freq=22.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.48729765 = fieldWeight in 2222, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2222)
        0.047211144 = weight(_text_:der in 2222) [ClassicSimilarity], result of:
          0.047211144 = score(doc=2222,freq=24.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.5129615 = fieldWeight in 2222, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2222)
      0.33333334 = coord(2/6)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
    Footnote
    Master's thesis Zusatzstudiengang Bibliotheks- und Informationswissenschaft
  20. Nitzschner, H.: Konzeption und Entwicklung eines Online-Tutorials zur Verbesserung der Informationskompetenz von Studierenden der Elektrotechnik/Informationstechnik (2004) 0.03
    0.030559912 = product of:
      0.09167974 = sum of:
        0.04647851 = weight(_text_:und in 728) [ClassicSimilarity], result of:
          0.04647851 = score(doc=728,freq=24.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.5089658 = fieldWeight in 728, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=728)
        0.045201223 = weight(_text_:der in 728) [ClassicSimilarity], result of:
          0.045201223 = score(doc=728,freq=22.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.4911232 = fieldWeight in 728, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=728)
      0.33333334 = coord(2/6)
    
    Abstract
    Verschiedene Studien belegen, dass vor allem Studierende oft keine ausreichenden Kennt-nisse, Fähigkeiten und Fertigkeiten besitzen, um das zunehmende Angebot elektronischer Informationsressourcen zu überschauen und effektiv zu nutzen. Besonders im Bereich der wissenschaftlichen Bibliotheken werden deshalb zahlreiche Schulungsveranstaltungen zur Verbesserung der Informationskompetenz durchgeführt. Um den veränderten Bedürfnissen der Nutzer nach einer größeren Flexibilität hinsichtlich ihrer Lern- und Arbeitsorganisation gerecht zu werden, bedarf es der Schaffung zusätzlicher, zeit- und ortsunabhängiger Schu-lungsangebote. In der vorliegenden Arbeit werden die entscheidenden Faktoren für einen erfolgreichen Einsatz von E-Learning-Anwendungen benannt und unter Berücksichtigung dieser Kriterien ein Online-Tutorial zur Recherche in den Fachdatenbanken der Elektro-technik, Elektronik und Nachrichtentechnik an der SLUB Dresden konzipiert. Der Pla-nungsphase schloss sich die technische Umsetzung an.
    Content
    Diplomarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig (FH) Fachbereich Buch und Museum Studiengang Bibliotheks- und Informationswissenschaft
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fachbereich Buch und Museum

Types

Themes