Search (344 results, page 1 of 18)

  • × type_ss:"x"
  1. Parsian, D.: Überlegungen zur Aufstellungssystematik und Reklassifikation an der Fachbereichsbibliothek Afrikawissenschaften und Orientalistik (2007) 0.06
    0.06351804 = product of:
      0.12703608 = sum of:
        0.022008955 = weight(_text_:des in 3396) [ClassicSimilarity], result of:
          0.022008955 = score(doc=3396,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.2649762 = fieldWeight in 3396, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3396)
        0.052513562 = product of:
          0.15754068 = sum of:
            0.15754068 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.15754068 = score(doc=3396,freq=2.0), product of:
                0.29246205 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.029993102 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.33333334 = coord(1/3)
        0.052513562 = product of:
          0.15754068 = sum of:
            0.15754068 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.15754068 = score(doc=3396,freq=2.0), product of:
                0.29246205 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.029993102 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Der praktische Einsatz der Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung sowie als Aufstellungssystematik in wissenschaftlichen Bibliotheken des deutschen Sprachraums hat wenig Tradition und wurde bisher von der Literatur kaum aufgearbeitet. Nach einer Darstellung der Rahmenbedingungen und der Problemlage in der Fachbereichsbibliothek Afrikanistik/Orientalistik der Universität Wien, gibt der Autor einen Überblick über die Erfahrungen mit und die Einschätzung von DDC in vergleichbaren wissenschaftlichen Bibliotheken vor allem im deutschen und englischen Sprachraum, definiert Kriterien für eine neue Systematik und klärt inwieweit diese mit dem Einsatz von DDC erfüllbar sind. Ausgehend von den quantitativen und räumlichen Rahmenbedingungen und der Segmentierung des Bestandes im Hinblick auf die Erfordernisse der Reklassifikation, sowie auf der Basis eigener Erfahrungen und Plausibilitätsprüfungen schätzt der Autor anhand von drei Varianten den nötigen Personal- und Zeitaufwand für den Einsatz von DDC im Rahmen eines Reklassifizierungsprojektes. Abschließend enthält die vorliegende Arbeit praktische Erfahrungen im Umgang mit der DDC am Beispiel des Themenbereiches "Islamwissenschaft", durch die auf einige Besonderheiten und Probleme bei der Verwendung von DDC für die Reklassifizierung hingewiesen wird.
    Footnote
    Vgl. unter: http://othes.univie.ac.at/3016/1/Parsian_%C3%9Cberlegungen_zur_Aufstellungssystematik_und_Reklassifikation_an_der_AFOR.pdf.
  2. Bender, B.: Digitale Mündigkeit? : Definition und Dimensionen: eine theoretische Fundierung zwischen Medienbildung und Medienkompetenz (2016) 0.05
    0.050814435 = product of:
      0.10162887 = sum of:
        0.017607166 = weight(_text_:des in 4089) [ClassicSimilarity], result of:
          0.017607166 = score(doc=4089,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.21198097 = fieldWeight in 4089, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
        0.04201085 = product of:
          0.12603255 = sum of:
            0.12603255 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.12603255 = score(doc=4089,freq=2.0), product of:
                0.29246205 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.029993102 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.33333334 = coord(1/3)
        0.04201085 = product of:
          0.12603255 = sum of:
            0.12603255 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.12603255 = score(doc=4089,freq=2.0), product of:
                0.29246205 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.029993102 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    In der vorliegenden Arbeit wurde die Frage »Was ist digitale Mündigkeit?« untersucht. Dabei war das Ziel, die Merkmale und Dimensionen von digitaler Mündigkeit literaturbasiert aufzudecken und die Erkenntnisse in eine erste Definition zu überführen. Dies geschah wie folgt: In der Einleitung wurde zunächst umrissen, wie es zur Wahl des Forschungsthemas kam, inwiefern digitale Mündigkeit die Gesellschaft verändert und welche Bereiche der Lebenswelt mit diesem Begriff angesprochen sind. Daraus erfolgte die Herleitung der Forschungsfrage. Im zweiten Kapitel folgte sodann die Darlegung der theoretisch angelegten Forschungsmethode, die in diesem Fall auf einer zunächst breiten, dann enger gefassten Literaturrecherche basierte. Ergänzend wurde auf die Methode der philosophischen Begriffsanalyse hingewiesen, die für die spätere Definition zum Einsatz kommen sollte. Mit Kapitel 3 wurde sodann in Fachtermini und relevante Begriffe eingeführt, gefolgt von einer Darlegung der Bedeutung von Big Data, Codes und Algorithmen für Individuum und Gesellschaft. Dies geschah anhand exemplarisch aus redaktionellen Beiträgen herausgegriffener Themen. Anschließend wurde der aktuelle Forschungsstand zum Thema präsentiert. Dies erfolgte jedoch vornehmlich aus Gründen eines empirischen Überblicks, nicht, weil aus diesen Studien Daten gewonnen werden sollten (denn die Datengewinnung erfolgte aus der Literatur). Danach wurde digitale Mündigkeit als medienpädagogisches Feld erörtert. In Kapitel 4 wurden relevante Theorien zur Mündigkeit präsentiert. Die Extrakte aus den verschiedenen Ansätzen wurden in einem abschließenden Unterkapitel für die spätere Definition von digitaler Mündigkeit zusammengefasst. Inwiefern digitale Mündigkeit mit den Konzepten der Medienkompetenz und Medienbildung in Verbindung gebracht werden kann, wurde in Kapitel 5 untersucht. Zu diesem Zweck wurden zunächst Entwicklung und Ansätze des Medienkompetenzbegriffs erläutert, gleiches geschah anschließend mit dem Medienbildungsbegriff. Nach einer Darstellung des langjährigen bildungswissenschaftlichen Diskurses um Medienkompetenz und/oder Medienbildung, wurden schließlich die Verhältnisse zwischen digitaler Mündigkeit, Medienkompetenz und Medienbildung betrachtet. Alle Vorarbeiten mündeten hiernach im sechsten Kapitel, in welchem zunächst der Begriff der allgemeinen Mündigkeit analysiert und sodann die Begriffskomponente 'digital' betrachtet wurde. Die in den vorangegangenen Kapiteln geknüpften Fäden liefen schlussendlich in einer fundierten Definition von digitaler Mündigkeit zusammen. Der Hauptteil endete mit einem Blick auf verwandte Begriffe.
    Content
    Bachelorarbeit, angefertigt im Studiengang B.A. Bildungswissenschaft an der FernUniversität in Hagen - Fakultät Kultur- und Sozialwissenschaften - Institut für Bildungswissenschaft und Medienforschung Lehrgebiet Bildungstheorie und Medienpädagogik. Vgl.: https://lesen-schreiben-bilden.net/wp-content/uploads/2017/02/BA_BB_ohnePr%C3%A4si_public.pdf.
  3. Schwarz, H.: ¬Das Deutsche Bibliotheksinstitut : im Spannungsfeld zwischen Auftrag und politischem Interesse (2017) 0.03
    0.034113955 = product of:
      0.10234186 = sum of:
        0.017789626 = weight(_text_:des in 3725) [ClassicSimilarity], result of:
          0.017789626 = score(doc=3725,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.2141777 = fieldWeight in 3725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3725)
        0.084552236 = weight(_text_:dbi in 3725) [ClassicSimilarity], result of:
          0.084552236 = score(doc=3725,freq=2.0), product of:
            0.1810805 = queryWeight, product of:
              6.037405 = idf(docFreq=286, maxDocs=44218)
              0.029993102 = queryNorm
            0.46693173 = fieldWeight in 3725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.037405 = idf(docFreq=286, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3725)
      0.33333334 = coord(2/6)
    
    Abstract
    Das 1978 gegründete Deutsche Bibliotheksinstitut als zentrale Einrichtung des Deutschen Bibliothekswesens - sein Auf - und Abstieg.
    Object
    DBI
  4. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.02
    0.021491587 = product of:
      0.042983174 = sum of:
        0.030496502 = weight(_text_:des in 548) [ClassicSimilarity], result of:
          0.030496502 = score(doc=548,freq=18.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.36716178 = fieldWeight in 548, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.007019289 = product of:
          0.021057867 = sum of:
            0.021057867 = weight(_text_:f in 548) [ClassicSimilarity], result of:
              0.021057867 = score(doc=548,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.17614852 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.33333334 = coord(1/3)
        0.0054673846 = product of:
          0.016402153 = sum of:
            0.016402153 = weight(_text_:29 in 548) [ClassicSimilarity], result of:
              0.016402153 = score(doc=548,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.15546128 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    Enthält die Kapitel: 2: Wissensrepräsentation 2.1 Deklarative Wissensrepräsentation 2.2 Klassifikationen des BMM 2.3 Thesauri und Ontologien: existierende kommerzielle Software 2.4 Erstellung eines Thesaurus im Rahmen des LeWi-Projektes 3: Analysekomponenten 3.1 Sprachliche Phänomene in der maschinellen Textanalyse 3.2 Analysekomponenten: Lösungen und Forschungsansätze 3.3 Die Analysekomponenten im LeWi-Projekt 4: Information Retrieval 4.1 Grundlagen des Information Retrieval 4.2 Automatische Indexierungsmethoden und -verfahren 4.3 Automatische Indexierung des BMM im Rahmen des LeWi-Projektes 4.4 Suchstrategien und Suchablauf im LeWi-Kontext
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
    Date
    29. 3.2009 11:11:45
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.02
    0.020568818 = product of:
      0.061706454 = sum of:
        0.039697498 = product of:
          0.119092494 = sum of:
            0.119092494 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.119092494 = score(doc=4388,freq=2.0), product of:
                0.25428185 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029993102 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.022008955 = weight(_text_:des in 4388) [ClassicSimilarity], result of:
          0.022008955 = score(doc=4388,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.2649762 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.33333334 = coord(2/6)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Schulte-Tigges, F.: ¬Die Facettenanalyse nach Vickery und ihre Anwendung auf die Klassifikation der Physik (1961) 0.02
    0.020048922 = product of:
      0.060146764 = sum of:
        0.035579253 = weight(_text_:des in 1218) [ClassicSimilarity], result of:
          0.035579253 = score(doc=1218,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.4283554 = fieldWeight in 1218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=1218)
        0.024567511 = product of:
          0.07370253 = sum of:
            0.07370253 = weight(_text_:f in 1218) [ClassicSimilarity], result of:
              0.07370253 = score(doc=1218,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.6165198 = fieldWeight in 1218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1218)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Imprint
    Köln : Bibliothekar-Lehrinstitut des Landes NW
  7. Bertram, J.: Informationen verzweifelt gesucht : Enterprise Search in österreichischen Großunternehmen (2011) 0.02
    0.019412816 = product of:
      0.058238447 = sum of:
        0.025413753 = weight(_text_:des in 2657) [ClassicSimilarity], result of:
          0.025413753 = score(doc=2657,freq=8.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.30596817 = fieldWeight in 2657, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2657)
        0.032824695 = product of:
          0.049237043 = sum of:
            0.020502692 = weight(_text_:29 in 2657) [ClassicSimilarity], result of:
              0.020502692 = score(doc=2657,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.19432661 = fieldWeight in 2657, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
            0.028734352 = weight(_text_:22 in 2657) [ClassicSimilarity], result of:
              0.028734352 = score(doc=2657,freq=4.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.27358043 = fieldWeight in 2657, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Arbeit geht dem Status quo der unternehmensweiten Suche in österreichischen Großunternehmen nach und beleuchtet Faktoren, die darauf Einfluss haben. Aus der Analyse des Ist-Zustands wird der Bedarf an Enterprise-Search-Software abgeleitet und es werden Rahmenbedingungen für deren erfolgreiche Einführung skizziert. Die Untersuchung stützt sich auf eine im Jahr 2009 durchgeführte Onlinebefragung von 469 österreichischen Großunternehmen (Rücklauf 22 %) und daran anschließende Leitfadeninterviews mit zwölf Teilnehmern der Onlinebefragung. Der theoretische Teil verortet die Arbeit im Kontext des Informations- und Wissensmanagements. Der Fokus liegt auf dem Ansatz der Enterprise Search, ihrer Abgrenzung gegenüber der Suche im Internet und ihrem Leistungsspektrum. Im empirischen Teil wird zunächst aufgezeigt, wie die Unternehmen ihre Informationen organisieren und welche Probleme dabei auftreten. Es folgt eine Analyse des Status quo der Informati-onssuche im Unternehmen. Abschließend werden Bekanntheit und Einsatz von Enterprise-Search-Software in der Zielgruppe untersucht sowie für die Einführung dieser Software nötige Rahmenbedingungen benannt. Defizite machen die Befragten insbesondere im Hinblick auf die übergreifende Suche im Unternehmen und die Suche nach Kompetenzträgern aus. Hier werden Lücken im Wissensmanagement offenbar. 29 % der Respondenten der Onlinebefragung geben zu-dem an, dass es in ihren Unternehmen gelegentlich bis häufig zu Fehlentscheidungen infolge defizitärer Informationslagen kommt. Enterprise-Search-Software kommt in 17 % der Unternehmen, die sich an der Onlinebefragung beteiligten, zum Einsatz. Die durch Enterprise-Search-Software bewirkten Veränderungen werden grundsätzlich posi-tiv beurteilt. Alles in allem zeigen die Ergebnisse, dass Enterprise-Search-Strategien nur Erfolg haben können, wenn man sie in umfassende Maßnahmen des Informations- und Wissensmanagements einbettet.
    Date
    22. 1.2016 20:40:31
  8. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.02
    0.01922258 = product of:
      0.057667736 = sum of:
        0.039697498 = product of:
          0.119092494 = sum of:
            0.119092494 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.119092494 = score(doc=1000,freq=2.0), product of:
                0.25428185 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029993102 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.017970238 = weight(_text_:des in 1000) [ClassicSimilarity], result of:
          0.017970238 = score(doc=1000,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.21635216 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.33333334 = coord(2/6)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  9. Kowalewski, I.: Barockliteratur online im Internet : Das Verzeichnis der im deutschen Sprachraum erschienenen Drucke des 17. Jahrhunderts (VD 17) (1999) 0.02
    0.018849595 = product of:
      0.05654878 = sum of:
        0.047066927 = weight(_text_:des in 1637) [ClassicSimilarity], result of:
          0.047066927 = score(doc=1637,freq=14.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.56666094 = fieldWeight in 1637, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1637)
        0.009481853 = product of:
          0.028445559 = sum of:
            0.028445559 = weight(_text_:22 in 1637) [ClassicSimilarity], result of:
              0.028445559 = score(doc=1637,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.2708308 = fieldWeight in 1637, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1637)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    In dieser Arbeit wird das VD 17-Projekt vorgestellt. Der Erörterung des Themas ist zunächst ein kurzer Exkurs in die Entwicklungsgeschichte des Projekts vorangestellt, um einen Überblick über die Vorgeschichte und Planungsohasen des Projekts zu gewähren. Im Mittelpunkt stehen daher 4 Aspekte: zunächst wird der Inhalt des Verzeichnisses anhand des geographischen Umfangskonzeptes, der inhaltlichen Schwerpunkte der Teilnehmerbibliotheken sowie durch die inhaltlichen Erschließung und die dafür angeandten Regelwerke. Ein großes Gewicht wird anschließend der technischen Relaisierung des VD 17 sowie den Recherchemöglichkten in der multimedialen Datenbank zugeordnet
    Date
    22. 2.2000 10:31:39
  10. Schubert, P.: Revision von Aufbau und Anwendung des kontrollierten Vokabulars einer bibliografischen Datensammlung zum Thema Dramturgie (2003) 0.02
    0.018238366 = product of:
      0.054715097 = sum of:
        0.035579253 = weight(_text_:des in 2518) [ClassicSimilarity], result of:
          0.035579253 = score(doc=2518,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.4283554 = fieldWeight in 2518, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=2518)
        0.019135844 = product of:
          0.057407532 = sum of:
            0.057407532 = weight(_text_:29 in 2518) [ClassicSimilarity], result of:
              0.057407532 = score(doc=2518,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.5441145 = fieldWeight in 2518, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2518)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Pages
    29 S
  11. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.02
    0.018233001 = product of:
      0.054699004 = sum of:
        0.015248251 = weight(_text_:des in 4408) [ClassicSimilarity], result of:
          0.015248251 = score(doc=4408,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.18358089 = fieldWeight in 4408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.039450753 = product of:
          0.05917613 = sum of:
            0.034794223 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.034794223 = score(doc=4408,freq=4.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
            0.024381906 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.024381906 = score(doc=4408,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Pages
    22 S
  12. Pfäffli, W.: ¬La qualité des résultats de recherche dans le cadre du projet MACS (Multilingual Access to Subjects) : vers un élargissement des ensembles de résultats de recherche (2009) 0.02
    0.01773627 = product of:
      0.053208806 = sum of:
        0.047066927 = weight(_text_:des in 2818) [ClassicSimilarity], result of:
          0.047066927 = score(doc=2818,freq=56.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.56666094 = fieldWeight in 2818, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2818)
        0.0061418777 = product of:
          0.018425632 = sum of:
            0.018425632 = weight(_text_:f in 2818) [ClassicSimilarity], result of:
              0.018425632 = score(doc=2818,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.15412995 = fieldWeight in 2818, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2818)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Cette étude aborde la problématique de la qualité des résultats de recherche obtenus par l'intermédiaire de liens établis dans le cadre du projet MACS (Multilingual Access to Subjects) en considérant plus particulièrement la perspective de l'usager. Elle cherche à démontrer que ces liens, dans leur définition actuelle, ne sont à eux seuls pas en mesure de garantir des résultats satisfaisants pour un usager et qu'ils doivent être complétés par d'autres mesures. Elle se compose de trois parties principales : - la première partie présente le contexte général : après un bref historique, les principes de base du projet MACS et les difficultés rencontrées lors de l'évaluation de résultats de recherche sont expliqués. La question des différentes perspectives de l'indexeur et de l'usager est plus particulièrement développée. - la seconde partie présente les tests sur les titres communs à plusieurs bibliothèques qui ont été effectués et énumère les différents facteurs qui affaiblissent la qualité des résultats et empêchent notamment l'usager de retrouver des titres pertinents. - la troisième partie contient quelques pistes susceptibles de remédier aux biais relevés dans la deuxième partie et s'interroge sur les caractéristiques d'une interface de recherche, qui permettraient d'améliorer une recherche thématique multilingue.
    Conclusion Le tout premier point de départ de cette étude était le principe de validation des liens par la cohérence des résultats. Nous avons vu que ce principe jour un rôle très important dans la problématique générale de l'interopérabilité entre systèmes documentaires, bien qu'il ne soit pas sans soulever de nombreuses questions pratiques lors de sa mise en oeuvre concrète, questions auxquelles aucune étude n'a pour le moment offert de réponse détaillée qui puisse servir à élaborer un début de méthodologie. Mais nous avons surtout vu lors de l'étude d'exemples concrets que nous nous mouvons dans un contexte influencé par de nombreux facteurs, en grande partie, peu ou difficilement prévisibles : vouloir obtenir deux ensembles de titres pertinents clairement définis, en devant tenir compte du contexte culturel des fonds qui sont comparés, des différences de structure des langages documentaires, des politiques d'indexation, de la subjectivité des indexeurs et enfin des paramètres des moteurs de recherche, relève de la gageure !
    L'examen des titres communs nous a montré qu'en tous les cas, une partie des titres pertinents échapperaient à une requête effectuée par l'intermédiaire du lien. Il nous semble donc plus important que les efforts se concentrent sur les moyens d'effectivement donner un accès à des documents potentiellement pertinents plutôt que de définir plus précisément la qualité des liens au vu des résultats. Une première voie est le recours aux relations hiérarchiques des langages documentaires, mais nous avons vu qu'elles ne sont pas en mesure d'apporter une solution dans tous les cas. Le recours à une classification, à une ontologie ou à des techniques de traitement automatique du langage sont d'autres voies à explorer, qui peuvent éviter de devoir multiplier les liens, et par là compliquer encore leur gestion. En chemin, nous avons rencontré , mais sans pouvoir les aborder, encore bien d'autres questions, qui sont toutes autant de défis supplémentaires à relever, comme le problème de l'accès aux titres non indexés ou le problème de l'évolution des langages documentaires et donc de la mise à jour des liens. Nous avons aussi laissé de côté les questions techniques de l'accès de l'interface aux différents catalogues et des possibilités de présentations des résultats de recherche proprement dits (par bibliothèque interrogée ou réunis en un ensemble, ranking). Il reste ainsi assez à faire jusqu'au jour où un usager pourra entrer un terme de recherche dans une interface conviviale, qui lui ouvrira un accès thématique simple mais complet aux ressources des bibliothèques d'Europe, puis du monde !
    Language
    f
  13. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.02
    0.01735419 = product of:
      0.05206257 = sum of:
        0.039778814 = weight(_text_:des in 2461) [ClassicSimilarity], result of:
          0.039778814 = score(doc=2461,freq=10.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.4789159 = fieldWeight in 2461, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.0122837555 = product of:
          0.036851265 = sum of:
            0.036851265 = weight(_text_:f in 2461) [ClassicSimilarity], result of:
              0.036851265 = score(doc=2461,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.3082599 = fieldWeight in 2461, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2461)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  14. Hannech, A.: Système de recherche d'information étendue basé sur une projection multi-espaces (2018) 0.02
    0.01608019 = product of:
      0.03216038 = sum of:
        0.025917044 = weight(_text_:des in 4472) [ClassicSimilarity], result of:
          0.025917044 = score(doc=4472,freq=52.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.3120275 = fieldWeight in 4472, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=4472)
        0.0035096444 = product of:
          0.010528933 = sum of:
            0.010528933 = weight(_text_:f in 4472) [ClassicSimilarity], result of:
              0.010528933 = score(doc=4472,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.08807426 = fieldWeight in 4472, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4472)
          0.33333334 = coord(1/3)
        0.0027336923 = product of:
          0.008201077 = sum of:
            0.008201077 = weight(_text_:29 in 4472) [ClassicSimilarity], result of:
              0.008201077 = score(doc=4472,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.07773064 = fieldWeight in 4472, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4472)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Depuis son apparition au début des années 90, le World Wide Web (WWW ou Web) a offert un accès universel aux connaissances et le monde de l'information a été principalement témoin d'une grande révolution (la révolution numérique). Il est devenu rapidement très populaire, ce qui a fait de lui la plus grande et vaste base de données et de connaissances existantes grâce à la quantité et la diversité des données qu'il contient. Cependant, l'augmentation et l'évolution considérables de ces données soulèvent d'importants problèmes pour les utilisateurs notamment pour l'accès aux documents les plus pertinents à leurs requêtes de recherche. Afin de faire face à cette explosion exponentielle du volume de données et faciliter leur accès par les utilisateurs, différents modèles sont proposés par les systèmes de recherche d'information (SRIs) pour la représentation et la recherche des documents web. Les SRIs traditionnels utilisent, pour indexer et récupérer ces documents, des mots-clés simples qui ne sont pas sémantiquement liés. Cela engendre des limites en termes de la pertinence et de la facilité d'exploration des résultats. Pour surmonter ces limites, les techniques existantes enrichissent les documents en intégrant des mots-clés externes provenant de différentes sources. Cependant, ces systèmes souffrent encore de limitations qui sont liées aux techniques d'exploitation de ces sources d'enrichissement. Lorsque les différentes sources sont utilisées de telle sorte qu'elles ne peuvent être distinguées par le système, cela limite la flexibilité des modèles d'exploration qui peuvent être appliqués aux résultats de recherche retournés par ce système. Les utilisateurs se sentent alors perdus devant ces résultats, et se retrouvent dans l'obligation de les filtrer manuellement pour sélectionner l'information pertinente. S'ils veulent aller plus loin, ils doivent reformuler et cibler encore plus leurs requêtes de recherche jusqu'à parvenir aux documents qui répondent le mieux à leurs attentes. De cette façon, même si les systèmes parviennent à retrouver davantage des résultats pertinents, leur présentation reste problématique. Afin de cibler la recherche à des besoins d'information plus spécifiques de l'utilisateur et améliorer la pertinence et l'exploration de ses résultats de recherche, les SRIs avancés adoptent différentes techniques de personnalisation de données qui supposent que la recherche actuelle d'un utilisateur est directement liée à son profil et/ou à ses expériences de navigation/recherche antérieures. Cependant, cette hypothèse ne tient pas dans tous les cas, les besoins de l'utilisateur évoluent au fil du temps et peuvent s'éloigner de ses intérêts antérieurs stockés dans son profil.
    Dans d'autres cas, le profil de l'utilisateur peut être mal exploité pour extraire ou inférer ses nouveaux besoins en information. Ce problème est beaucoup plus accentué avec les requêtes ambigües. Lorsque plusieurs centres d'intérêt auxquels est liée une requête ambiguë sont identifiés dans le profil de l'utilisateur, le système se voit incapable de sélectionner les données pertinentes depuis ce profil pour répondre à la requête. Ceci a un impact direct sur la qualité des résultats fournis à cet utilisateur. Afin de remédier à quelques-unes de ces limitations, nous nous sommes intéressés dans ce cadre de cette thèse de recherche au développement de techniques destinées principalement à l'amélioration de la pertinence des résultats des SRIs actuels et à faciliter l'exploration de grandes collections de documents. Pour ce faire, nous proposons une solution basée sur un nouveau concept d'indexation et de recherche d'information appelé la projection multi-espaces. Cette proposition repose sur l'exploitation de différentes catégories d'information sémantiques et sociales qui permettent d'enrichir l'univers de représentation des documents et des requêtes de recherche en plusieurs dimensions d'interprétations. L'originalité de cette représentation est de pouvoir distinguer entre les différentes interprétations utilisées pour la description et la recherche des documents. Ceci donne une meilleure visibilité sur les résultats retournés et aide à apporter une meilleure flexibilité de recherche et d'exploration, en donnant à l'utilisateur la possibilité de naviguer une ou plusieurs vues de données qui l'intéressent le plus. En outre, les univers multidimensionnels de représentation proposés pour la description des documents et l'interprétation des requêtes de recherche aident à améliorer la pertinence des résultats de l'utilisateur en offrant une diversité de recherche/exploration qui aide à répondre à ses différents besoins et à ceux des autres différents utilisateurs. Cette étude exploite différents aspects liés à la recherche personnalisée et vise à résoudre les problèmes engendrés par l'évolution des besoins en information de l'utilisateur. Ainsi, lorsque le profil de cet utilisateur est utilisé par notre système, une technique est proposée et employée pour identifier les intérêts les plus représentatifs de ses besoins actuels dans son profil. Cette technique se base sur la combinaison de trois facteurs influents, notamment le facteur contextuel, fréquentiel et temporel des données. La capacité des utilisateurs à interagir, à échanger des idées et d'opinions, et à former des réseaux sociaux sur le Web, a amené les systèmes à s'intéresser aux types d'interactions de ces utilisateurs, au niveau d'interaction entre eux ainsi qu'à leurs rôles sociaux dans le système. Ces informations sociales sont abordées et intégrées dans ce travail de recherche. L'impact et la manière de leur intégration dans le processus de RI sont étudiés pour améliorer la pertinence des résultats.
    Date
    29. 9.2018 18:57:38
    Language
    f
  15. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.02
    0.015879 = product of:
      0.095273994 = sum of:
        0.095273994 = product of:
          0.28582197 = sum of:
            0.28582197 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.28582197 = score(doc=973,freq=2.0), product of:
                0.25428185 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029993102 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  16. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.01
    0.013974501 = product of:
      0.0419235 = sum of:
        0.031758 = product of:
          0.095273994 = sum of:
            0.095273994 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.095273994 = score(doc=701,freq=2.0), product of:
                0.25428185 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029993102 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.0101655 = weight(_text_:des in 701) [ClassicSimilarity], result of:
          0.0101655 = score(doc=701,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.12238726 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Footnote
    Zur Erlangung des akademischen Grades eines Doktors der Wirtschaftswissenschaften (Dr. rer. pol.) von der Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe genehmigte Dissertation.
  17. Mundt, M.: Vergleichende Untersuchung der Abfrageoberflächen bibliographischr Datenbanken und eines Metainformationssystems, dargestellt am Beispiel von Datenbanksystemen des Umweltbundesamtes (1999) 0.01
    0.01322905 = product of:
      0.03968715 = sum of:
        0.02875238 = weight(_text_:des in 7552) [ClassicSimilarity], result of:
          0.02875238 = score(doc=7552,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.34616345 = fieldWeight in 7552, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=7552)
        0.010934769 = product of:
          0.032804307 = sum of:
            0.032804307 = weight(_text_:29 in 7552) [ClassicSimilarity], result of:
              0.032804307 = score(doc=7552,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.31092256 = fieldWeight in 7552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7552)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    In der vorliegenden Arbeit werden 4 Abfrageoberflächen unterschiedlicher Retrievalsysteme, die für die Mitarbeiter des Umweltbundesamtes Berlin zugänglich sind, im Hinblick auf Nutzerfreundlichkeit und intuitiver Bedienbarkeit vergleichend untersucht. Der 'Einfachdialog' und die Oberfläche der 'Umwelt-CD' greifen auf die Datenbestände der Umweltdatenbanken zu. Berücksichtigt werden hierbei die Oberflächen zur Recherche in ULIDAT und UFORDAT. Das Metadatensystem UDK (Umweltdatenkatalog) wird in der PC-Version, dem 'UDK-UBA', und in der WWW-Variante in die Untersuchung einbezogen
    Date
    28.11.1999 13:32:29
  18. Schneider, W.: ¬Ein verteiltes Bibliotheks-Informationssystem auf Basis des Z39.50 Protokolls (1999) 0.01
    0.01322905 = product of:
      0.03968715 = sum of:
        0.02875238 = weight(_text_:des in 4773) [ClassicSimilarity], result of:
          0.02875238 = score(doc=4773,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.34616345 = fieldWeight in 4773, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.010934769 = product of:
          0.032804307 = sum of:
            0.032804307 = weight(_text_:29 in 4773) [ClassicSimilarity], result of:
              0.032804307 = score(doc=4773,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.31092256 = fieldWeight in 4773, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4773)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Diese Diplomarbeit beschreibt ein verteiltes Bibliothes-Informationssystem für bibliographische Datenbnaken im Internet. Der Name des Systems ist ZACK. Der Benutzer kann mit ZACK in einer oder mehreren bibliographischen Datenbanken nach einem Dokument suchen und die Treffer in die eigene lokale Datenbank übernehmen. Mit der Übernahme der Datensätze aus einer fremden Datenbank wird die Erfassung neuer Dokumente wesentlich erleichtert, da die Eigenkatalogisierung auf ein Minimum beschränkt werden kann. Bei der verteilten Suche mit ZACK wird parallel in mehreren Datenbanken gesucht. Dubletten werden als solche erkannt
    Date
    17. 5.2000 20:29:41
  19. Fellermaier, B.: Virtuelle Bibliothek : Konzepte und Forschungsprojekte (1997) 0.01
    0.013027405 = product of:
      0.039082214 = sum of:
        0.025413753 = weight(_text_:des in 471) [ClassicSimilarity], result of:
          0.025413753 = score(doc=471,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.30596817 = fieldWeight in 471, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=471)
        0.013668462 = product of:
          0.041005384 = sum of:
            0.041005384 = weight(_text_:29 in 471) [ClassicSimilarity], result of:
              0.041005384 = score(doc=471,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.38865322 = fieldWeight in 471, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=471)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Virtuelle Bibliotheken sind nicht länger ein Schlagwort, sondern nehmen in Folge des Potentials von Internet und WWW allmählich konkrete Formen an. Der Begriff virtuelle Bibliothek wird zu anderen Formen von netzwerkbasierten Informationsangeboten abgegrenzt. Vor dem Hintergrund der Schwächen traditioneller Bibliotheken und der Krise der Informationsversorgung werden die Vorteile von virtuellen Bibliotheken aufgezeigt
    Date
    29. 8.1997 10:18:10
  20. Wille, J.: Automatisches Klassifizieren bibliographischer Beschreibungsdaten : Vorgehensweise und Ergebnisse (2006) 0.01
    0.012480697 = product of:
      0.037442088 = sum of:
        0.02515833 = weight(_text_:des in 6090) [ClassicSimilarity], result of:
          0.02515833 = score(doc=6090,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.302893 = fieldWeight in 6090, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6090)
        0.0122837555 = product of:
          0.036851265 = sum of:
            0.036851265 = weight(_text_:f in 6090) [ClassicSimilarity], result of:
              0.036851265 = score(doc=6090,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.3082599 = fieldWeight in 6090, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6090)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Diese Arbeit befasst sich mit den praktischen Aspekten des Automatischen Klassifizierens bibliographischer Referenzdaten. Im Vordergrund steht die konkrete Vorgehensweise anhand des eigens zu diesem Zweck entwickelten Open Source-Programms COBRA "Classification Of Bibliographic Records, Automatic". Es werden die Rahmenbedingungen und Parameter f¨ur einen Einsatz im bibliothekarischen Umfeld geklärt. Schließlich erfolgt eine Auswertung von Klassifizierungsergebnissen am Beispiel sozialwissenschaftlicher Daten aus der Datenbank SOLIS.

Languages

  • d 320
  • e 17
  • f 3
  • a 1
  • hu 1
  • More… Less…

Types

Themes

Subjects

Classifications