Search (17223 results, page 20 of 862)

  1. Broughton, V.: Essential thesaurus construction (2006) 0.14
    0.13749966 = product of:
      0.1649996 = sum of:
        0.026152488 = weight(_text_:und in 2924) [ClassicSimilarity], result of:
          0.026152488 = score(doc=2924,freq=52.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.24972577 = fieldWeight in 2924, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2924)
        0.024473662 = weight(_text_:anwendung in 2924) [ClassicSimilarity], result of:
          0.024473662 = score(doc=2924,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.10698257 = fieldWeight in 2924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.015625 = fieldNorm(doc=2924)
        0.02118529 = weight(_text_:des in 2924) [ClassicSimilarity], result of:
          0.02118529 = score(doc=2924,freq=14.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.16190313 = fieldWeight in 2924, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=2924)
        0.034198124 = weight(_text_:prinzips in 2924) [ClassicSimilarity], result of:
          0.034198124 = score(doc=2924,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.12646334 = fieldWeight in 2924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.015625 = fieldNorm(doc=2924)
        0.058990043 = product of:
          0.117980085 = sum of:
            0.117980085 = weight(_text_:thesaurus in 2924) [ClassicSimilarity], result of:
              0.117980085 = score(doc=2924,freq=56.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5403279 = fieldWeight in 2924, product of:
                  7.483315 = tf(freq=56.0), with freq of:
                    56.0 = termFreq=56.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2924)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Many information professionals working in small units today fail to find the published tools for subject-based organization that are appropriate to their local needs, whether they are archivists, special librarians, information officers, or knowledge or content managers. Large established standards for document description and organization are too unwieldy, unnecessarily detailed, or too expensive to install and maintain. In other cases the available systems are insufficient for a specialist environment, or don't bring things together in a helpful way. A purpose built, in-house system would seem to be the answer, but too often the skills necessary to create one are lacking. This practical text examines the criteria relevant to the selection of a subject-management system, describes the characteristics of some common types of subject tool, and takes the novice step by step through the process of creating a system for a specialist environment. The methodology employed is a standard technique for the building of a thesaurus that incidentally creates a compatible classification or taxonomy, both of which may be used in a variety of ways for document or information management. Key areas covered are: What is a thesaurus? Tools for subject access and retrieval; what a thesaurus is used for? Why use a thesaurus? Examples of thesauri; the structure of a thesaurus; thesaural relationships; practical thesaurus construction; the vocabulary of the thesaurus; building the systematic structure; conversion to alphabetic format; forms of entry in the thesaurus; maintaining the thesaurus; thesaurus software; and; the wider environment. Essential for the practising information professional, this guide is also valuable for students of library and information science.
    Footnote
    Rez. in: Mitt. VÖB 60(2007) H.1, S.98-101 (O. Oberhauser): "Die Autorin von Essential thesaurus construction (and essential taxonomy construction, so der implizite Untertitel, vgl. S. 1) ist durch ihre Lehrtätigkeit an der bekannten School of Library, Archive and Information Studies des University College London und durch ihre bisherigen Publikationen auf den Gebieten (Facetten-)Klassifikation und Thesaurus fachlich einschlägig ausgewiesen. Nach Essential classification liegt nun ihr Thesaurus-Lehrbuch vor, mit rund 200 Seiten Text und knapp 100 Seiten Anhang ein handliches Werk, das seine Genese zum Grossteil dem Lehrbetrieb verdankt, wie auch dem kurzen Einleitungskapitel zu entnehmen ist. Das Buch ist der Schule von Jean Aitchison et al. verpflichtet und wendet sich an "the indexer" im weitesten Sinn, d.h. an alle Personen, die ein strukturiertes, kontrolliertes Fachvokabular für die Zwecke der sachlichen Erschliessung und Suche erstellen wollen bzw. müssen. Es möchte dieser Zielgruppe das nötige methodische Rüstzeug für eine solche Aufgabe vermitteln, was einschliesslich der Einleitung und der Schlussbemerkungen in zwanzig Kapiteln geschieht - eine ansprechende Strukturierung, die ein wohldosiertes Durcharbeiten möglich macht. Zu letzterem tragen auch die von der Autorin immer wieder gestellten Übungsaufgaben bei (Lösungen jeweils am Kapitelende). Zu Beginn der Darstellung wird der "information retrieval thesaurus" von dem (zumindest im angelsächsischen Raum) weit öfter mit dem Thesaurusbegriff assoziierten "reference thesaurus" abgegrenzt, einem nach begrifflicher Ähnlichkeit angeordneten Synonymenwörterbuch, das gerne als Mittel zur stilistischen Verbesserung beim Abfassen von (wissenschaftlichen) Arbeiten verwendet wird. Ohne noch ins Detail zu gehen, werden optische Erscheinungsform und Anwendungsgebiete von Thesauren vorgestellt, der Thesaurus als postkoordinierte Indexierungssprache erläutert und seine Nähe zu facettierten Klassifikationssystemen erwähnt. In der Folge stellt Broughton die systematisch organisierten Systeme (Klassifikation/ Taxonomie, Begriffs-/Themendiagramme, Ontologien) den alphabetisch angeordneten, wortbasierten (Schlagwortlisten, thesaurusartige Schlagwortsysteme und Thesauren im eigentlichen Sinn) gegenüber, was dem Leser weitere Einordnungshilfen schafft. Die Anwendungsmöglichkeiten von Thesauren als Mittel der Erschliessung (auch als Quelle für Metadatenangaben bei elektronischen bzw. Web-Dokumenten) und der Recherche (Suchformulierung, Anfrageerweiterung, Browsing und Navigieren) kommen ebenso zur Sprache wie die bei der Verwendung natürlichsprachiger Indexierungssysteme auftretenden Probleme. Mit Beispielen wird ausdrücklich auf die mehr oder weniger starke fachliche Spezialisierung der meisten dieser Vokabularien hingewiesen, wobei auch Informationsquellen über Thesauren (z.B. www.taxonomywarehouse.com) sowie Thesauren für nicht-textuelle Ressourcen kurz angerissen werden.
    In den stärker ins Detail gehenden Kapiteln weist Broughton zunächst auf die Bedeutung des systematischen Teils eines Thesaurus neben dem alphabetischen Teil hin und erläutert dann die Elemente des letzteren, wobei neben den gängigen Thesaurusrelationen auch die Option der Ausstattung der Einträge mit Notationen eines Klassifikationssystems erwähnt wird. Die Thesaurusrelationen selbst werden später noch in einem weiteren Kapitel ausführlicher diskutiert, wobei etwa auch die polyhierarchische Beziehung thematisiert wird. Zwei Kapitel zur Vokabularkontrolle führen in Aspekte wie Behandlung von Synonymen, Vermeidung von Mehrdeutigkeit, Wahl der bevorzugten Terme sowie die Formen von Thesauruseinträgen ein (grammatische Form, Schreibweise, Zeichenvorrat, Singular/Plural, Komposita bzw. deren Zerlegung usw.). Insgesamt acht Kapitel - in der Abfolge mit den bisher erwähnten Abschnitten didaktisch geschickt vermischt - stehen unter dem Motto "Building a thesaurus". Kurz zusammengefasst, geht es dabei um folgende Tätigkeiten und Prozesse: - Sammlung des Vokabulars unter Nutzung entsprechender Quellen; - Termextraktion aus den Titeln von Dokumenten und Probleme hiebei; - Analyse des Vokabulars (Facettenmethode); - Einbau einer internen Struktur (Facetten und Sub-Facetten, Anordnung der Terme); - Erstellung einer hierarchischen Struktur und deren Repräsentation; - Zusammengesetzte Themen bzw. Begriffe (Facettenanordnung: filing order vs. citation order); - Konvertierung der taxonomischen Anordnung in ein alphabetisches Format (Auswahl der Vorzugsbegriffe, Identifizieren hierarchischer Beziehungen, verwandter Begriffe usw.); - Erzeugen der endgültigen Thesaurus-Einträge.
    Diese Abschnitte sind verständlich geschrieben und trotz der mitunter gar nicht so einfachen Thematik auch für Einsteiger geeignet. Vorteilhaft ist sicherlich, dass die Autorin die Thesauruserstellung konsequent anhand eines einzelnen thematischen Beispiels demonstriert und dafür das Gebiet "animal welfare" gewählt hat, wohl nicht zuletzt auch deshalb, da die hier auftretenden Facetten und Beziehungen ohne allzu tiefgreifende fachwissenschaftliche Kenntnisse für die meisten Leser nachvollziehbar sind. Das methodische Gerüst der Facettenanalyse wird hier deutlich stärker betont als etwa in der (spärlichen) deutschsprachigen Thesaurusliteratur. Diese Vorgangsweise soll neben der Ordnungsbildung auch dazu verhelfen, die Zahl der Deskriptoren überschaubar zu halten und weniger auf komplexe (präkombinierte) Deskriptoren als auf postkoordinierte Indexierung zu setzen. Dafür wird im übrigen das als Verfeinerung der bekannten Ranganathanschen PMEST-Formel geltende Schema der 13 "fundamental categories" der UK Classification Research Group (CRG) vorgeschlagen bzw. in dem Beispiel verwendet (Thing / Kind / Part / Property; Material / Process / Operation; Patient / Product / By-product / Agent; Space; Time). Als "minor criticism" sei erwähnt, dass Broughton in ihrem Demonstrationsbeispiel als Notation für die erarbeitete Ordnung eine m.E. schwer lesbare Buchstabenfolge verwendet, obwohl sie zugesteht (S. 165), dass ein Zifferncode vielfach als einfacher handhabbar empfunden wird.
    In einem abschliessenden Kapitel geht das Buch auf Thesauruspflege und -verwaltung ein, wobei auch das Thema "Thesaurussoftware" angerissen wird - letzteres vielleicht ein wenig zu kurz. Erst hier mag manchem unbefangenen Leser bewusst werden, dass die in den vorhergehenden Kapiteln dargestellte Methodik eigentlich ohne den Einsatz dezidierter Software besprochen wurde, ja vielleicht auch so besprochen werden musste, um ein entsprechendes Verständnis herzustellen. In der nachfolgenden zweiseitigen Conclusio wird erwähnt, dass die britische Norm Structured Vocabularies for Information Retrieval (BS 8723) vor einer Neufassung stehe - was den Rezensenten darauf hinzuweisen gemahnt, dass sich dieses Buch natürlich ausschliesslich auf den anglo-amerikanischen Sprachraum und die dort geltenden Thesaurus-Gepflogenheiten bezieht. Der relativ umfangreiche Anhang beinhaltet ausser Materialie zum erwähnten Demonstrationsbeispiel auch ein nützliches Glossarium sowie ein professionell gefertigtes Sachregister. Literaturhinweise werden - in sparsamer Dosierung - jeweils am Ende der einzelnen Kapitel gegeben, sodass sich die "Bibliography" am Ende des Buches auf einige Normen und zwei Standardwerke beschränken kann. Realistisch betrachtet, darf vermutlich nicht davon ausgegangen werden, dass Leser, die dieses Buch durchgearbeitet haben, sogleich in der Lage sein werden, eigenständig einen Thesaurus zu erstellen. Ein Lehrbuch allein kann weder einen Kurs noch die praktische Erfahrung ersetzen, die für eine solche Tätigkeit vonnöten sind. Ich kann mir aber gut vorstellen, dass die Kenntnis der in diesem Buch vermittelten Inhalte sehr wohl in die Lage versetzt, in einem Team, das einen Thesaurus erstellen soll, kompetent mitzuarbeiten, mit den Konzepten und Fachtermini zurechtzukommen und selbst konstruktive Beiträge zu leisten. Ausserdem erscheint mir das Werk hervorragend als Begleitmaterial zu einer Lehrveranstaltung geeignet - oder auch als Grundlage für die Planung einer solchen. Ein britischer Einführungstext eben, im besten Sinne."
    Weitere Rez. in: New Library World 108(2007) nos.3/4, S.190-191 (K.V. Trickey): "Vanda has provided a very useful work that will enable any reader who is prepared to follow her instruction to produce a thesaurus that will be a quality language-based subject access tool that will make the task of information retrieval easier and more effective. Once again I express my gratitude to Vanda for producing another excellent book." - Electronic Library 24(2006) no.6, S.866-867 (A.G. Smith): "Essential thesaurus construction is an ideal instructional text, with clear bullet point summaries at the ends of sections, and relevant and up to date references, putting thesauri in context with the general theory of information retrieval. But it will also be a valuable reference for any information professional developing or using a controlled vocabulary." - KO 33(2006) no.4, S.215-216 (M.P. Satija)
    RSWK
    Thesaurus / Inhaltserschließung
    Subject
    Thesaurus / Inhaltserschließung
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. ISO 25964 Thesauri and interoperability with other vocabularies (2008) 0.14
    0.13571115 = product of:
      0.16285339 = sum of:
        0.007693387 = weight(_text_:und in 1169) [ClassicSimilarity], result of:
          0.007693387 = score(doc=1169,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.07346288 = fieldWeight in 1169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1169)
        0.036710493 = weight(_text_:anwendung in 1169) [ClassicSimilarity], result of:
          0.036710493 = score(doc=1169,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.16047385 = fieldWeight in 1169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1169)
        0.01698602 = weight(_text_:des in 1169) [ClassicSimilarity], result of:
          0.01698602 = score(doc=1169,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.12981129 = fieldWeight in 1169, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1169)
        0.051297184 = weight(_text_:prinzips in 1169) [ClassicSimilarity], result of:
          0.051297184 = score(doc=1169,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.189695 = fieldWeight in 1169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1169)
        0.050166316 = product of:
          0.10033263 = sum of:
            0.10033263 = weight(_text_:thesaurus in 1169) [ClassicSimilarity], result of:
              0.10033263 = score(doc=1169,freq=18.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.45950568 = fieldWeight in 1169, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1169)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    T.1: Today's thesauri are mostly electronic tools, having moved on from the paper-based era when thesaurus standards were first developed. They are built and maintained with the support of software and need to integrate with other software, such as search engines and content management systems. Whereas in the past thesauri were designed for information professionals trained in indexing and searching, today there is a demand for vocabularies that untrained users will find to be intuitive. ISO 25964 makes the transition needed for the world of electronic information management. However, part 1 retains the assumption that human intellect is usually involved in the selection of indexing terms and in the selection of search terms. If both the indexer and the searcher are guided to choose the same term for the same concept, then relevant documents will be retrieved. This is the main principle underlying thesaurus design, even though a thesaurus built for human users may also be applied in situations where computers make the choices. Efficient exchange of data is a vital component of thesaurus management and exploitation. Hence the inclusion in this standard of recommendations for exchange formats and protocols. Adoption of these will facilitate interoperability between thesaurus management systems and the other computer applications, such as indexing and retrieval systems, that will utilize the data. Thesauri are typically used in post-coordinate retrieval systems, but may also be applied to hierarchical directories, pre-coordinate indexes and classification systems. Increasingly, thesaurus applications need to mesh with others, such as automatic categorization schemes, free-text search systems, etc. Part 2 of ISO 25964 describes additional types of structured vocabulary and gives recommendations to enable interoperation of the vocabularies at all stages of the information storage and retrieval process.
    T.2: The ability to identify and locate relevant information among vast collections and other resources is a major and pressing challenge today. Several different types of vocabulary are in use for this purpose. Some of the most widely used vocabularies were designed a hundred years ago and have been evolving steadily. A different generation of vocabularies is now emerging, designed to exploit the electronic media more effectively. A good understanding of the previous generation is still essential for effective access to collections indexed with them. An important object of ISO 25964 as a whole is to support data exchange and other forms of interoperability in circumstances in which more than one structured vocabulary is applied within one retrieval system or network. Sometimes one vocabulary has to be mapped to another, and it is important to understand both the potential and the limitations of such mappings. In other systems, a thesaurus is mapped to a classification scheme, or an ontology to a thesaurus. Comprehensive interoperability needs to cover the whole range of vocabulary types, whether young or old. Concepts in different vocabularies are related only in that they have the same or similar meaning. However, the meaning can be found in a number of different aspects within each particular type of structured vocabulary: - within terms or captions selected in different languages; - in the notation assigned indicating a place within a larger hierarchy; - in the definition, scope notes, history notes and other notes that explain the significance of that concept; and - in explicit relationships to other concepts or entities within the same vocabulary. In order to create mappings from one structured vocabulary to another it is first necessary to understand, within the context of each different type of structured vocabulary, the significance and relative importance of each of the different elements in defining the meaning of that particular concept. ISO 25964-1 describes the key characteristics of thesauri along with additional advice on best practice. ISO 25964-2 focuses on other types of vocabulary and does not attempt to cover all aspects of good practice. It concentrates on those aspects which need to be understood if one of the vocabularies is to work effectively alongside one or more of the others. Recognizing that a new standard cannot be applied to some existing vocabularies, this part of ISO 25964 provides informative description alongside the recommendations, the aim of which is to enable users and system developers to interpret and implement the existing vocabularies effectively. The remainder of ISO 25964-2 deals with the principles and practicalities of establishing mappings between vocabularies.
    Content
    Vgl. für einen Entwurf des zweiten Teils (2012): http://drafts.bsigroup.com/Home/Details/931.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Zapilko, B.; Sure, Y.: Neue Möglichkeiten für die Wissensorganisation durch die Kombination von Digital Library Verfahren mit Standards des Semantic Web (2013) 0.14
    0.13571079 = product of:
      0.20356618 = sum of:
        0.048657253 = weight(_text_:und in 936) [ClassicSimilarity], result of:
          0.048657253 = score(doc=936,freq=20.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.46462005 = fieldWeight in 936, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=936)
        0.07342099 = weight(_text_:anwendung in 936) [ClassicSimilarity], result of:
          0.07342099 = score(doc=936,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=936)
        0.04804372 = weight(_text_:des in 936) [ClassicSimilarity], result of:
          0.04804372 = score(doc=936,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.36716178 = fieldWeight in 936, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=936)
        0.03344421 = product of:
          0.06688842 = sum of:
            0.06688842 = weight(_text_:thesaurus in 936) [ClassicSimilarity], result of:
              0.06688842 = score(doc=936,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.30633712 = fieldWeight in 936, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=936)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Entwicklungen und Technologien des Semantic Web treffen seit einigen Jahren verstärkt auf die Bibliotheks- und Dokumentationswelt, um das dort seit Jahrzehnten gesammelte und gepflegte Wissen für das Web und seine Nurzer zugänglich und weiter verarbeitbar zu machen. Dabei können beide Lager von einer Öffnung gegenüber den Verfahren des jeweils anderen und den daraus resultierenden Möglichkeiten, beispielsweise einer integrierten Recherche in verteilten und semantisch angereicherten Dokumentbeständen oder der Anreicherung eigener Bestände um Inhalte anderer, frei verfügbarer Bestände, profitieren. Dieses Paper stellt die Reformulierung eines gängigen informationswissenschaftlichen Verfahrens aus der Dokumentations- und Bibliothekswelt, des sogenannten SchalenmodeIls, vor und zeigt neues Potenzial und neue Möglichkeiten für die Wissensorganisation auf, die durch dessen Anwendung im Semantic Web entstehen können. Darüber hinaus werden erste praktische Ergebnisse der Vorarbeiten dieser Reformulierung präsentiert, die Transformation eines Thesaurus ins SKOS-Format.
  4. Kempf, A.O.; Zapilko, B.: Normdatenpflege in Zeiten der Automatisierung : Erstellung und Evaluation automatisch aufgebauter Thesaurus-Crosskonkordanzen (2013) 0.14
    0.1350882 = product of:
      0.2701764 = sum of:
        0.030773548 = weight(_text_:und in 1021) [ClassicSimilarity], result of:
          0.030773548 = score(doc=1021,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 1021, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.02402186 = weight(_text_:des in 1021) [ClassicSimilarity], result of:
          0.02402186 = score(doc=1021,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 1021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.215381 = sum of:
          0.17697012 = weight(_text_:thesaurus in 1021) [ClassicSimilarity], result of:
            0.17697012 = score(doc=1021,freq=14.0), product of:
              0.21834905 = queryWeight, product of:
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.04725067 = queryNorm
              0.81049186 = fieldWeight in 1021, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.046875 = fieldNorm(doc=1021)
          0.03841088 = weight(_text_:22 in 1021) [ClassicSimilarity], result of:
            0.03841088 = score(doc=1021,freq=2.0), product of:
              0.16546379 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04725067 = queryNorm
              0.23214069 = fieldWeight in 1021, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1021)
      0.5 = coord(3/6)
    
    Abstract
    Thesaurus-Crosskonkordanzen bilden eine wichtige Voraussetzung für die integrierte Suche in einer verteilten Datenstruktur. Ihr Aufbau erfordert allerdings erhebliche personelle Ressourcen. Der vorliegende Beitrag liefert Evaluationsergebnisse des Library Track 2012 der Ontology Alignment Evaluation Initiative (OAEI), in dem Crosskonkordanzen zwischen dem Thesaurus Sozialwissenschaften (TheSoz) und dem Standard Thesaurus Wirtschaft (STW) erstmals automatisch erstellt wurden. Die Evaluation weist auf deutliche Unterschiede in den getesteten Matching- Tools hin und stellt die qualitativen Unterschiede einer automatisch im Vergleich zu einer intellektuell erstellten Crosskonkordanz heraus. Die Ergebnisse sprechen für einen Einsatz automatisch generierter Thesaurus-Crosskonkordanzen, um Domänenexperten eine maschinell erzeugte Vorselektion von möglichen Äquivalenzrelationen anzubieten.
    Date
    18. 8.2013 12:53:22
    Object
    Thesaurus Sozialwissenschaften
    Standard Thesaurus Wirtschaft
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.4, S.199-208
  5. Schmidt, R.: Wege des Knowledge Managements : Themen und Vorträge der Online-Tagung 2000 (2000) 0.13
    0.13436794 = product of:
      0.20155191 = sum of:
        0.05385371 = weight(_text_:und in 4724) [ClassicSimilarity], result of:
          0.05385371 = score(doc=4724,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.51424015 = fieldWeight in 4724, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4724)
        0.08565781 = weight(_text_:anwendung in 4724) [ClassicSimilarity], result of:
          0.08565781 = score(doc=4724,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 4724, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4724)
        0.03963405 = weight(_text_:des in 4724) [ClassicSimilarity], result of:
          0.03963405 = score(doc=4724,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.302893 = fieldWeight in 4724, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4724)
        0.022406347 = product of:
          0.044812694 = sum of:
            0.044812694 = weight(_text_:22 in 4724) [ClassicSimilarity], result of:
              0.044812694 = score(doc=4724,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.2708308 = fieldWeight in 4724, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4724)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Neue Trends im Knowlegde Management und die sich daruas ergebenden Konsequenzen für die Zukunft der professionellen Informationsarbeit werden in Fachbeiträgen und Diskussionen auf der 22. Online-Tagung der DGI thematisiert. Der Artikel bietet einen Überblick zu Struktur und Zielsetzung des Tagungskonzepts und fasst die Inhalte der Vorträge zusammen. Dabei reicht das Spektrum der Themen von ersten Erfahrungen mit der praktischen Anwendung von Wissensmanagement über neue Erkenntnisse zur global organisierten Informationsarbeit und zur Reorganisation von Wissensstrukturen im Internet und Intranet bis zu Prognosen und Einschätzungen zu zukünftigen Veränderungen auf dem Arbeitsmarkt für Informationsspezialisten
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.3, S.133-137
  6. Geh, H.-P.: ¬Die Facettenklassifikation und ihre Anwendung auf das Fach Geschichte (1965) 0.13
    0.13163455 = product of:
      0.2632691 = sum of:
        0.035902474 = weight(_text_:und in 1215) [ClassicSimilarity], result of:
          0.035902474 = score(doc=1215,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 1215, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1215)
        0.17131563 = weight(_text_:anwendung in 1215) [ClassicSimilarity], result of:
          0.17131563 = score(doc=1215,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.74887794 = fieldWeight in 1215, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.109375 = fieldNorm(doc=1215)
        0.05605101 = weight(_text_:des in 1215) [ClassicSimilarity], result of:
          0.05605101 = score(doc=1215,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.4283554 = fieldWeight in 1215, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=1215)
      0.5 = coord(3/6)
    
    Imprint
    Köln : Bibliothekar-Lehrinstitut des Landes NW
  7. Schulte-Tigges, F.: ¬Die Facettenanalyse nach Vickery und ihre Anwendung auf die Klassifikation der Physik (1961) 0.13
    0.13163455 = product of:
      0.2632691 = sum of:
        0.035902474 = weight(_text_:und in 1218) [ClassicSimilarity], result of:
          0.035902474 = score(doc=1218,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 1218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1218)
        0.17131563 = weight(_text_:anwendung in 1218) [ClassicSimilarity], result of:
          0.17131563 = score(doc=1218,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.74887794 = fieldWeight in 1218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.109375 = fieldNorm(doc=1218)
        0.05605101 = weight(_text_:des in 1218) [ClassicSimilarity], result of:
          0.05605101 = score(doc=1218,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.4283554 = fieldWeight in 1218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=1218)
      0.5 = coord(3/6)
    
    Imprint
    Köln : Bibliothekar-Lehrinstitut des Landes NW
  8. Taube, U.-F.: ¬Die Internationale Patentklassifikation (IPC) und ihre Anwendung in der Bibliothek des Deutschen Patentamtes (1979) 0.13
    0.13163455 = product of:
      0.2632691 = sum of:
        0.035902474 = weight(_text_:und in 1560) [ClassicSimilarity], result of:
          0.035902474 = score(doc=1560,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 1560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1560)
        0.17131563 = weight(_text_:anwendung in 1560) [ClassicSimilarity], result of:
          0.17131563 = score(doc=1560,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.74887794 = fieldWeight in 1560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.109375 = fieldNorm(doc=1560)
        0.05605101 = weight(_text_:des in 1560) [ClassicSimilarity], result of:
          0.05605101 = score(doc=1560,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.4283554 = fieldWeight in 1560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=1560)
      0.5 = coord(3/6)
    
  9. Schulte-Tigges, F.: ¬Die Anwendung elektronischer datenverarbeitender Maschinen in einzelnen Bereichen des Bibliothekswesens (1963) 0.13
    0.13163455 = product of:
      0.2632691 = sum of:
        0.035902474 = weight(_text_:und in 4396) [ClassicSimilarity], result of:
          0.035902474 = score(doc=4396,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 4396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4396)
        0.17131563 = weight(_text_:anwendung in 4396) [ClassicSimilarity], result of:
          0.17131563 = score(doc=4396,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.74887794 = fieldWeight in 4396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.109375 = fieldNorm(doc=4396)
        0.05605101 = weight(_text_:des in 4396) [ClassicSimilarity], result of:
          0.05605101 = score(doc=4396,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.4283554 = fieldWeight in 4396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=4396)
      0.5 = coord(3/6)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 10(1963), S.331-345
  10. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.13
    0.13118578 = product of:
      0.19677867 = sum of:
        0.0425268 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.0425268 = score(doc=4283,freq=22.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.08652747 = weight(_text_:anwendung in 4283) [ClassicSimilarity], result of:
          0.08652747 = score(doc=4283,freq=4.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3782405 = fieldWeight in 4283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.028310036 = weight(_text_:des in 4283) [ClassicSimilarity], result of:
          0.028310036 = score(doc=4283,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 4283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.03941438 = product of:
          0.07882876 = sum of:
            0.07882876 = weight(_text_:thesaurus in 4283) [ClassicSimilarity], result of:
              0.07882876 = score(doc=4283,freq=4.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.36102176 = fieldWeight in 4283, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Footnote
    Masterarbeit im Studiengang Information Engineering zur Erlagung des Grades eines Master of Science in Information science,
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  11. Detemple, S.: PRECIS : ein computerunterstütztes System zur Herstellung alphabetischer Sachregister und Schlagwortkataloge (1982) 0.13
    0.12875459 = product of:
      0.25750917 = sum of:
        0.044417795 = weight(_text_:und in 1199) [ClassicSimilarity], result of:
          0.044417795 = score(doc=1199,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.42413816 = fieldWeight in 1199, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1199)
        0.17305493 = weight(_text_:anwendung in 1199) [ClassicSimilarity], result of:
          0.17305493 = score(doc=1199,freq=4.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.756481 = fieldWeight in 1199, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.078125 = fieldNorm(doc=1199)
        0.040036436 = weight(_text_:des in 1199) [ClassicSimilarity], result of:
          0.040036436 = score(doc=1199,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.30596817 = fieldWeight in 1199, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=1199)
      0.5 = coord(3/6)
    
    Abstract
    Das Preserved Context Index System der British Library wird auf einer abstrakt linguistischen Basis beschrieben. Die allgemeinen Grundlagen der mehrsprachigen Anwendung des Systems werden reörtert und Änderungen diskutiert, die die Anwendung im Deutschen ermöglichen würden
    Source
    Bibliothek: Forschung und Praxis. 6(1982), S.4-46
  12. Thew, L. u. G. Haberkamp (Bearb.): Musikalische Form- und Gattungsnamen : Schema einer Schlagwortliste mit sachlich-zeitlichen Zuordnungen (Thesaurus) (1998) 0.13
    0.12870646 = product of:
      0.19305967 = sum of:
        0.037689745 = weight(_text_:und in 698) [ClassicSimilarity], result of:
          0.037689745 = score(doc=698,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.35989314 = fieldWeight in 698, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=698)
        0.07342099 = weight(_text_:anwendung in 698) [ClassicSimilarity], result of:
          0.07342099 = score(doc=698,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 698, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=698)
        0.02402186 = weight(_text_:des in 698) [ClassicSimilarity], result of:
          0.02402186 = score(doc=698,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 698, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=698)
        0.057927076 = product of:
          0.11585415 = sum of:
            0.11585415 = weight(_text_:thesaurus in 698) [ClassicSimilarity], result of:
              0.11585415 = score(doc=698,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5305915 = fieldWeight in 698, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=698)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Im Jahre 1977 entstand in der damaligen AIBM-Katalogkommission / Subkommission für Klassifikation in maschinenschriftlicher Form ein Thesaurus der Musikalischen Form- und Gattungsnamen. Die Mitgliederversammlung der AIBM-Gruppe Bundesrepublik Deutschland stimmte 1996 dem Vorschlag des Vorstandes zu, diesen in einer leicht erweiterten Ausgabe herauszugeben. Nun wurden Begriffe zusätzlich aufgenommen, die in den Musikabteilungen der Berliner Stadtbibliothek, der Münchner Städtischen Bibliotheken und im Deutschen Musikarchiv angewendet werden. Die hinzugefügten Begriffe sind leicht erkennbar, da sie keine Zusatzinformationen wie Zeitangaben und Sprachbezeichnungen haben. Dieser und der 'Thesaurus zur Erschließung von Musik nach Anlaß, Zweck und Inhalt (Bearb. Klaus Schneider. 2., erw. u. überarb. Aufl. Berlin: DBI 1994) können bei der Anwendung der RSWK-Musik ein wichtiges Hilfsmittel zur Schlagwortvergabe sein
  13. Anwendungen in der Klassifikation : Proc. 8. Jahrestagung der Gesellschaft für Klassifikation, Hofgeismar, 10.-13.4.1984 (1985) 0.13
    0.12699053 = product of:
      0.19048578 = sum of:
        0.036266975 = weight(_text_:und in 20) [ClassicSimilarity], result of:
          0.036266975 = score(doc=20,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34630734 = fieldWeight in 20, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=20)
        0.061184157 = weight(_text_:anwendung in 20) [ClassicSimilarity], result of:
          0.061184157 = score(doc=20,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 20, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=20)
        0.044762097 = weight(_text_:des in 20) [ClassicSimilarity], result of:
          0.044762097 = score(doc=20,freq=10.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.3420828 = fieldWeight in 20, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=20)
        0.048272558 = product of:
          0.096545115 = sum of:
            0.096545115 = weight(_text_:thesaurus in 20) [ClassicSimilarity], result of:
              0.096545115 = score(doc=20,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.44215953 = fieldWeight in 20, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=20)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Content
    Enthält u.a. die Beiträge: BALLMER, T.: Die Allgemeinsprache als Grundlage des menschlichen Wissens; UNGVARY, R.: Ein natürliches System der Gegenstände; FUGMANN, R.: Theoretische Grundlagen der Indexierungspraxis; VELTMAN, K.: Multidimensional bibliography in classification; JOCHUM, F. u. V. WEISSMANN: Struktur und Elemente des Information Retrieval Experiments; LIEDLOFF, V.: Anwendung eines existenten Klassifikationssystems im Bereich der computerunterstützten Inhaltsanalyse; KOHL, E.: Der Thesaurus Poliathes der Bibliothek des Deutschen Bundestages in Beziehung zu den Normen DIN 1463, ISO 2788 und 5964; GÖDERT, W.: Komplementarität bei der Klassenbildung in der klassifikatorischen und verbalen Sacherschließung; LUNAU, H.: Das natürliche System der Organismen als Klassifikationsschema für Biologiebestände?; KLÖTI, T.: Aufstellung einer Kartensammlung in einer Fachbereichsbibliothek; HOLZ-MÄNTTÄRI, J.: Die Recherchierarbeit des Berufstranslators; KROMMER-BENZ, M. u. W. NEDOBITY: Klassifikationssysteme und die terminologischen Datenbanken; NACKE, O.: Prinzipien eines zentralen Verwaltungssystems für Terminologien; LAUTERBACH, H.: Teile- und Produktsbeschreibung mit Hilfe des Sachmerkmal-Systems nach DIN 4000; HAENDLER, H.: Konzipiert für die Belange der Datendokumentation: der Internationale Futtermittelthesaurus; STANCIKOVA, P.: Methodology of Multilingual Water Management Thesaurus processing; RAUSCHENBERGER, H.: Klassifikationen in EDV-gestützten Umweltauskunftssystemen; HERFURTH, M. u. H. SCHOTT; Dokumentationssprache zwischen Wissenschaft und Informationspolitik: Konzepte und Verfahrensweisen im Informationszentrum Sozialwissenschaften; GRAUMANN, S.: Aufbau, Struktur und Probleme bei der Erstellung eines EDV-gestützten Thesaurus; DAHLBERG, I.: Zur Systematik der Sachgebiete in der neuen Internationalen Enzyklopädie der Sozialwissenschaften
  14. Nowak, L.: ¬Die INIS Collection Search : Einblicke und Fallbeispiele zu neuen Entwicklungen (2015) 0.13
    0.12603734 = product of:
      0.18905601 = sum of:
        0.05128925 = weight(_text_:und in 1837) [ClassicSimilarity], result of:
          0.05128925 = score(doc=1837,freq=32.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.48975256 = fieldWeight in 1837, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1837)
        0.061184157 = weight(_text_:anwendung in 1837) [ClassicSimilarity], result of:
          0.061184157 = score(doc=1837,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 1837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1837)
        0.028310036 = weight(_text_:des in 1837) [ClassicSimilarity], result of:
          0.028310036 = score(doc=1837,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 1837, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1837)
        0.048272558 = product of:
          0.096545115 = sum of:
            0.096545115 = weight(_text_:thesaurus in 1837) [ClassicSimilarity], result of:
              0.096545115 = score(doc=1837,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.44215953 = fieldWeight in 1837, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1837)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    INIS (International Nuclear Information System) ist die weltweit größte Datenbank im Bereich der friedlichen Nutzung von Nuklearwissenschaften und wird von der IAEA (International Atomic Energy Agency) und ihren Mitgliedsstaaten betrieben. Das österreichische INIS-Zentrum befindet sich an der Zentralbibliothek für Physik und ist zuständig für die Auswahl und die Eingabe von relevanter, in Österreich publizierter Literatur. Mit über 3,3 Millionen bibliographischen Records ermöglicht die INIS Collection Zugriff auf eine einzigartige Sammlung von grauer Literatur im Bereich der Nuklearwissenschaften. Dazu gehören über 280.000 Volltext-Dokumente wie u.a. wissenschaftliche und technische Reports, Konferenzprotokolle und Patente, welche nicht auf herkömmlichem Wege zur Verfügung stehen. Dieser Beitrag beschäftigt sich im speziellen mit der INIS Collection Search, welche mithilfe des multilingualen INIS-Thesaurus ein äußerst präzises Suchergebnis ermöglicht. Der Thesaurus umfasst 30.000 Begriffe und ist in allen Amtssprachen der IAEA (Arabisch, Chinesisch, Englisch, Französisch, Russisch, Japanisch, Spanisch und Deutsch) erhältlich. Der Zugriff auf die INIS Collection, die INIS bibliographische Datenbank und auf die Volltext-Dokumente ist kostenlos über die INIS Website http://www.iaea.org/INIS möglich. INIS Collection Search wird von Google Search Appliance betrieben, wobei besonderer Wert auf die Benutzerfreundlichkeit des Suchsystems gelegt wurde. Die Sucheingabe kann dabei auf zwei grundlegende Sucharten erfolgen: Standard Search und Advanced Search. Für registrierte INIS-Benutzer ist der Zugriff auf ein umfassendes Informationsangebot der IAEA sowie auf ein eigenes »User profile« und einen »Workspace« gewährleistet, wo sich u.a. Suchergebnisse und Suchabfragen (Queries) speichern und verwalten lassen. Nach einer kurzen, allgemeinen Einführung über INIS und ICS werden ausgewählte Fallbeispiele zur Anwendung der ICS gezeigt. Abschließen werden noch neue Entwicklungen im Bereich der INIS Collection Search besprochen.
    Object
    INIS-Thesaurus
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 68(2015) H.1, S.45-55
  15. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.12
    0.12453022 = product of:
      0.18679532 = sum of:
        0.06253883 = product of:
          0.18761648 = sum of:
            0.18761648 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.18761648 = score(doc=1000,freq=2.0), product of:
                0.4005917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04725067 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.022208897 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.022208897 = score(doc=1000,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.028310036 = weight(_text_:des in 1000) [ClassicSimilarity], result of:
          0.028310036 = score(doc=1000,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.073737554 = product of:
          0.14747511 = sum of:
            0.14747511 = weight(_text_:thesaurus in 1000) [ClassicSimilarity], result of:
              0.14747511 = score(doc=1000,freq=14.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.6754099 = fieldWeight in 1000, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  16. Moreira, A.; Alvarenga, L.; Paiva Oliveira, A. de: "Thesaurus" and "Ontology" : a study of the definitions found in the computer and information science literature (2004) 0.12
    0.12389385 = product of:
      0.14867263 = sum of:
        0.007693387 = weight(_text_:und in 3726) [ClassicSimilarity], result of:
          0.007693387 = score(doc=3726,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.07346288 = fieldWeight in 3726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3726)
        0.036710493 = weight(_text_:anwendung in 3726) [ClassicSimilarity], result of:
          0.036710493 = score(doc=3726,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.16047385 = fieldWeight in 3726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3726)
        0.01201093 = weight(_text_:des in 3726) [ClassicSimilarity], result of:
          0.01201093 = score(doc=3726,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.091790445 = fieldWeight in 3726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3726)
        0.051297184 = weight(_text_:prinzips in 3726) [ClassicSimilarity], result of:
          0.051297184 = score(doc=3726,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.189695 = fieldWeight in 3726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3726)
        0.040960625 = product of:
          0.08192125 = sum of:
            0.08192125 = weight(_text_:thesaurus in 3726) [ClassicSimilarity], result of:
              0.08192125 = score(doc=3726,freq=12.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.3751848 = fieldWeight in 3726, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3726)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    This is a comparative analysis of the term ontology, used in the computer science domain, with the term thesaurus, used in the information science domain. The aim of the study is to establish the main convergence points of these two knowledge representation instruments and to point out their differences. In order to fulfill this goal an analytical-Synthetic method was applied to extract the meaning underlying each of the selected definitions of the instruments. The definitions were obtained from texts weIl accepted by the research community from both areas. The definitions were applied to a KWIC system in order to rotate the terms that were examined qualitatively and quantitatively. We concluded that thesauri and ontologies operate at the same knowledge level, the epistemological level, in spite of different origins and purposes.
    Content
    "Thesaurus" definitions taken from the information science literature "A thesaurus is a controlled vocabulary arranged in a known order and structured so that equivalence, homographic, hierarchical, and associative relationships among terms are displayed clearly and identified by standardized relationship indicators that are employed reciprocally." (ANSI/NISO Z39-19-1993) "Thesaurus is a specialized, normalized, postcoordinate language used for documentaries means, where the linguistic elements that composes it - single or composed terms - are related among themselves syntactically and semantically." (Translated into English by the authors from the original in Portuguese: Currás 1995, 88.) "[...] an authority file, which can lead the user from one concept to another via various heuristic or intuitive paths." (Howerton 1965 apud Gilchrist 1971, 5) " [...] is a lexical authority list, without notation, which differs from an alphabetical subject heading list in that the lexical units, being smaller, are more amenable to post-coordinate indexing." (Gilchrist 1971,2) [...] "a dynamic controlled vocabulary of terms related semantically and by generic relation covering a specific knowledge domain." (Translated into English by the authors from the original in Portuguese: UNESCO 1973, 6.) [...] "a terminological control device used in the translation of the natural language of the documents, from the indexers or from the users in a more restricted system language (documentation language, information language)." (Translated into English by the authors from the original in Portuguese: UNESCO 1973,6.)
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  17. Jele, H.: Erkennung bibliographischer Dubletten mittels Trigrammen : Messungen zur Performanz (2009) 0.12
    0.12302976 = product of:
      0.18454464 = sum of:
        0.029013582 = weight(_text_:und in 2562) [ClassicSimilarity], result of:
          0.029013582 = score(doc=2562,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.27704588 = fieldWeight in 2562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2562)
        0.097894646 = weight(_text_:anwendung in 2562) [ClassicSimilarity], result of:
          0.097894646 = score(doc=2562,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.42793027 = fieldWeight in 2562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0625 = fieldNorm(doc=2562)
        0.03202915 = weight(_text_:des in 2562) [ClassicSimilarity], result of:
          0.03202915 = score(doc=2562,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 2562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2562)
        0.025607252 = product of:
          0.051214505 = sum of:
            0.051214505 = weight(_text_:22 in 2562) [ClassicSimilarity], result of:
              0.051214505 = score(doc=2562,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.30952093 = fieldWeight in 2562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2562)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Die Bildung von Trigrammen wird in der automatisierten Dublettenerkennung häufig in Situationen angewandt, in denen "sehr ähnliche" aber nicht idente Datensätze als Duplikate identifiziert werden sollen. In dieser Arbeit werden drei auf Trigrammen beruhende Erkennungsverfahren (das Jaccard-Maß, der euklidische Abstand sowie der Ähnlichkeitswert des KOBV) praktisch angewandt, sämtliche dabei notwendigen Schritte umgesetzt und schließlich der Verbrauch an Zeit und Ressourcen (=die "Performanz") gemessen. Die hier zur Anwendung gelangte Datenmenge umfasst 392.616 bibliographische Titeldatensätze, die im Österreichischen Bibliothekenverbund erbracht wurden.
    Date
    21. 6.2010 19:30:22
  18. Wissensorganisation im Wandel : Dezimalklassifikation - Thesaurusfragen - Warenklassifikation. Proc. 11. Jahrestagung der Gesellschaft für Klassifikation, Aachen, 29.6.-1.7.1987 (1988) 0.12
    0.12232654 = product of:
      0.1834898 = sum of:
        0.02867156 = weight(_text_:und in 17) [ClassicSimilarity], result of:
          0.02867156 = score(doc=17,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.27378 = fieldWeight in 17, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=17)
        0.08652747 = weight(_text_:anwendung in 17) [ClassicSimilarity], result of:
          0.08652747 = score(doc=17,freq=4.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3782405 = fieldWeight in 17, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=17)
        0.020018218 = weight(_text_:des in 17) [ClassicSimilarity], result of:
          0.020018218 = score(doc=17,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 17, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=17)
        0.048272558 = product of:
          0.096545115 = sum of:
            0.096545115 = weight(_text_:thesaurus in 17) [ClassicSimilarity], result of:
              0.096545115 = score(doc=17,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.44215953 = fieldWeight in 17, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=17)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Content
    Enthält die Beiträge: MEINK, P.: Das Gestern und das Morgen mit einer DK von heute. Eine Klassifikation hält Schritt; KNELL, G.: EDV-gestützte DK-Anwendung in der Bereichsbibliothek Erziehungswissenschaften der Universität Gießen; SCHAEL, F.: Volkswagen von 0 bis 9 - die DK in einem industriellen Großunternehmen; TRAISER, W.: Anwendung der Universellen Dezimalklassifikation in Nationalbibliographien; FUNK, H., K. LOTH: Sachabfrage im ETHICS auf der Basis der UDK. Ein OPAC; PARNICZKY, G.: Descriptor language for statistical nomenclatures; SCHWARZ, C.: THESYS: Thesaurus Syntax System. A fully automated thesaurus building aid: KÖNIG, G., M. MARME: Klassifikation und Thesaurus für die Mathematikdidaktik; HERFURTH, M.: Notationen soziologischen Wissens. Ein Beitrag zur Architektur sozialwissenschaftlicher Wissensbasen; OHLY, H.P.: Sozialwissenschaftliche Theorien als Gegenstand systematischer Dokumentation; GÖDERT, W.: Syntax von Dokumentationssprachen im Online-Katalog; SPITZ, A.L., L.D. WILCOX: Classification techniques applied to the recognition of office documents; HÖLZL, J.: Warenklassifikation als Mittel der Input-Output-Analyse; GASTHUBER, H.: Methodischer Aspekte der Gestaltung von benutzerfreundlichen Produktinforma-tionssystemen; AHLHAUS, O.: Klassifikations- und Ordnungssysteme für das Produkt-, Qualitäts- und Verpackungswesen; PRETZSCH, J.: Der OPAC des Deutschen Patentamtes und seine sachlichen Zugriffsmöglichkeiten; GEIS, A.: Entwicklung von Diktionären. Zum Beispiel maschinelle Branchenvercodung; GOMBOSI, M., G. DOMOKOS: Logical checking on statistical nomenclatures. -
  19. ALA / Subcommittee on Subject Relationships/Reference Structures: Final Report to the ALCTS/CCS Subject Analysis Committee (1997) 0.12
    0.120977595 = product of:
      0.14517312 = sum of:
        0.0089756185 = weight(_text_:und in 1800) [ClassicSimilarity], result of:
          0.0089756185 = score(doc=1800,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.085706696 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.042828906 = weight(_text_:anwendung in 1800) [ClassicSimilarity], result of:
          0.042828906 = score(doc=1800,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.18721949 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.014012752 = weight(_text_:des in 1800) [ClassicSimilarity], result of:
          0.014012752 = score(doc=1800,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.10708885 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.059846714 = weight(_text_:prinzips in 1800) [ClassicSimilarity], result of:
          0.059846714 = score(doc=1800,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.22131084 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.019509122 = product of:
          0.039018244 = sum of:
            0.039018244 = weight(_text_:thesaurus in 1800) [ClassicSimilarity], result of:
              0.039018244 = score(doc=1800,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.17869665 = fieldWeight in 1800, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1800)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  20. Rieder, S.: ¬Das Datenbankprogramm CDS/ISIS und dessen Anwendung in der Bundesrepublik Deutschland : Ergebnisse einer Nutzerstudie (1995) 0.12
    0.120883584 = product of:
      0.24176717 = sum of:
        0.058027163 = weight(_text_:und in 1416) [ClassicSimilarity], result of:
          0.058027163 = score(doc=1416,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.55409175 = fieldWeight in 1416, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1416)
        0.13844395 = weight(_text_:anwendung in 1416) [ClassicSimilarity], result of:
          0.13844395 = score(doc=1416,freq=4.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.6051848 = fieldWeight in 1416, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0625 = fieldNorm(doc=1416)
        0.045296054 = weight(_text_:des in 1416) [ClassicSimilarity], result of:
          0.045296054 = score(doc=1416,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.34616345 = fieldWeight in 1416, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=1416)
      0.5 = coord(3/6)
    
    Abstract
    Ergebnisse einer Umfrage über die Anwendung des Datenbankprogramms CDS/ISIS in der Bundesrepublik Deutschland. Von 130 angeschriebenem deutschen ISIS-Lizenznehmern haben 42 geantwortet, die das Programm nicht anwenden und 20, die es anwenden. Deren Verhalten, Gründe für die Nicht-Nutzung und verwirklichte Anwendungen wurden ausführlich untersucht und dargelegt.Auf eine allgemeine Auswertung hin folgt ein Überblick über das ISIS-Anwendungsspektrum mit konkreten Einzeldarstellungen aller Anwender. Im ersten Teil werden Hauptmerkmale und -funktionen des leistingsfähigen Programm beschrieben und bewertet, außerdem Bedeutung und Verbreitung in anderen Ländern kurz vorgestellt
    Imprint
    Stuttgart : Fachhochschule - Hochschule für Bibliotheks- und Informationswesen

Authors

Languages

Types

  • a 12748
  • m 2501
  • el 1159
  • s 703
  • x 640
  • i 193
  • r 131
  • b 90
  • ? 80
  • n 60
  • p 31
  • l 26
  • h 25
  • d 18
  • u 16
  • fi 11
  • z 4
  • v 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications