Search (471 results, page 1 of 24)

  • × type_ss:"x"
  1. Heinz, S.: Realisierung und Evaluierung eines virtuellen Bibliotheksregals für die Informationswissenschaft an der Universitätsbibliothek Hildesheim (2003) 0.24
    0.24439123 = product of:
      0.2932695 = sum of:
        0.11642214 = weight(_text_:umfeld in 5982) [ClassicSimilarity], result of:
          0.11642214 = score(doc=5982,freq=2.0), product of:
            0.26788878 = queryWeight, product of:
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.047673445 = queryNorm
            0.43459132 = fieldWeight in 5982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
        0.0068221292 = weight(_text_:in in 5982) [ClassicSimilarity], result of:
          0.0068221292 = score(doc=5982,freq=2.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.10520181 = fieldWeight in 5982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
        0.106637046 = weight(_text_:indexierung in 5982) [ClassicSimilarity], result of:
          0.106637046 = score(doc=5982,freq=2.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.4159272 = fieldWeight in 5982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
        0.03953255 = weight(_text_:u in 5982) [ClassicSimilarity], result of:
          0.03953255 = score(doc=5982,freq=2.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.25324488 = fieldWeight in 5982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
        0.023855632 = product of:
          0.047711264 = sum of:
            0.047711264 = weight(_text_:retrieval in 5982) [ClassicSimilarity], result of:
              0.047711264 = score(doc=5982,freq=4.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.33085006 = fieldWeight in 5982, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5982)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
    Semantisches Umfeld in Indexierung u. Retrieval
  2. Renker, L.: Exploration von Textkorpora : Topic Models als Grundlage der Interaktion (2015) 0.18
    0.17981349 = product of:
      0.21577619 = sum of:
        0.08315867 = weight(_text_:umfeld in 2380) [ClassicSimilarity], result of:
          0.08315867 = score(doc=2380,freq=2.0), product of:
            0.26788878 = queryWeight, product of:
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.047673445 = queryNorm
            0.31042236 = fieldWeight in 2380, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
        0.016161747 = weight(_text_:in in 2380) [ClassicSimilarity], result of:
          0.016161747 = score(doc=2380,freq=22.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.24922498 = fieldWeight in 2380, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
        0.07616932 = weight(_text_:indexierung in 2380) [ClassicSimilarity], result of:
          0.07616932 = score(doc=2380,freq=2.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.29709086 = fieldWeight in 2380, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
        0.028237537 = weight(_text_:u in 2380) [ClassicSimilarity], result of:
          0.028237537 = score(doc=2380,freq=2.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.1808892 = fieldWeight in 2380, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
        0.012048915 = product of:
          0.02409783 = sum of:
            0.02409783 = weight(_text_:retrieval in 2380) [ClassicSimilarity], result of:
              0.02409783 = score(doc=2380,freq=2.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.16710453 = fieldWeight in 2380, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2380)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss. Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar. Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden. Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden. Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  3. Sebastian, Y.: Literature-based discovery by learning heterogeneous bibliographic information networks (2017) 0.14
    0.14226481 = product of:
      0.17071778 = sum of:
        0.066526935 = weight(_text_:umfeld in 535) [ClassicSimilarity], result of:
          0.066526935 = score(doc=535,freq=2.0), product of:
            0.26788878 = queryWeight, product of:
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.047673445 = queryNorm
            0.2483379 = fieldWeight in 535, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.03125 = fieldNorm(doc=535)
        0.011026227 = weight(_text_:in in 535) [ClassicSimilarity], result of:
          0.011026227 = score(doc=535,freq=16.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.17003182 = fieldWeight in 535, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=535)
        0.060935456 = weight(_text_:indexierung in 535) [ClassicSimilarity], result of:
          0.060935456 = score(doc=535,freq=2.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.23767269 = fieldWeight in 535, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03125 = fieldNorm(doc=535)
        0.022590028 = weight(_text_:u in 535) [ClassicSimilarity], result of:
          0.022590028 = score(doc=535,freq=2.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.14471136 = fieldWeight in 535, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03125 = fieldNorm(doc=535)
        0.009639132 = product of:
          0.019278264 = sum of:
            0.019278264 = weight(_text_:retrieval in 535) [ClassicSimilarity], result of:
              0.019278264 = score(doc=535,freq=2.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.13368362 = fieldWeight in 535, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=535)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Literature-based discovery (LBD) research aims at finding effective computational methods for predicting previously unknown connections between clusters of research papers from disparate research areas. Existing methods encompass two general approaches. The first approach searches for these unknown connections by examining the textual contents of research papers. In addition to the existing textual features, the second approach incorporates structural features of scientific literatures, such as citation structures. These approaches, however, have not considered research papers' latent bibliographic metadata structures as important features that can be used for predicting previously unknown relationships between them. This thesis investigates a new graph-based LBD method that exploits the latent bibliographic metadata connections between pairs of research papers. The heterogeneous bibliographic information network is proposed as an efficient graph-based data structure for modeling the complex relationships between these metadata. In contrast to previous approaches, this method seamlessly combines textual and citation information in the form of pathbased metadata features for predicting future co-citation links between research papers from disparate research fields. The results reported in this thesis provide evidence that the method is effective for reconstructing the historical literature-based discovery hypotheses. This thesis also investigates the effects of semantic modeling and topic modeling on the performance of the proposed method. For semantic modeling, a general-purpose word sense disambiguation technique is proposed to reduce the lexical ambiguity in the title and abstract of research papers. The experimental results suggest that the reduced lexical ambiguity did not necessarily lead to a better performance of the method. This thesis discusses some of the possible contributing factors to these results. Finally, topic modeling is used for learning the latent topical relations between research papers. The learned topic model is incorporated into the heterogeneous bibliographic information network graph and allows new predictive features to be learned. The results in this thesis suggest that topic modeling improves the performance of the proposed method by increasing the overall accuracy for predicting the future co-citation links between disparate research papers.
    Footnote
    A thesis submitted in ful llment of the requirements for the degree of Doctor of Philosophy Monash University, Faculty of Information Technology.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  4. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.12
    0.12197592 = product of:
      0.24395184 = sum of:
        0.0068221292 = weight(_text_:in in 782) [ClassicSimilarity], result of:
          0.0068221292 = score(doc=782,freq=2.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.10520181 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.21327409 = weight(_text_:indexierung in 782) [ClassicSimilarity], result of:
          0.21327409 = score(doc=782,freq=8.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.8318544 = fieldWeight in 782, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.023855632 = product of:
          0.047711264 = sum of:
            0.047711264 = weight(_text_:retrieval in 782) [ClassicSimilarity], result of:
              0.047711264 = score(doc=782,freq=4.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.33085006 = fieldWeight in 782, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=782)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
  5. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.11
    0.11275513 = product of:
      0.22551025 = sum of:
        0.01193624 = weight(_text_:in in 4283) [ClassicSimilarity], result of:
          0.01193624 = score(doc=4283,freq=12.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.18406484 = fieldWeight in 4283, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.20152509 = weight(_text_:indexierung in 4283) [ClassicSimilarity], result of:
          0.20152509 = score(doc=4283,freq=14.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.78602856 = fieldWeight in 4283, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.012048915 = product of:
          0.02409783 = sum of:
            0.02409783 = weight(_text_:retrieval in 4283) [ClassicSimilarity], result of:
              0.02409783 = score(doc=4283,freq=2.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.16710453 = fieldWeight in 4283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Footnote
    Masterarbeit im Studiengang Information Engineering zur Erlagung des Grades eines Master of Science in Information science,
  6. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.10
    0.10460706 = product of:
      0.20921412 = sum of:
        0.011026227 = weight(_text_:in in 401) [ClassicSimilarity], result of:
          0.011026227 = score(doc=401,freq=4.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.17003182 = fieldWeight in 401, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.17235151 = weight(_text_:indexierung in 401) [ClassicSimilarity], result of:
          0.17235151 = score(doc=401,freq=4.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.6722399 = fieldWeight in 401, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.025836375 = product of:
          0.05167275 = sum of:
            0.05167275 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.05167275 = score(doc=401,freq=2.0), product of:
                0.16694428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047673445 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Date
    11. 9.2012 19:43:22
  7. Weiner, U.: Vor uns die Dokumentenflut oder Automatische Indexierung als notwendige und sinnvolle Ergänzung zur intellektuellen Sacherschließung (2012) 0.09
    0.085531466 = product of:
      0.17106293 = sum of:
        0.010896247 = weight(_text_:in in 598) [ClassicSimilarity], result of:
          0.010896247 = score(doc=598,freq=10.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.16802745 = fieldWeight in 598, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
        0.13192914 = weight(_text_:indexierung in 598) [ClassicSimilarity], result of:
          0.13192914 = score(doc=598,freq=6.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.5145765 = fieldWeight in 598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
        0.028237537 = weight(_text_:u in 598) [ClassicSimilarity], result of:
          0.028237537 = score(doc=598,freq=2.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.1808892 = fieldWeight in 598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
      0.5 = coord(3/6)
    
    Abstract
    Vor dem Hintergrund veränderter Ansprüche der Bibliotheksbenutzer an Recherchemöglichkeiten - weg vom klassischen Online-Katalog hin zum "One-Stop-Shop" mit Funktionalitäten wie thematisches Browsing, Relevanzranking und dergleichen mehr - einerseits und der notwendigen Bearbeitung von Massendaten (Stichwort Dokumentenflut) andererseits rücken Systeme zur automatischen Indexierung wieder verstärkt in den Mittelpunkt des Interesses. Da in Österreich die Beschäftigung mit diesem Thema im Bibliotheksbereich bislang nur sehr selektiv, bezogen auf wenige konkrete Projekte, erfolgte, wird zuerst ein allgemeiner theoretischer Überblick über die unterschiedlichen Verfahrensansätze der automatischen Indexierung geboten. Im nächsten Schritt werden mit der IDX-basierten Indexierungssoftware MILOS (mit den Teilprojekten MILOS I, MILOS II und KASCADE) und dem modularen System intelligentCAPTURE (mit der integrierten Indexierungssoftware AUTINDEX) die bis vor wenigen Jahren im deutschsprachigen Raum einzigen im Praxiseinsatz befindlichen automatischen Indexierungssysteme vorgestellt. Mit zunehmender Notwendigkeit, neue Wege der inhaltlichen Erschließung zu beschreiten, wurden in den vergangenen 5 - 6 Jahren zahlreiche Softwareentwicklungen auf ihre Einsatzmöglichkeit im Bibliotheksbereich hin getestet. Stellvertretend für diese in Entwicklung befindlichen Systeme zur automatischen inhaltlichen Erschließung wird das Projekt PETRUS, welches in den Jahren 2009 - 2011 an der DNB durchgeführt wurde und die Komponenten PICA Match&Merge sowie die Extraction Platform der Firma Averbis beinhaltet, vorgestellt.
  8. Engel, F.: Expertensuche in semantisch integrierten Datenbeständen (2015) 0.08
    0.08033974 = product of:
      0.16067947 = sum of:
        0.115228035 = weight(_text_:umfeld in 2283) [ClassicSimilarity], result of:
          0.115228035 = score(doc=2283,freq=6.0), product of:
            0.26788878 = queryWeight, product of:
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.047673445 = queryNorm
            0.43013385 = fieldWeight in 2283, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
        0.013504315 = weight(_text_:in in 2283) [ClassicSimilarity], result of:
          0.013504315 = score(doc=2283,freq=24.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.2082456 = fieldWeight in 2283, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
        0.031947125 = weight(_text_:u in 2283) [ClassicSimilarity], result of:
          0.031947125 = score(doc=2283,freq=4.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.20465277 = fieldWeight in 2283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
      0.5 = coord(3/6)
    
    Abstract
    Wissen ist das intellektuelle Kapital eines Unternehmens und der effektive Zugriff darauf entscheidend für die Anpassungsfähigkeit und Innovationskraft. Eine häufig angewandte Lösung für den erfolgreichen Zugriff auf diese Wissensressourcen ist die Umsetzung der Expertensuche in den Daten der verteilten Informationssysteme des Unternehmens. Aktuelle Expertensuchverfahren berücksichtigen zur Berechnung der Relevanz eines Kandidaten zumeist nur die Information aus Datenquellen (u. a. E-Mails oder Publikationen eines Kandidaten), über die eine Verbindung zwischen dem Thema der Frage und einem Kandidaten hergestellt werden kann. Die aus den Datenquellen gewonnene Information, fließt dann gewichtet in die Relevanzbewertung ein. Analysen aus dem Fachbereich Wissensmanagement zeigen jedoch, dass neben dem Themenbezug auch noch weitere Kriterien Einfluss auf die Auswahl eines Experten in einer Expertensuche haben können (u. a. der Bekanntheitsgrad zwischen dem Suchenden und Kandidat). Um eine optimale Gewichtung der unterschiedlichen Bestandteile und Quellen, aus denen sich die Berechnung der Relevanz speist, zu finden, werden in aktuellen Anwendungen zur Suche nach Dokumenten oder zur Suche im Web verschiedene Verfahren aus dem Umfeld des maschinellen Lernens eingesetzt. Jedoch existieren derzeit nur sehr wenige Arbeiten zur Beantwortung der Frage, wie gut sich diese Verfahren eignen um auch in der Expertensuche verschiedene Bestandteile der Relevanzbestimmung optimal zusammenzuführen. Informationssysteme eines Unternehmens können komplex sein und auf einer verteilten Datenhaltung basieren. Zunehmend finden Technologien aus dem Umfeld des Semantic Web Akzeptanz in Unternehmen, um eine einheitliche Zugriffsschnittstelle auf den verteilten Datenbestand zu gewährleisten. Der Zugriff auf eine derartige Zugriffschnittstelle erfolgt dabei über Abfragesprachen, welche lediglich eine alphanumerische Sortierung der Rückgabe erlauben, jedoch keinen Rückschluss auf die Relevanz der gefundenen Objekte zulassen. Für die Suche nach Experten in einem derartig aufbereiteten Datenbestand bedarf es zusätzlicher Berechnungsverfahren, die einen Rückschluss auf den Relevanzwert eines Kandidaten ermöglichen. In dieser Arbeit soll zum einen ein Beitrag geleistet werden, der die Anwendbarkeit lernender Verfahren zur effektiven Aggregation unterschiedlicher Kriterien in der Suche nach Experten zeigt. Zum anderen soll in dieser Arbeit nach Möglichkeiten geforscht werden, wie die Relevanz eines Kandidaten über Zugriffsschnittstellen berechnet werden kann, die auf Technologien aus dem Umfeld des Semantic Web basieren.
    Content
    Dissertation zur Erlangung des akademischen Grades Doktor-Ingenieur (Dr.-Ing.) der Fakultät für Mathematik und Informatik der FernUniversität in Hagen. Vgl.: http://deposit.fernuni-hagen.de/3042/.
  9. Hannech, A.: Système de recherche d'information étendue basé sur une projection multi-espaces (2018) 0.08
    0.07744584 = product of:
      0.09293501 = sum of:
        0.033263467 = weight(_text_:umfeld in 4472) [ClassicSimilarity], result of:
          0.033263467 = score(doc=4472,freq=2.0), product of:
            0.26788878 = queryWeight, product of:
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.047673445 = queryNorm
            0.12416895 = fieldWeight in 4472, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.015625 = fieldNorm(doc=4472)
        0.00826967 = weight(_text_:in in 4472) [ClassicSimilarity], result of:
          0.00826967 = score(doc=4472,freq=36.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.12752387 = fieldWeight in 4472, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=4472)
        0.030467728 = weight(_text_:indexierung in 4472) [ClassicSimilarity], result of:
          0.030467728 = score(doc=4472,freq=2.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.11883634 = fieldWeight in 4472, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.015625 = fieldNorm(doc=4472)
        0.011295014 = weight(_text_:u in 4472) [ClassicSimilarity], result of:
          0.011295014 = score(doc=4472,freq=2.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.07235568 = fieldWeight in 4472, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.015625 = fieldNorm(doc=4472)
        0.009639132 = product of:
          0.019278264 = sum of:
            0.019278264 = weight(_text_:retrieval in 4472) [ClassicSimilarity], result of:
              0.019278264 = score(doc=4472,freq=8.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.13368362 = fieldWeight in 4472, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4472)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Since its appearance in the early 90's, the World Wide Web (WWW or Web) has provided universal access to knowledge and the world of information has been primarily witness to a great revolution (the digital revolution). It quickly became very popular, making it the largest and most comprehensive database and knowledge base thanks to the amount and diversity of data it contains. However, the considerable increase and evolution of these data raises important problems for users, in particular for accessing the documents most relevant to their search queries. In order to cope with this exponential explosion of data volume and facilitate their access by users, various models are offered by information retrieval systems (IRS) for the representation and retrieval of web documents. Traditional SRIs use simple keywords that are not semantically linked to index and retrieve these documents. This creates limitations in terms of the relevance and ease of exploration of results. To overcome these limitations, existing techniques enrich documents by integrating external keywords from different sources. However, these systems still suffer from limitations that are related to the exploitation techniques of these sources of enrichment. When the different sources are used so that they cannot be distinguished by the system, this limits the flexibility of the exploration models that can be applied to the results returned by this system. Users then feel lost to these results, and find themselves forced to filter them manually to select the relevant information. If they want to go further, they must reformulate and target their search queries even more until they reach the documents that best meet their expectations. In this way, even if the systems manage to find more relevant results, their presentation remains problematic. In order to target research to more user-specific information needs and improve the relevance and exploration of its research findings, advanced SRIs adopt different data personalization techniques that assume that current research of user is directly related to his profile and / or previous browsing / search experiences.
    However, this assumption does not hold in all cases, the needs of the user evolve over time and can move away from his previous interests stored in his profile. In other cases, the user's profile may be misused to extract or infer new information needs. This problem is much more accentuated with ambiguous queries. When multiple POIs linked to a search query are identified in the user's profile, the system is unable to select the relevant data from that profile to respond to that request. This has a direct impact on the quality of the results provided to this user. In order to overcome some of these limitations, in this research thesis, we have been interested in the development of techniques aimed mainly at improving the relevance of the results of current SRIs and facilitating the exploration of major collections of documents. To do this, we propose a solution based on a new concept and model of indexing and information retrieval called multi-spaces projection. This proposal is based on the exploitation of different categories of semantic and social information that enrich the universe of document representation and search queries in several dimensions of interpretations. The originality of this representation is to be able to distinguish between the different interpretations used for the description and the search for documents. This gives a better visibility on the results returned and helps to provide a greater flexibility of search and exploration, giving the user the ability to navigate one or more views of data that interest him the most. In addition, the proposed multidimensional representation universes for document description and search query interpretation help to improve the relevance of the user's results by providing a diversity of research / exploration that helps meet his diverse needs and those of other different users. This study exploits different aspects that are related to the personalized search and aims to solve the problems caused by the evolution of the information needs of the user. Thus, when the profile of this user is used by our system, a technique is proposed and used to identify the interests most representative of his current needs in his profile. This technique is based on the combination of three influential factors, including the contextual, frequency and temporal factor of the data. The ability of users to interact, exchange ideas and opinions, and form social networks on the Web, has led systems to focus on the types of interactions these users have at the level of interaction between them as well as their social roles in the system. This social information is discussed and integrated into this research work. The impact and how they are integrated into the IR process are studied to improve the relevance of the results.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  10. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.07
    0.071036145 = product of:
      0.14207229 = sum of:
        0.011026227 = weight(_text_:in in 4031) [ClassicSimilarity], result of:
          0.011026227 = score(doc=4031,freq=16.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.17003182 = fieldWeight in 4031, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.105543315 = weight(_text_:indexierung in 4031) [ClassicSimilarity], result of:
          0.105543315 = score(doc=4031,freq=6.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.4116612 = fieldWeight in 4031, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.025502745 = product of:
          0.05100549 = sum of:
            0.05100549 = weight(_text_:retrieval in 4031) [ClassicSimilarity], result of:
              0.05100549 = score(doc=4031,freq=14.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.3536936 = fieldWeight in 4031, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4031)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
  11. Siegmüller, R.: Verfahren der automatischen Indexierung in bibliotheksbezogenen Anwendungen : Funktion und Qualität (2007) 0.06
    0.061125915 = product of:
      0.18337774 = sum of:
        0.011026227 = weight(_text_:in in 1407) [ClassicSimilarity], result of:
          0.011026227 = score(doc=1407,freq=4.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.17003182 = fieldWeight in 1407, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
        0.17235151 = weight(_text_:indexierung in 1407) [ClassicSimilarity], result of:
          0.17235151 = score(doc=1407,freq=4.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.6722399 = fieldWeight in 1407, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Arbeit beschäftigt sich mit den Verfahren der automatischen Indexierung und ihrem Einsatz in wissenschaftlichen Bibliotheken. Der Aspekt wird nicht nur im Hinblick auf den klassischen Online-Katalog, sondern auch auf die im Rahmen des Internet und der Digitalisierung sich ergebende Ausweitung bibliothekarischer Angebote betrachtet. Durch die Entwicklung zu Portalen, zu einer intensiveren Erschließung und zur Integration von Netzpublikationen ergeben sich neue Rahmenbedingungen für das Thema. Eine Auswahl konkret eingesetzter Verfahren wird hinsichtlich ihres spezifischen Ansatzes, des aktuellen Standes und der Perspektiven im Bibliotheksbereich diskutiert.
  12. Hartwieg, U.: ¬Die nationalbibliographische Situation im 18. Jahrhundert : Vorüberlegungen zur Verzeichnung der deutschen Drucke in einem VD18 (1999) 0.06
    0.059109863 = product of:
      0.118219726 = sum of:
        0.011695079 = weight(_text_:in in 3813) [ClassicSimilarity], result of:
          0.011695079 = score(doc=3813,freq=2.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.18034597 = fieldWeight in 3813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=3813)
        0.067770086 = weight(_text_:u in 3813) [ClassicSimilarity], result of:
          0.067770086 = score(doc=3813,freq=2.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.43413407 = fieldWeight in 3813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.09375 = fieldNorm(doc=3813)
        0.03875456 = product of:
          0.07750912 = sum of:
            0.07750912 = weight(_text_:22 in 3813) [ClassicSimilarity], result of:
              0.07750912 = score(doc=3813,freq=2.0), product of:
                0.16694428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047673445 = queryNorm
                0.46428138 = fieldWeight in 3813, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3813)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Date
    18. 6.1999 9:22:36
  13. Lepsky, K.: Maschinelle Indexierung von Titelaufnahmen zur Verbesserung der sachlichen Erschließung in Online-Publikumskatalogen (1994) 0.06
    0.05537381 = product of:
      0.16612142 = sum of:
        0.0137827825 = weight(_text_:in in 7064) [ClassicSimilarity], result of:
          0.0137827825 = score(doc=7064,freq=4.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.21253976 = fieldWeight in 7064, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=7064)
        0.15233864 = weight(_text_:indexierung in 7064) [ClassicSimilarity], result of:
          0.15233864 = score(doc=7064,freq=2.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.5941817 = fieldWeight in 7064, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.078125 = fieldNorm(doc=7064)
      0.33333334 = coord(2/6)
    
    Footnote
    [Hausarbeit für den höheren Bibliotheksdienst 1993]. - Rez. in: Mitteilungsblatt VdB NW N.F. 45(1995) H.1, S.98-100 (H. Nohr); Knowledge organization 23(1996) no.1, S.50-52 (H. Schnelling)
  14. Frommeyer, J.: Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken : eine Analyse von RSWK, LCSH und RAMEAU sowie Entwicklung eines theoretischen Modells für ein Zeitretrieval (2003) 0.05
    0.05267023 = product of:
      0.10534046 = sum of:
        0.0097459 = weight(_text_:in in 2203) [ClassicSimilarity], result of:
          0.0097459 = score(doc=2203,freq=32.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.15028831 = fieldWeight in 2203, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2203)
        0.08515989 = weight(_text_:indexierung in 2203) [ClassicSimilarity], result of:
          0.08515989 = score(doc=2203,freq=10.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.33215767 = fieldWeight in 2203, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2203)
        0.010434667 = product of:
          0.020869333 = sum of:
            0.020869333 = weight(_text_:retrieval in 2203) [ClassicSimilarity], result of:
              0.020869333 = score(doc=2203,freq=6.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.14471677 = fieldWeight in 2203, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2203)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Footnote
    Rez. in: ZfBB 50(2003) H.5, S.295-297 (E. Scheven):"In ihrem Buch »Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken« entwickelt die Autorin ein theoretisches Modell für ein Zeitretrieval in allgemeinbibliografischen Datenbanken. Dafür untersucht sie die Verwendung von Zeitbegriffen (Epochenbezeichnungen, historiografischen Begriffen) und Zeitcodierungen (Jahreszahlen, Datumsangaben) bei der Indexierung von Dokumenten in allgemeinbibliografischen Datenbanken und deren Retrievalmöglichkeiten. Durch Globalisierung und Internet ist der Zugang zu den Katalogen unterschiedlichster lnstitutionen weit überdie Landesgrenzen hinaus möglich geworden. Dadurch ist der Zwang zur Standardisierung der bibliothekarischen Regeln weltweit verschärft, um Daten-Interoperabilität zu gewährleisten. Hauptziel der Sacherschließung muss immer die optimale Befriedigung der Benutzerbedürfnisse sein. - Kompetente Einführung - Nach einer kurzen geschichtlichen Darstellung der Zeitrechnung an sich und der bibliothekarischen Regelentwicklung wendet sich die Autorin den wichtigsten Sacherschließungswerkzeugen der westlichen WeIt zu, zum einen den beiden internationalen Universalklassifikationen, DDC und UDK, und zum anderen den drei Schlagwortsystemen LCSH, Rameau und SWD,wobei sieden Schwerpunkt auf die verbalen Sacherschließungssysteme legt. LCSH, Rameau und SWD mit RSWK werden kompetent und ausführlich in 164 von 316 Seiten mit ihrer Entwicklungsgeschichte und ihren Unterschieden dargestellt. Jutta Frommeyer ist hier eine gute vergleichende Einführung in die großen verbalen Sacherschließungssysteme gelungen und zwar nicht nur für Anfänger, sondern auch für praxis-erfahrene Sacherschließer. Die Darstellung von Zeitaspekten nach LCSH kann nach sechs verschiedenen Varianten erfolgen. Es gibt keine allgemeinen subdivisions für Zeitangaben. Rameau stimmt in seiner Struktur mit den LCSH überein, weicht aber bei der Indexierung bezüglich der subdivisions von den LCSH ab. Rameau hat eine allgemein zu verwendende Liste (subdivision) mit ca. 40 Unterteilungen für den Zeitaspekt. Nach RSWK wird der Zeitaspekt durch so genannte Zeitschlagwörter wiedergegeben, die wie auch bestimmte Formalschlagwörter durch Jahreszahlen erweitert werden können. Der im Dokument behandelte Zeitabschnitt wird für die Beschlagwortung herangezogen. Vorgegebene Zeituntergliederungen für bestimmte Themenbereiche wie bei LCSH und Rameau gibt es bei RSWK nicht. Zwischen den Schlagwortsystemen gibt es unterschiedliche Indexierungsregeln, wann ein Zeitschlagwort benutzt werden soll oder nicht.
    - Retrievalmöglichkeiten - Ein Test der Retrievalmöglichkeiten von Zeitangaben in den Online-Katalogen der LoC, BnF und DDB zeigte, dass für ein optimales Suchergebnis viele Recherche-Schritte und Regelwerkskenntnisse notwendig sind, eine aus Nutzersicht unbefriedigende Bilanz. Zum Beispiel muss für Suchanfragen nach Jahreszahlen der Zeitraum genauso angegeben werden, wie es bei der Indexierung geschah, oder eine Suche mit Epochenbegriffen und zeitimmanenten Schlagwörtern erfordert die genaue Kenntnis der Ansetzungsregeln für solche Deskriptoren. Die angebotenen Schlagwortketten sind eine Suchhilfe, erlauben aber keine Sortierung nach der Zeitenabfolge. Der größte Mangel ist, dass alle Zeitcodierungen nur als Zeichen, nicht als Zahlen, erkennbar sind, sodass bei der Suche nur ein Zeichenabgleich erfolgt und keine Sortierung nach Zahlen möglich ist. Jutta Frommeyer stellt die Retrievalmöglichkeiten der drei genannten Bibliothekskataloge verschiedenen anderen Datenbanken gegenüber, die eine Suche nach Zeitangaben anbieten. Die Suchmöglichkeiten bei den Allgemeinenzyklopädien (»Encyclopedia Britannica«, »Brockhaus-Enzyklopädie«, »Encarta«) sind vielfältig und elaboriert. Zeitimmanente Begriffe sind chronologisch angeordnet und auch grafisch durch Zeitschienen dargestellt, von denen aus auf ein Jahr oder einen Zeitbegriff gesprungen werden kann. Die Datenbank »Historical abstracts« bietet den Zeitraum, der in einem Dokument behandelt wird, über eine spezielle Codierung an. Die »Jahresberichte für deutsche Geschichte« bieten für das Zeitretrieval eine Tabelle mit 14 verschiedenen Möglichkeiten; die weitere Differenzierung der Suchanfrage erfolgt hier durch andere Sacherschließungselemente wie eine ausgefeilte Klassifikation und eine Schlagwortliste. - Modell zum optimalen Zeitretrieval - Aufgrund ihrer Untersuchungen entwickelt die Autorin ein theoretisches Modell für ein optimales Zeitretrieval in allgemeinbibliografischen Datenbanken mit den drei Elementen Zeitcode, Chronikcode und Chroniknormdatei. Damit die Zeitcodierungen als Zahlen und nicht als Zeichen erkennbar sind, müssen sie in einem besonderen numerischen Feld (Zeitcode) abgelegt werden; mit der Möglichkeit, nach Zeiträumen zu suchen (Größer-, Kleiner- und Gleichoperatoren). Die Zeitspannen von Zeitbegriffen werden als Chronikcode in der gleichen Datenstruktur wie der Zeitcode bei den Normdatensätzen ergänzt. Für bestimmte Zeitbegriffe ist eine Normierung notwendig (z. B. Mittelalter). Bei kulturkreisabhängigen Zeitbegriffen kann die zeitliche Codierung verschieden aussehen. Die Chroniknormdatei soll die chronologische Relation der zeitimmanenten Begriffe darstellen und bei umfassenden Zeitspannen große Trefferzahlen vermeiden. Da zeitimmanente Begriffe über alle Sachgebiete streuen, muss für das Retrieval eine sachliche Einschränkung gegeben sein. Jutta Frommeyer schlägt dafür eine international angewandte Klassifikation vor. Die Autorin stellt ein Retrievalmodell dar, um das Zusammenwirken von Zeitcode,Chronikcode und Chroniknormdatei zu demonstrieren. Dabei hat sie sich an der heutigen Menü-Oberfläche für OPACs orientiert und ein neues Suchfeld »Zeitabschnitt« mit verschiedenen Unterteilungen eingeführt. Ihre Beispiele sind nachvollziehbar und verdeutlichen ihren Vorschlag. Die Umsetzung eines solchen Modells hat Auswirkungen auf die vorhandenen Datenstrukturen; auch wird eine Annäherung der Regeln für die Schlagwortvergabe nach RSWK, Rameau und LCSH notwendig sein, wenn so eine Suche international angeboten werden soll.
    - Zum Schluss - Das Buch liest sich gut und ist übersichtlich gegliedert mit zehn Kapiteln und einem Anhang für verschiedene, den Zeitaspekt betreffende Hilfstabellen der vorgestellten Sacherschließungssysteme. Wo möglich und angebracht, insbesondere bei der Darstellung der Retrievalmöglichkeiten der untersuchten elektronischen Informationsmittel, werden zur Veranschaulichung Abbildungen eingesetzt. Allerdings sind der Qualität Grenzen gesetzt, weil im Schwarz-Druck ein ursprünglich farbiges Benutzer-Interface manchmal fast seine ganze Aussagekraft verliert. Hier wäre es wahrscheinlich besser gewesen, die benötigten Abbildungen vorher über ein Grafik-Programm in eine richtige Schwarz-Weiß-Abbildung umgesetzt zu haben. Das Literaturverzeichnis ist umfangreich und sehr übersichtlich gestaltet. Das Buch bietet denjenigen, die sich mit Sacherschließung oder OPAC-Entwicklung beschäftigen, wichtige Anregungen. Die Notwendigkeit von Sacherschließung gerade im Zeitalter der Globalisierung und des Internets bedeutet, dass bei der Weiterentwicklung von nationalen Regelwerken die internationalen Bedürfnisse berücksichtigt werden müssen. Es bleibt zu hoffen, dass die Ideen von Frau Frommeyer aufgegriffen, die deutsche Sprachgrenze überwunden und bei den Regelwerksdiskussionen und Formatentwicklungen international berücksichtigt werden."
    Weitere Rez. in: Mitt. VÖB 57(2004) H.1, S.105 (M. Sandner)
    RSWK
    Schlagwortnormdatei / Indexierung <Inhaltserschließung> (21)
    Information Retrieval / Zeitraum (21)
    Subject
    Schlagwortnormdatei / Indexierung <Inhaltserschließung> (21)
    Information Retrieval / Zeitraum (21)
  15. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.05
    0.050565682 = product of:
      0.101131365 = sum of:
        0.05047871 = product of:
          0.15143614 = sum of:
            0.15143614 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.15143614 = score(doc=701,freq=2.0), product of:
                0.404176 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.047673445 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.014586327 = weight(_text_:in in 701) [ClassicSimilarity], result of:
          0.014586327 = score(doc=701,freq=28.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.22493094 = fieldWeight in 701, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.036066327 = product of:
          0.072132654 = sum of:
            0.072132654 = weight(_text_:retrieval in 701) [ClassicSimilarity], result of:
              0.072132654 = score(doc=701,freq=28.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.5001983 = fieldWeight in 701, product of:
                  5.2915025 = tf(freq=28.0), with freq of:
                    28.0 = termFreq=28.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  16. Frank, S.: Gestaltung von Benutzeroberflächen und Recherchemöglichkeiten bei OPACs : state of the art und trends (2006) 0.05
    0.048026703 = product of:
      0.1440801 = sum of:
        0.13305387 = weight(_text_:umfeld in 2775) [ClassicSimilarity], result of:
          0.13305387 = score(doc=2775,freq=2.0), product of:
            0.26788878 = queryWeight, product of:
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.047673445 = queryNorm
            0.4966758 = fieldWeight in 2775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.0625 = fieldNorm(doc=2775)
        0.011026227 = weight(_text_:in in 2775) [ClassicSimilarity], result of:
          0.011026227 = score(doc=2775,freq=4.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.17003182 = fieldWeight in 2775, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=2775)
      0.33333334 = coord(2/6)
    
    Abstract
    In der vorliegenden Arbeit werden die wichtigsten Informationen über Entwicklungen in Bezug auf die Benutzeroberfläche und die Recherchemöglichkeiten von OPACs und ihrem Umfeld zusammengetragen, gewichtet und bewertet. Heute schon realisierte Konzepte und viel verspre-chende Modelle für die Zukunft werden vorgestellt. Besondere Berücksichtigung finden die Interessen der Nutzer, und wie deren unterschiedlichen Ansprüchen und Voraussetzungen möglichst optimal Rechnung getragen werden kann.
  17. Dalipi, B.: Dokumenten-Management und Verwendung von Metadaten bei einem Energieversorgungsunternehmen (2008) 0.05
    0.04512508 = product of:
      0.13537523 = sum of:
        0.013504315 = weight(_text_:in in 3405) [ClassicSimilarity], result of:
          0.013504315 = score(doc=3405,freq=6.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.2082456 = fieldWeight in 3405, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3405)
        0.12187091 = weight(_text_:indexierung in 3405) [ClassicSimilarity], result of:
          0.12187091 = score(doc=3405,freq=2.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.47534537 = fieldWeight in 3405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0625 = fieldNorm(doc=3405)
      0.33333334 = coord(2/6)
    
    Abstract
    Die vorliegende Arbeit befasst sich im ersten Teil mit den theoretischen Grundlagen, Aufgaben und Funktionen eines Dokumentenmanagement-Systems. In diesem Zusammenhang erklärt werden auch Metadaten, Indexierung, Thesaurus und die bekanntesten Klassifikationssysteme. Erwähnt werden auch das Semantic Web und dessen Technologien. Die Schritte der Realisierung einer SQL-Datenbank, in welcher die Metadaten abgebildet werden, werden in den praktischen Teil der Arbeit näher beschrieben.
  18. Petit, A.L.B.: Ordnungssysteme im Records Management (2014) 0.04
    0.04424688 = product of:
      0.08849376 = sum of:
        0.066526935 = weight(_text_:umfeld in 2305) [ClassicSimilarity], result of:
          0.066526935 = score(doc=2305,freq=2.0), product of:
            0.26788878 = queryWeight, product of:
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.047673445 = queryNorm
            0.2483379 = fieldWeight in 2305, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.03125 = fieldNorm(doc=2305)
        0.012327696 = weight(_text_:in in 2305) [ClassicSimilarity], result of:
          0.012327696 = score(doc=2305,freq=20.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.19010136 = fieldWeight in 2305, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2305)
        0.009639132 = product of:
          0.019278264 = sum of:
            0.019278264 = weight(_text_:retrieval in 2305) [ClassicSimilarity], result of:
              0.019278264 = score(doc=2305,freq=2.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.13368362 = fieldWeight in 2305, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2305)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Durch die Emergenz des Digitalen und die damit verbundenen technologischen Entwicklungen hat sich nicht nur die Lebenswelt vieler Menschen verändert, sondern auch der Informationssektor hat hierdurch neue Möglichkeiten erhalten, seine Kernaufgaben der Erschließung, Verfüg- und Nutzbarmachung von Ressourcen innovativ umzusetzen. Hierbei scheint der Bereich der Schriftgutverwaltung oder des Records Management eine Sparte zu sein, welche in starkem Traditionsbewusstsein die Prinzipien der Papierwelt in elektronische Umgebungen transferiert hat, wobei der potentielle Mehrwert einer elektronischen Systemumgebung nur bedingt zum Tragen kommen kann. Insbesondere im Kontext der Informationsorganisation und der Ordnungssysteme eröffnet sich durch ein digitales Umfeld eine Mehrdimensionalität, welche eine Papierumgebung nicht bieten kann. Dennoch scheint der Rückgriff auf hierarchische Ordnungssysteme wie Aktenpläne außer Frage zu stehen und somit stellt sich die Frage nach der Bedeutung, der Tragweite und der Unverzichtbarkeit von Aktenplänen im Records Management. Vor diesem Hintergrund soll die Frage erläutert werden, ob das Primat der Aktenpläne trotz erweiterter Möglichkeiten als vorherrschendes Ordnungsprinzip im Records Management gerechtfertigt ist.
    Immer dann, wenn ein Paradigma in Frage gestellt werden soll, ist es unabdingbar, sich mit dem Grund seiner Existenz auseinander zu setzen. So sollen nach eingehenden Begriffsklärungen des Records Management und der Ordnungstheorie, die grundlegend für diese Analyse sind, in einem nächsten Schritt die unterschiedlichen Ordnungselemente im Records Management untersucht und ihre Rolle im Gesamtkontext der Disziplin eruiert werden. Dies wird im weiteren Verlauf der Arbeit insbesondere durch eine Analyse diverser Standards sowie der Norm ISO-15489 und deren Implikationen an Ordnungssysteme gewährleistet. Nachdem auf diese Weise die Ordnungssysteme in ihrer Rolle als Informationsverwaltungswerkzeug positioniert wurden, soll im nächsten Teil der Arbeit der Fokus auf das Retrieval und die Interaktion mit dem Nutzer gelegt werden. In diesem Zusammenhang wird das Prinzip Hierarchie, welches den Aktenplan strukturell definiert, in einem ersten Schritt mit den kognitiven Strukturen des Menschen abgeglichen, um hier etwaige Diskrepanzen festzustellen oder ihn zu legitimieren. Daraufhin soll in einem Exkurs in die Informationsverhaltensforschung und empirische Nutzerstudien von Records Management-Systemen versucht werden, die bevorzugten Suchstrategien in Bezug auf Browsing oder Searching herauszustellen. Auf der Grundlage dieser Erkenntnisse sollen im letzten Teil der Arbeit die Konsequenzen für die Ordnungssysteme im Records Management dargestellt sowie die Verbindung zu weiteren technologischen Entwicklungen angerissen werden. Im Fazit werden die Ergebnisse zusammenfassend rekapituliert und abschließend bewertet.
  19. Pohl, O.: Konzept und prototypische Erstellung eines Informationssystems auf VuFind-Basis für die Bibliotheks- und Informationswissenschaft (2012) 0.04
    0.043222543 = product of:
      0.12966762 = sum of:
        0.007796719 = weight(_text_:in in 1564) [ClassicSimilarity], result of:
          0.007796719 = score(doc=1564,freq=2.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.120230645 = fieldWeight in 1564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=1564)
        0.12187091 = weight(_text_:indexierung in 1564) [ClassicSimilarity], result of:
          0.12187091 = score(doc=1564,freq=2.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.47534537 = fieldWeight in 1564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0625 = fieldNorm(doc=1564)
      0.33333334 = coord(2/6)
    
    Abstract
    In dieser Arbeit wurde ein Fachinformationssystem auf der Basis von VuFind für die Bibliotheks- und Informationswissenschaft konzeptionalisiert und implementiert. Dabei wurden Metadaten von verschiedenen Ressourcen gesammelt und normalisiert. Für die Indexierung wurden die entsprechenden Parameter eingestellt sowie das Layout des entstehenden Systems angepasst. Schlussendlich wurden über 38.000 Datensätze indexiert und Zusatzfunktionen für Nutzer des Systems freigeschaltet.
  20. Nicoletti, M.: Automatische Indexierung (2001) 0.04
    0.04308788 = product of:
      0.25852728 = sum of:
        0.25852728 = weight(_text_:indexierung in 4326) [ClassicSimilarity], result of:
          0.25852728 = score(doc=4326,freq=4.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            1.0083599 = fieldWeight in 4326, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.09375 = fieldNorm(doc=4326)
      0.16666667 = coord(1/6)
    
    Content
    Inhalt: 1. Aufgabe - 2. Ermittlung von Mehrwortgruppen - 2.1 Definition - 3. Kennzeichnung der Mehrwortgruppen - 4. Grundformen - 5. Term- und Dokumenthäufigkeit --- Termgewichtung - 6. Steuerungsinstrument Schwellenwert - 7. Invertierter Index. Vgl. unter: http://www.grin.com/de/e-book/104966/automatische-indexierung.

Languages

  • d 419
  • e 44
  • a 1
  • f 1
  • hu 1
  • pt 1
  • More… Less…

Types

  • el 29
  • m 17
  • r 2
  • a 1
  • More… Less…

Themes

Subjects

Classifications