Search (79 results, page 1 of 4)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.26
    0.25548604 = product of:
      0.5109721 = sum of:
        0.12774302 = product of:
          0.38322905 = sum of:
            0.38322905 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.38322905 = score(doc=973,freq=2.0), product of:
                0.34094018 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.040214643 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.38322905 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.38322905 = score(doc=973,freq=2.0), product of:
            0.34094018 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040214643 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Hübscher, C.: ¬Die Methode Eppelsheimer im Online-Katalog (1989) 0.12
    0.12411325 = product of:
      0.496453 = sum of:
        0.496453 = weight(_text_:methode in 1300) [ClassicSimilarity], result of:
          0.496453 = score(doc=1300,freq=4.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            1.9641378 = fieldWeight in 1300, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.15625 = fieldNorm(doc=1300)
      0.25 = coord(1/4)
    
    Object
    Methode Eppelsheimer
  3. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.11
    0.11161846 = product of:
      0.22323692 = sum of:
        0.042581007 = product of:
          0.12774302 = sum of:
            0.12774302 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.12774302 = score(doc=5820,freq=2.0), product of:
                0.34094018 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.040214643 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.18065591 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.18065591 = score(doc=5820,freq=4.0), product of:
            0.34094018 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040214643 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.5 = coord(2/4)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  4. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.11
    0.106452525 = product of:
      0.21290505 = sum of:
        0.053226262 = product of:
          0.15967879 = sum of:
            0.15967879 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.15967879 = score(doc=4997,freq=2.0), product of:
                0.34094018 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.040214643 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.15967879 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.15967879 = score(doc=4997,freq=2.0), product of:
            0.34094018 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040214643 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.5 = coord(2/4)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.11
    0.106452525 = product of:
      0.21290505 = sum of:
        0.053226262 = product of:
          0.15967879 = sum of:
            0.15967879 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.15967879 = score(doc=4388,freq=2.0), product of:
                0.34094018 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.040214643 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.15967879 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.15967879 = score(doc=4388,freq=2.0), product of:
            0.34094018 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040214643 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(2/4)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.11
    0.106452525 = product of:
      0.21290505 = sum of:
        0.053226262 = product of:
          0.15967879 = sum of:
            0.15967879 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.15967879 = score(doc=855,freq=2.0), product of:
                0.34094018 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.040214643 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.15967879 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.15967879 = score(doc=855,freq=2.0), product of:
            0.34094018 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040214643 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.5 = coord(2/4)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  7. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.11
    0.106452525 = product of:
      0.21290505 = sum of:
        0.053226262 = product of:
          0.15967879 = sum of:
            0.15967879 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.15967879 = score(doc=1000,freq=2.0), product of:
                0.34094018 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.040214643 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.15967879 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.15967879 = score(doc=1000,freq=2.0), product of:
            0.34094018 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040214643 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(2/4)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  8. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.10
    0.10125579 = product of:
      0.20251158 = sum of:
        0.19161452 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.19161452 = score(doc=563,freq=2.0), product of:
            0.34094018 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040214643 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.010897058 = product of:
          0.032691173 = sum of:
            0.032691173 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.032691173 = score(doc=563,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  9. Berninger, E.H.: ¬Die Praxis der Sachkatalogisierung nach der Methode von H.W. Eppelsheimer (1966) 0.09
    0.086879276 = product of:
      0.3475171 = sum of:
        0.3475171 = weight(_text_:methode in 1884) [ClassicSimilarity], result of:
          0.3475171 = score(doc=1884,freq=4.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            1.3748965 = fieldWeight in 1884, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.109375 = fieldNorm(doc=1884)
      0.25 = coord(1/4)
    
    Object
    Methode Eppelsheimer
  10. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.09
    0.085162014 = product of:
      0.17032403 = sum of:
        0.042581007 = product of:
          0.12774302 = sum of:
            0.12774302 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.12774302 = score(doc=701,freq=2.0), product of:
                0.34094018 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.040214643 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.12774302 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.12774302 = score(doc=701,freq=2.0), product of:
            0.34094018 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040214643 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  11. Hochmuth, E.: ¬Die Theologie im Eppelsheimerschen Sachkatalog (1964) 0.07
    0.070209056 = product of:
      0.28083622 = sum of:
        0.28083622 = weight(_text_:methode in 7550) [ClassicSimilarity], result of:
          0.28083622 = score(doc=7550,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            1.1110841 = fieldWeight in 7550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.125 = fieldNorm(doc=7550)
      0.25 = coord(1/4)
    
    Object
    Methode Eppelsheimer
  12. Dietiker, S.: Cognitive Map einer Bibliothek : eine Überprüfung der Methodentauglichkeit im Bereich Bibliothekswissenschaft - am Beispiel der Kantonsbibliothek Graubünden (2016) 0.05
    0.04906007 = product of:
      0.19624028 = sum of:
        0.19624028 = weight(_text_:methode in 4570) [ClassicSimilarity], result of:
          0.19624028 = score(doc=4570,freq=10.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.77639365 = fieldWeight in 4570, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4570)
      0.25 = coord(1/4)
    
    Abstract
    Cognitive Maps sind mentale Karten, welche jeder Mensch besitzt. Es handelt sich dabei um eine Reflexion der jeweiligen Umwelt. Cognitive Mapping ist eine Methode, welche diese mentale Karte sichtbar macht. Aufgrund dieser Visualisierung können Erkenntnisse darüber gewonnen werden, was Menschen an einem Ort oder in einem Raum tun und wahrnehmen. Die Methode hat verschiede Anwendungstechniken, welche sich in sechs Kategorien teilen: Aufgabenlösung, Elemente orten, Sketch Map erstellen, Zonen und Gebiete einzeichnen, Weg- und Ortsbeschreibung sowie Kognitive Befragung. Anhand dieser lassen sich Untersuchungen beliebig kombinieren. Die Anwendung von Cognitive Mapping sowie eine einfache Befragung in der Kantonsbibliothek Graubünden hat ergeben, dass die Methode für Bibliotheken sinnvoll ist. Allerdings sollte bei zukünftigen Anwendungen die Punkte Gesamtaufwand, Untersuchungsaufbau, Teilnehmer-Zusammensetzung und Auswertungs-Aufwand angepasst werden.
    Content
    "Das Thema 'Cognitive Map einer Bibliothek' hat mich von Beginn an interessiert. Methoden anwenden, um den Bedürfnissen der Nutzer zu entsprechen, ist für Bibliotheken eine Möglichkeit sich auch in Zukunft als Wissensplatz zu positionieren. Das Spannende an dieser Arbeit war, sich zunächst in den vielen Anwendungsmöglichkeiten der Methode zurechtzufinden, einige davon auszuprobieren und schlussendlich herauszufinden, ob die Methode als sinnvoll für Bibliotheken bezeichnet werden kann."
  13. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.04
    0.038769852 = product of:
      0.077539705 = sum of:
        0.070209056 = weight(_text_:methode in 862) [ClassicSimilarity], result of:
          0.070209056 = score(doc=862,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.27777103 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.0073306495 = product of:
          0.021991948 = sum of:
            0.021991948 = weight(_text_:29 in 862) [ClassicSimilarity], result of:
              0.021991948 = score(doc=862,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.15546128 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Das Gebiet des Pattern-Matching besitzt in vielen wissenschaftlichen Bereichen eine hohe Relevanz. Aufgrund unterschiedlicher Einsatzgebiete sind auch Umsetzung und Anwendung des Pattern-Matching sehr verschieden. Die allen Anwendungen des Pattern-Matching inhärente Aufgabe besteht darin, in einer Vielzahl von Eingabedaten bestimmte Muster wieder zu erkennen. Dies ist auch der deutschen Bezeichnung Mustererkennung zu entnehmen. In der Medizin findet Pattern-Matching zum Beispiel bei der Untersuchung von Chromosomensträngen auf bestimmte Folgen von Chromosomen Verwendung. Auf dem Gebiet der Bildverarbeitung können mit Hilfe des Pattern-Matching ganze Bilder verglichen oder einzelne Bildpunkte betrachtet werden, die durch ein Muster identifizierbar sind. Ein weiteres Einsatzgebiet des Pattern-Matching ist das Information-Retrieval, bei dem in gespeicherten Daten nach relevanten Informationen gesucht wird. Die Relevanz der zu suchenden Daten wird auch hier anhand eines Musters, zum Beispiel einem bestimmten Schlagwort, beurteilt. Ein vergleichbares Verfahren findet auch im Internet Anwendung. Internet-Benutzer, die mittels einer Suchmaschine nach bedeutsamen Informationen suchen, erhalten diese durch den Einsatz eines Pattern-Matching-Automaten. Die in diesem Zusammenhang an den Pattern-Matching-Automaten gestellten Anforderungen variieren mit der Suchanfrage, die an eine Suchmaschine gestellt wird. Eine solche Suchanfrage kann im einfachsten Fall aus genau einem Schlüsselwort bestehen. Im komplexeren Fall enthält die Anfrage mehrere Schlüsselwörter. Dabei muss für eine erfolgreiche Suche eine Konkatenation der in der Anfrage enthaltenen Wörter erfolgen. Zu Beginn dieser Arbeit wird in Kapitel 2 eine umfassende Einführung in die Thematik des Textvergleichs gegeben, wobei die Definition einiger grundlegender Begriffe vorgenommen wird. Anschließend werden in Kapitel 3 Verfahren zum Textvergleich mit mehreren Mustern vorgestellt. Dabei wird zunächst ein einfaches Vorgehen erläutert, um einen Einsteig in das Thema des Textvergleichs mit mehreren Mustern zu erleichtern. Danach wird eine komplexe Methode des Textvergleichs vorgestellt und anhand von Beispielen verdeutlicht.
    Date
    13. 2.2007 20:56:29
  14. Kreutzkam, E.: Neue Wege in alten Online-Katalogen : Catalog Enrichment als Methode der Sacherschließung? ; Stand, Entwicklung und Umsetzung in Bibliotheken Deutschlands (2007) 0.04
    0.03723398 = product of:
      0.14893591 = sum of:
        0.14893591 = weight(_text_:methode in 4650) [ClassicSimilarity], result of:
          0.14893591 = score(doc=4650,freq=4.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.5892414 = fieldWeight in 4650, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.046875 = fieldNorm(doc=4650)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit der aktuellen Situation der Bibliothekskataloge und stellt neue Ansätze von Bibliotheken zur Optimierung der OPACs vor, um sich neuen Nutzerbedürfnissen anzupassen. Der Fokus der Arbeit liegt auf Catalog Enrichment, welches den Nutzern mit Hilfe von Zusatzinformationen, wie z.B. Inhaltsverzeichnisse und Klappentexte, einen zusätzlichen Service bietet. Das Thema Sacherschließung und deren Methoden werden ausführlich behandelt. Die Diplomarbeit untersucht die Frage, ob Catalog Enrichment als Methode der Sacherschließung angesehen werden kann. Kataloganreicherung wird definiert, Anliegen und Ziele werden vorgestellt, rechtliche Rahmenbedingungen dargestellt und auf Voraussetzung und Realisierung von Kataloganreicherung eingegangen. Zur Beantwortung der Untersuchungsfrage wird neben der Literaturrecherche eine Befragung von Einrichtungen durchgeführt, die an Projekten bzgl. Kataloganreicherung beteiligt sind. Die Ergebnisse der Erhebung werden nach thematischen Kategorien ausgewertet und unter verschiedenen Gesichtspunkten diskutiert. Am Ende erfolgt ein Fazit, welches die Ergebnisse zusammenfasst und Ausblick auf weitere Bearbeitungsmöglichkeiten des Themas gibt.
  15. Kloiber, M.: Umstellung der Belletristikabteilung einer kleineren öffentlichen Bibliothek : Von alphabetischer Aufstellung zu einer Aufstellung nach mit den Lesern in Workshops erarbeiteten Interessenkreisen (2012) 0.04
    0.03723398 = product of:
      0.14893591 = sum of:
        0.14893591 = weight(_text_:methode in 215) [ClassicSimilarity], result of:
          0.14893591 = score(doc=215,freq=4.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.5892414 = fieldWeight in 215, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.046875 = fieldNorm(doc=215)
      0.25 = coord(1/4)
    
    Abstract
    Die Aufstellung nach Interessenkreisen wurde in den 1980er und 1990er Jahren im Umfeld der Öffentlichen Bibliotheken viel diskutiert. Danach geriet das Thema aus dem Rampenlicht. Erst mit den sogenannten Themenbibliotheken und Themenwelten gewann es wieder an Bedeutung. Im Rahmen der vorliegenden Arbeit wird dargestellt, wie eine kleine Öffentliche Bibliothek die Umstellung ihres Belletristikbereichs nach Interessenkreisen realisiert und dabei ihre Nutzer "ins Boot holt". Der aus dem Marketing stammende Ansatz der User Driven Innovation wird dabei in die Tat umgesetzt. Die Arbeit zeigt, wie sich eine Befragung der Nutzer über die Methode der Gruppendiskussion auf die Erarbeitung eines Sets an Interessenkreisen für die Belletristik niederschlägt und erläutert die konkrete Umsetzung des Vorhabens. Vorher wird die Aufstellung nach Interessenkreisen konzeptionell erarbeitet und die Methode der Gruppendiskussion im Kontext der Befragung von Nutzern in Bibliotheken erläutert.
  16. Kaufmann, E.: ¬Das Indexieren von natürlichsprachlichen Dokumenten und die inverse Seitenhäufigkeit (2001) 0.03
    0.031028312 = product of:
      0.12411325 = sum of:
        0.12411325 = weight(_text_:methode in 318) [ClassicSimilarity], result of:
          0.12411325 = score(doc=318,freq=4.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.49103445 = fieldWeight in 318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
      0.25 = coord(1/4)
    
    Abstract
    Die Lizentiatsarbeit gibt im ersten theoretischen Teil einen Überblick über das Indexieren von Dokumenten. Sie zeigt die verschiedenen Typen von Indexen sowie die wichtigsten Aspekte bezüglich einer Indexsprache auf. Diverse manuelle und automatische Indexierungsverfahren werden präsentiert. Spezielle Aufmerksamkeit innerhalb des ersten Teils gilt den Schlagwortregistern, deren charakteristische Merkmale und Eigenheiten erörtert werden. Zusätzlich werden die gängigen Kriterien zur Bewertung von Indexen sowie die Masse zur Evaluation von Indexierungsverfahren und Indexierungsergebnissen vorgestellt. Im zweiten Teil der Arbeit werden fünf reale Bücher einer statistischen Untersuchung unterzogen. Zum einen werden die lexikalischen und syntaktischen Bestandteile der fünf Buchregister ermittelt, um den Inhalt von Schlagwortregistern zu erschliessen. Andererseits werden aus den Textausschnitten der Bücher Indexterme maschinell extrahiert und mit den Schlagworteinträgen in den Buchregistern verglichen. Das Hauptziel der Untersuchungen besteht darin, eine Indexierungsmethode, die auf linguistikorientierter Extraktion der Indexterme und Termhäufigkeitsgewichtung basiert, im Hinblick auf ihren Gebrauchswert für eine automatische Indexierung zu testen. Die Gewichtungsmethode ist die inverse Seitenhäufigkeit, eine Methode, welche von der inversen Dokumentfrequenz abgeleitet wurde, zur automatischen Erstellung von Schlagwortregistern für deutschsprachige Texte. Die Prüfung der Methode im statistischen Teil führte nicht zu zufriedenstellenden Resultaten.
  17. Zuckerstätter, B.: Klassifikation und Beschlagwortung : zur Verwendung von Schlagwörtern in Aufstellungsklassifikationen (2012) 0.03
    0.031028312 = product of:
      0.12411325 = sum of:
        0.12411325 = weight(_text_:methode in 594) [ClassicSimilarity], result of:
          0.12411325 = score(doc=594,freq=4.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.49103445 = fieldWeight in 594, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=594)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit gilt der Frage, ob sich die in zahlreichen Katalogisaten des Österreichischen Verbundkataloges enthaltenen Beschlagwortungsdaten eventuell für eine zur Buchaufstellung geeignete Klassifikation verwerten ließen. Um diese Frage beantworten zu können, war zunächst eine Einarbeitung in die Grundlagen der Klassifikationstheorie nötig, die im ersten Teil der Arbeit dokumentiert wird. Die Schwerpunkte bilden dabei Überlegungen zum Status von Klassen, zu Problemen systematischer Anordnung und zu Varianten der symbolischen Repräsentation dieser Ordnung durch Notationen. Im zweiten Teil wird versucht, die Unterschiede und Ähnlichkeiten zwischen Beschlagwortung und Klassifikation zu verdeutlichen. Dazu werden Teilbereiche von Facettenklassifikationen und Klassifikationsschlüsseln behandelt sowie einige Eigenschaften der Schlagwortnormdatei und der Methode Eppelsheimer erläutert. Im letzten Teil der Arbeit wird auf Basis der zuvor gewonnenen Erkenntnisse ein rudimentärer praktischer Versuch der Verwendung von Schlagwörtern für die Buchaufstellung durchgeführt. Dazu wird die Notation von 100 Titeln aus dem Bestand der Bibliothek der Fachhochschule Salzburg, die derzeit der Gruppe "Soziologie" zugeordnet sind, in verschiedenen Varianten mit Schlagwortdaten ergänzt, um eine Neugruppierung zu erreichen. Die einzelnen Varianten werden kurz vorgestellt und hinsichtlich der auffälligsten Vor- und Nachteile bewertet. Als Ergebnis der theoretischen Ausführungen und der praktischen Versuche lässt sich festhalten, dass die Verwendung von Schlagwortdaten möglich und auch nützlich wäre. Sie kann vermutlich aber nicht durch rein mechanische Eingliederung der Schlagwörter in die Notationen erfolgen, macht also einen intellektuellen Zusatzaufwand nötig.
    Object
    Methode Epplesheimer
  18. Walz, J.: Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme (2018) 0.03
    0.026328396 = product of:
      0.105313584 = sum of:
        0.105313584 = weight(_text_:methode in 5744) [ClassicSimilarity], result of:
          0.105313584 = score(doc=5744,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.41665655 = fieldWeight in 5744, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
      0.25 = coord(1/4)
    
    Abstract
    Ziel: Ziel dieser Bachelorarbeit war es, die Übertragbarkeit der allgemeinen Rankingfaktoren, wie sie von Web-Suchmaschinen verwendet werden, auf Discovery-Systeme zu analysieren. Dadurch könnte das bisher hauptsächlich auf dem textuellen Abgleich zwischen Suchanfrage und Dokumenten basierende bibliothekarische Ranking verbessert werden. Methode: Hierfür wurden Faktoren aus den Gruppen Popularität, Aktualität, Lokalität, Technische Faktoren, sowie dem personalisierten Ranking diskutiert. Die entsprechenden Rankingfaktoren wurden nach ihrer Vorkommenshäufigkeit in der analysierten Literatur und der daraus abgeleiteten Wichtigkeit, ausgewählt. Ergebnis: Von den 23 untersuchten Rankingfaktoren sind 14 (61 %) direkt vom Ranking der Web-Suchmaschinen auf das Ranking der Discovery-Systeme übertragbar. Zu diesen zählen unter anderem das Klickverhalten, das Erstellungsdatum, der Nutzerstandort, sowie die Sprache. Sechs (26%) der untersuchten Faktoren sind dagegen nicht übertragbar (z.B. Aktualisierungsfrequenz und Ladegeschwindigkeit). Die Linktopologie, die Nutzungshäufigkeit, sowie die Aktualisierungsfrequenz sind mit entsprechenden Modifikationen übertragbar.
  19. Polzer, J.: Deutsche Lexika im Wandel : Von der systematischen Enzyklopädie zum multimedialen Lexikon (2002) 0.02
    0.02194033 = product of:
      0.08776132 = sum of:
        0.08776132 = weight(_text_:methode in 2172) [ClassicSimilarity], result of:
          0.08776132 = score(doc=2172,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.34721377 = fieldWeight in 2172, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2172)
      0.25 = coord(1/4)
    
    Abstract
    Thema der hier vorgestellten Arbeit ist der Wandel deutscher Allgemein - Enzyklopädien in Printform in den letzten 250 Jahren und seit Ende des 20. Jahrhunderts bzw. Anfang des 21. Jahrhunderts der Übergang in die virtuelle ( elektronische ) Form. Ferner werden Fachbegriffe aus dem Lexikonbereich definiert sowie die Typologie und die Angebotsformen aufgeführt. Des Weiteren werden zwei lexikalische Großprojekte des 18. / 19. Jahrhunderts skizziert Daran schließt sich die Geschichte der bekanntesten deutschen Lexikaproduzenten ( Schwerpunkt Brockhaus sowie Meyer und Herder ) sowie deren Produkte an. Davon ausgehend wird der Wandel bzw. die Veränderung in den Produkten im Laufe der Jahrzehnte geschildert. Drüber hinaus gibt es ein Blic ins Ausland was es da für lexikalische Konzepte gibt. Das Erwähnte bezieht sich überwiegend auf Print-Lexika. Nun gibt es einen totalen Umbruch die neuen Medien ermöglichen völlig neue Perspektiven. So werden in dieser Arbeit zwei Multimedia- Enzyklopädien ( CD- ROM / DVD ) vorgestellt. Diese Beispiele sollen zeigen was es alles für Möglichkeiten gibt. Auch die Nachteile werden nicht verschwiegen. Darauf folgt das andere wichtige neue Medium das Internet. In diesem Kapitel wird beschrieben wie man lexikalische Informationen aus dem Internet bekommen kann und worin die Vor- und Nachteile dieser Methode liegen. Am Schluss gibt es auch einen Blick auf die Konsequenzen für öffentliche und wissenschaftliche Bibliotheken. Die neuen Medien führen zu Überlegungen die traditionellen bzw. konventionellen Enzyklopädien nicht mehr zu kaufen. Das könnte eine jahrhundertealte Tradition beenden.
  20. Bös, K.: Aspektorientierte Inhaltserschließung von Romanen und Bildern : ein Vergleich der Ansätze von Annelise Mark Pejtersen und Sara Shatford (2012) 0.02
    0.02194033 = product of:
      0.08776132 = sum of:
        0.08776132 = weight(_text_:methode in 400) [ClassicSimilarity], result of:
          0.08776132 = score(doc=400,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.34721377 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=400)
      0.25 = coord(1/4)
    
    Object
    AMP-Methode

Languages

  • d 67
  • e 9
  • a 1
  • f 1
  • hu 1
  • More… Less…

Types