Search (90 results, page 1 of 5)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.24
    0.23706882 = product of:
      0.47413763 = sum of:
        0.11853441 = product of:
          0.35560322 = sum of:
            0.35560322 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.35560322 = score(doc=973,freq=2.0), product of:
                0.31636283 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03731569 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.35560322 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.35560322 = score(doc=973,freq=2.0), product of:
            0.31636283 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03731569 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.12
    0.121708825 = product of:
      0.16227843 = sum of:
        0.039511472 = product of:
          0.118534416 = sum of:
            0.118534416 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.118534416 = score(doc=701,freq=2.0), product of:
                0.31636283 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03731569 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.118534416 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.118534416 = score(doc=701,freq=2.0), product of:
            0.31636283 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03731569 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.004232544 = product of:
          0.02116272 = sum of:
            0.02116272 = weight(_text_:28 in 701) [ClassicSimilarity], result of:
              0.02116272 = score(doc=701,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.15831517 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.2 = coord(1/5)
      0.75 = coord(3/4)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Date
    31. 3.2013 15:20:28
  3. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.10
    0.10357222 = product of:
      0.20714444 = sum of:
        0.039511472 = product of:
          0.118534416 = sum of:
            0.118534416 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.118534416 = score(doc=5820,freq=2.0), product of:
                0.31636283 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03731569 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.16763297 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.16763297 = score(doc=5820,freq=4.0), product of:
            0.31636283 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03731569 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.5 = coord(2/4)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  4. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.10
    0.09877868 = product of:
      0.19755736 = sum of:
        0.04938934 = product of:
          0.14816801 = sum of:
            0.14816801 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.14816801 = score(doc=4997,freq=2.0), product of:
                0.31636283 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03731569 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.14816801 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.14816801 = score(doc=4997,freq=2.0), product of:
            0.31636283 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03731569 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.5 = coord(2/4)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.10
    0.09877868 = product of:
      0.19755736 = sum of:
        0.04938934 = product of:
          0.14816801 = sum of:
            0.14816801 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.14816801 = score(doc=4388,freq=2.0), product of:
                0.31636283 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03731569 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.14816801 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.14816801 = score(doc=4388,freq=2.0), product of:
            0.31636283 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03731569 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(2/4)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.10
    0.09877868 = product of:
      0.19755736 = sum of:
        0.04938934 = product of:
          0.14816801 = sum of:
            0.14816801 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.14816801 = score(doc=855,freq=2.0), product of:
                0.31636283 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03731569 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.14816801 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.14816801 = score(doc=855,freq=2.0), product of:
            0.31636283 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03731569 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.5 = coord(2/4)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  7. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.10
    0.09877868 = product of:
      0.19755736 = sum of:
        0.04938934 = product of:
          0.14816801 = sum of:
            0.14816801 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.14816801 = score(doc=1000,freq=2.0), product of:
                0.31636283 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03731569 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.14816801 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.14816801 = score(doc=1000,freq=2.0), product of:
            0.31636283 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03731569 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(2/4)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  8. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.09
    0.09193426 = product of:
      0.18386853 = sum of:
        0.17780161 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.17780161 = score(doc=563,freq=2.0), product of:
            0.31636283 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03731569 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.006066913 = product of:
          0.030334564 = sum of:
            0.030334564 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.030334564 = score(doc=563,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  9. Lipokatic, R.: Vergleichende Usability-Evaluation der E-Learning Plattformen LUVIT und WebCT (2004) 0.03
    0.025889099 = product of:
      0.103556395 = sum of:
        0.103556395 = weight(_text_:lernen in 3702) [ClassicSimilarity], result of:
          0.103556395 = score(doc=3702,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.49526796 = fieldWeight in 3702, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0625 = fieldNorm(doc=3702)
      0.25 = coord(1/4)
    
    Abstract
    E-Learning Plattformen für computerbasiertes Lernen müssen mit ihren über das Internet verfügbaren Kommunikationsmöglichkeiten Usability-Richtlinien entsprechen, um hohe Nutzerfreundlichkeit zu gewährleisten. Zwei ausgewählte E-Learning Plattformen werden verglichen mit dem Schwerpunkt auf Erklärung verschiedener Evaluationsmethoden und entwickelter Heuristik.
  10. Kohlstädt, K.: Schüler suchen im Netz : Eine exemplarische Erhebung zu Erfahrungen und Problemen von Jugendlichen bei der Internetrecherche für schulische Zwecke (2004) 0.02
    0.022652961 = product of:
      0.090611845 = sum of:
        0.090611845 = weight(_text_:lernen in 3713) [ClassicSimilarity], result of:
          0.090611845 = score(doc=3713,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.43335947 = fieldWeight in 3713, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3713)
      0.25 = coord(1/4)
    
    Abstract
    Nach Einführungen zu Jugend und Internet, Medienkompetenz und Lernen durch Medien, wird im praktischen Teil eine schriftliche Umfrage unter 90 Schülern eines Gymnasiums und einer Gesamtschule über deren Internetnutzung für schulische Zwecke analysiert. Suchpraxis, Einbindung des Internets in den schulischen Alltag, Unterschiede bei Geschlechtern und Schulformen werden besonders untersucht. Die Auswertung ergibt selbstbewußte Grundeinstellung der Schüler zum Internet, eher privat als schulisch genutzt, geschätzt wegen Schnelligkeit, Informationsmenge und Spaßfaktor bei Fixierung auf die Suchmaschine Google. Die Schüler geben sich meistens mit den gefundenen Ergebnissen zufrieden, stellen deren Qualität nicht weiter in Frage.
  11. Witschel, H.F.: Text, Wörter, Morpheme : Möglichkeiten einer automatischen Terminologie-Extraktion (2004) 0.02
    0.016180687 = product of:
      0.06472275 = sum of:
        0.06472275 = weight(_text_:lernen in 126) [ClassicSimilarity], result of:
          0.06472275 = score(doc=126,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.30954248 = fieldWeight in 126, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit einem Teilgebiet des TextMining, versucht also Information (in diesem Fall Fachterminologie) aus natürlichsprachlichem Text zu extrahieren. Die der Arbeit zugrundeliegende These besagt, daß in vielen Gebieten des Text Mining die Kombination verschiedener Methoden sinnvoll sein kann, um dem Facettenreichtum natürlicher Sprache gerecht zu werden. Die bei der Terminologie-Extraktion angewandten Methoden sind statistischer und linguistischer (bzw. musterbasierter) Natur. Um sie herzuleiten, wurden einige Eigenschaften von Fachtermini herausgearbeitet, die für deren Extraktion relevant sind. So läßt sich z.B. die Tatsache, daß viele Fachbegriffe Nominalphrasen einer bestimmten Form sind, direkt für eine Suche nach gewissen POS-Mustern ausnützen, die Verteilung von Termen in Fachtexten führte zu einem statistischen Ansatz - der Differenzanalyse. Zusammen mit einigen weiteren wurden diese Ansätze in ein Verfahren integriert, welches in der Lage ist, aus dem Feedback eines Anwenders zu lernen und in mehreren Schritten die Suche nach Terminologie zu verfeinern. Dabei wurden mehrere Parameter des Verfahrens veränderlich belassen, d.h. der Anwender kann sie beliebig anpassen. Bei der Untersuchung der Ergebnisse anhand von zwei Fachtexten aus unterschiedlichen Domänen wurde deutlich, daß sich zwar die verschiedenen Verfahren gut ergänzen, daß aber die optimalen Werte der veränderbaren Parameter, ja selbst die Auswahl der angewendeten Verfahren text- und domänenabhängig sind.
  12. Treue, L.: ¬Das Konzept Informationskompetenz : ein Beitrag zur theoretischen und praxisbezogenen Begriffsklärung (2011) 0.02
    0.016180687 = product of:
      0.06472275 = sum of:
        0.06472275 = weight(_text_:lernen in 214) [ClassicSimilarity], result of:
          0.06472275 = score(doc=214,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.30954248 = fieldWeight in 214, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
      0.25 = coord(1/4)
    
    Abstract
    Das Konzept Informationskompetenz entwickelt sich im deutschsprachigen Raum seit den 1990er-Jahren zu einem Schlüsselbegriff des Bildungs- und Bibliothekswesens. Es handelt sich um einen Transfer des Konzepts "information literacy", welches im angloamerikanischen Raum bereits seit den 1980er-Jahren etabliert ist und allgemein für eine Fähigkeit im Umgang mit Information benutzt wird. Der Informationsbegriff als Bezugspunkt der Fähigkeit im Umgang mit Information wird in dieser Arbeit etymologisch, nachrichtentechnisch, zeichentheoretisch und als Grundbegriff der Informationswissenschaft betrachtet. Der medienhistorische Zusammenhang wird in einer Untersuchung zum Begriffsaufkommen nachgewiesen und analysiert. Die Entwicklung des Konzepts wird von seinem ersten Aufkommen bis zu neueren zielgruppenfokussierten Anwendungen wie der Informationskompetenz in Unternehmen (IKU) nachgezeichnet. Als Beispiel aus der Praxis wird das Berliner Projekt "Informationskompetenz als Schlüsselqualifikation für lebenslanges Lernen von Hochschulabsolventen in kleinen und mittleren Unternehmen" (2005-2008) betrachtet. Die Untersuchung der Verwendung des Begriffes sowie seiner praktischen Wirkungen sollen im Sinne der Pragmatischen Maxime einen Beitrag zur Begriffsklärung leisten. Trotz der starken Verbreitung dieses Konzepts zeichnet es sich durch terminologische Unklarheit und einen permanenten Diskurs zu dessen Inhalten und Bedeutungen dieses Begriffs aus. Die Arbeit dokumentiert die Lücke zwischen der theoretischen informationswissenschaftlichen Konzeption und der Anwendung im Bildungs- und Bibliotheksbereich und formuliert in diesem Kontext Desiderate für die Informationswissenschaft.
  13. Oberhauser, O.: Automatisches Klassifizieren : Verfahren zur Erschließung elektronischer Dokumente (2004) 0.01
    0.012944549 = product of:
      0.051778197 = sum of:
        0.051778197 = weight(_text_:lernen in 2487) [ClassicSimilarity], result of:
          0.051778197 = score(doc=2487,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.24763398 = fieldWeight in 2487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03125 = fieldNorm(doc=2487)
      0.25 = coord(1/4)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
  14. Semenova, E.: Erstellung einer Dokumentationssprache : Am Beispiel der Oberbegriffsdatei für die Sonderausstellungsdatenbank im Institut für Museumskunde, Berlin (2004) 0.01
    0.0124707995 = product of:
      0.049883198 = sum of:
        0.049883198 = product of:
          0.124708 = sum of:
            0.063488156 = weight(_text_:28 in 1734) [ClassicSimilarity], result of:
              0.063488156 = score(doc=1734,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.4749455 = fieldWeight in 1734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1734)
            0.06121984 = weight(_text_:29 in 1734) [ClassicSimilarity], result of:
              0.06121984 = score(doc=1734,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.46638384 = fieldWeight in 1734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1734)
          0.4 = coord(2/5)
      0.25 = coord(1/4)
    
    Date
    28.11.1999 13:32:29
    27. 9.2005 14:28:14
  15. Schobert, D.: ¬Die Bibliothek der Deutschen Geologische Gesellschaft unter dem besonderen Aspekt der Sacherschließung ihrer Kartensammlungen : Geschichte, Stand und Perspektiven (1993) 0.01
    0.0124707995 = product of:
      0.049883198 = sum of:
        0.049883198 = product of:
          0.124708 = sum of:
            0.063488156 = weight(_text_:28 in 3958) [ClassicSimilarity], result of:
              0.063488156 = score(doc=3958,freq=2.0), product of:
                0.13367462 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03731569 = queryNorm
                0.4749455 = fieldWeight in 3958, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3958)
            0.06121984 = weight(_text_:29 in 3958) [ClassicSimilarity], result of:
              0.06121984 = score(doc=3958,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.46638384 = fieldWeight in 3958, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3958)
          0.4 = coord(2/5)
      0.25 = coord(1/4)
    
    Date
    6.12.1996 19:56:29
    5. 8.1999 15:54:28
  16. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.01
    0.012188897 = product of:
      0.048755586 = sum of:
        0.048755586 = product of:
          0.121888965 = sum of:
            0.06121984 = weight(_text_:29 in 9) [ClassicSimilarity], result of:
              0.06121984 = score(doc=9,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.46638384 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
            0.060669128 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.060669128 = score(doc=9,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.4 = coord(2/5)
      0.25 = coord(1/4)
    
    Date
    22. 2.1997 19:50:29
  17. Parsian, D.: Überlegungen zur Aufstellungssystematik und Reklassifikation an der Fachbereichsbibliothek Afrikawissenschaften und Orientalistik (2007) 0.01
    0.009800152 = product of:
      0.039200608 = sum of:
        0.039200608 = product of:
          0.19600303 = sum of:
            0.19600303 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.19600303 = score(doc=3396,freq=2.0), product of:
                0.36386445 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03731569 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Footnote
    Vgl. unter: http://othes.univie.ac.at/3016/1/Parsian_%C3%9Cberlegungen_zur_Aufstellungssystematik_und_Reklassifikation_an_der_AFOR.pdf.
  18. Ammann, A.: Klassifikation dynamischer Wissensräume : multifaktorielle Wechselbeziehungen zur Generierung und Gestaltung konstellativer dynamischer und mehrdimensionaler Wissensräume mit einem Fokus der Anwendung in der Zahn-, Mund- und Kieferheilkunde am Beispiel der enossalen Implantologie (2012) 0.01
    0.009708412 = product of:
      0.038833648 = sum of:
        0.038833648 = weight(_text_:lernen in 1751) [ClassicSimilarity], result of:
          0.038833648 = score(doc=1751,freq=2.0), product of:
            0.20909165 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03731569 = queryNorm
            0.18572548 = fieldWeight in 1751, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
      0.25 = coord(1/4)
    
    Abstract
    Eine Herausforderung dieser Arbeit lag in der Struktur der Wissensordnung zu dieser Thematik. Dabei sei erlaubt, mit dem erforderlichen Respekt sich auch in andere Fachgebiete hineinzuwagen, um diese Thematik in den historischen Kontext zur Entwicklung der Ordnungsprinzipien des Wissens zu stellen. Nur dadurch wird ersichtlich, wie diese Fragestellung in den jeweiligen Epochen sich immer wieder aufs Neue ergeben hat, altes und neues Wissen zu ordnen, um damit den Wissenstransfer zu fördern. Neue Erkenntnisse zu gewinnen bedeutet auch alte Erkenntnisse verstehen zu lernen. Da Wissen keine Grenzen hat, ist diese komplexe Thematik auch nicht fakultativ behandelt, sondern wurde interdisziplinär im Rahmen der Möglichkeiten in den jeweiligen Kontext gestellt. Für diese Arbeit ist die Methodik des deduktiven Prinzips der Wissensordnung gewählt worden.
  19. Thielemann, A.: Sacherschließung für die Kunstgeschichte : Möglichkeiten und Grenzen von DDC 700: The Arts (2007) 0.01
    0.008125931 = product of:
      0.032503724 = sum of:
        0.032503724 = product of:
          0.08125931 = sum of:
            0.040813226 = weight(_text_:29 in 1409) [ClassicSimilarity], result of:
              0.040813226 = score(doc=1409,freq=2.0), product of:
                0.13126493 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03731569 = queryNorm
                0.31092256 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
            0.040446084 = weight(_text_:22 in 1409) [ClassicSimilarity], result of:
              0.040446084 = score(doc=1409,freq=2.0), product of:
                0.13067318 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03731569 = queryNorm
                0.30952093 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.4 = coord(2/5)
      0.25 = coord(1/4)
    
    Abstract
    Nach der Veröffentlichung einer deutschen Übersetzung der Dewey Decimal Classification 22 im Oktober 2005 und ihrer Nutzung zur Inhaltserschließung in der Deutschen Nationalbibliographie seit Januar 2006 stellt sich aus Sicht der deutschen kunsthistorischen Spezialbibliotheken die Frage nach einer möglichen Verwendung der DDC und ihrer generellen Eignung zur Inhalterschließung kunsthistorischer Publikationen. Diese Frage wird vor dem Hintergrund der bestehenden bibliothekarischen Strukturen für die Kunstgeschichte sowie mit Blick auf die inhaltlichen Besonderheiten, die Forschungsmethodik und die publizistischen Traditionen dieses Faches erörtert.
    Date
    14. 2.2008 19:56:29
  20. Bender, B.: Digitale Mündigkeit? : Definition und Dimensionen: eine theoretische Fundierung zwischen Medienbildung und Medienkompetenz (2016) 0.01
    0.007840122 = product of:
      0.03136049 = sum of:
        0.03136049 = product of:
          0.15680243 = sum of:
            0.15680243 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.15680243 = score(doc=4089,freq=2.0), product of:
                0.36386445 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03731569 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Content
    Bachelorarbeit, angefertigt im Studiengang B.A. Bildungswissenschaft an der FernUniversität in Hagen - Fakultät Kultur- und Sozialwissenschaften - Institut für Bildungswissenschaft und Medienforschung Lehrgebiet Bildungstheorie und Medienpädagogik. Vgl.: https://lesen-schreiben-bilden.net/wp-content/uploads/2017/02/BA_BB_ohnePr%C3%A4si_public.pdf.

Languages

  • d 75
  • e 12
  • f 1
  • hu 1
  • More… Less…

Types