Search (1955 results, page 1 of 98)

  • × type_ss:"el"
  1. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.27
    0.26991412 = product of:
      0.37787977 = sum of:
        0.1534817 = weight(_text_:methoden in 4499) [ClassicSimilarity], result of:
          0.1534817 = score(doc=4499,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.64777184 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.028074749 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.028074749 = score(doc=4499,freq=4.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.15254912 = weight(_text_:techniken in 4499) [ClassicSimilarity], result of:
          0.15254912 = score(doc=4499,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.5430516 = fieldWeight in 4499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.010574817 = weight(_text_:in in 4499) [ClassicSimilarity], result of:
          0.010574817 = score(doc=4499,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.17003182 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.033199377 = weight(_text_:den in 4499) [ClassicSimilarity], result of:
          0.033199377 = score(doc=4499,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 4499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
      0.71428573 = coord(5/7)
    
    Abstract
    Mit dieser Diplomarbeit soll vor allem ein Überblick über den derzeitigen Stand der Technik der Methoden der Semantischen Netze, der Fuzzy-Logik sowie der regelbasierten Wissensrepräsentation und -verarbeitung gegeben werden. Anhand praktischer Anwendungen wird dargestellt, in welchen Bereichen diese Techniken eingesetzt werden und welcher Nutzen sich hieraus ergibt.
  2. Seefried, E.: ¬Die Gestaltbarkeit der Zukunft und ihre Grenzen : zur Geschichte der Zukunftsforschung (2015) 0.24
    0.23599726 = product of:
      0.27533013 = sum of:
        0.067829974 = weight(_text_:methoden in 4312) [ClassicSimilarity], result of:
          0.067829974 = score(doc=4312,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.2862774 = fieldWeight in 4312, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.041150704 = weight(_text_:und in 4312) [ClassicSimilarity], result of:
          0.041150704 = score(doc=4312,freq=22.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.40608138 = fieldWeight in 4312, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.0953432 = weight(_text_:techniken in 4312) [ClassicSimilarity], result of:
          0.0953432 = score(doc=4312,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.33940727 = fieldWeight in 4312, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.014020358 = weight(_text_:in in 4312) [ClassicSimilarity], result of:
          0.014020358 = score(doc=4312,freq=18.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.22543246 = fieldWeight in 4312, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.041499224 = weight(_text_:den in 4312) [ClassicSimilarity], result of:
          0.041499224 = score(doc=4312,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31667316 = fieldWeight in 4312, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.015486653 = product of:
          0.030973306 = sum of:
            0.030973306 = weight(_text_:22 in 4312) [ClassicSimilarity], result of:
              0.030973306 = score(doc=4312,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.19345059 = fieldWeight in 4312, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4312)
          0.5 = coord(1/2)
      0.85714287 = coord(6/7)
    
    Abstract
    Dieser Beitrag beleuchtet die Geschichte der Zukunftsforschung in der Bundesrepublik und in den westlichen Industriegesellschaften vom 19. Jahrhundert bis in die Gegenwart. Er charakterisiert die Vorläufer der modernen Zukunftsforschung am Beginn der europäischen "Hochmoderne" um 1900, stellt aber die Formierungs- und Transformationsphase der 1950er- bis frühen 1980er-Jahre in den Mittelpunkt. Zentrale Faktoren für die Konzeptionierung einer Meta-Disziplin Zukunftsforschung waren der Systemwettlauf des Kalten Krieges, welcher der Entwicklung von Methoden der Vorausschau und Planung Dynamik verlieh, und ein teilweise frappantes wissenschaftliches Vertrauen in diese neuen methodisch-theoretischen Zugänge und Techniken der Vorausschau - insbesondere die Kybernetik -, welche die Zukunft prognostizierbar und damit plan- und steuerbar zu machen schienen. Den Kontext bildeten eine gesellschaftliche Aufbruchstimmung und eine hohe politische Technik- und Planungsaffinität der 1960er-Jahre, welche das Verständnis der Zukunftsforschung bestärkten, dass der Mensch aus der Fülle der möglichen Zukünfte wählen und so die Zukunft geradezu frei gestalten könne. Dieses überzogene Machbarkeitsdenken betraf insbesondere die bundesdeutsche Zukunftsforschung. In den 1970er-Jahren wurden allerdings die Grenzen dieses Anspruchs deutlich. In der Folge pragmatisierte sich die Zukunftsforschung in methodischer Hinsicht. Nicht zuletzt trug dieser übersteigerte Machbarkeitsglaube der 1960er-Jahre dazu bei, dass die Zukunftsforschung in der Bundesrepublik lange wenig institutionalisiert war.
    Date
    22. 6.2018 13:47:33
  3. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.22
    0.2225925 = product of:
      0.3116295 = sum of:
        0.11511128 = weight(_text_:methoden in 4322) [ClassicSimilarity], result of:
          0.11511128 = score(doc=4322,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.48582888 = fieldWeight in 4322, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.04466665 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.04466665 = score(doc=4322,freq=18.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.11441184 = weight(_text_:techniken in 4322) [ClassicSimilarity], result of:
          0.11441184 = score(doc=4322,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.4072887 = fieldWeight in 4322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.012540191 = weight(_text_:in in 4322) [ClassicSimilarity], result of:
          0.012540191 = score(doc=4322,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.20163295 = fieldWeight in 4322, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.024899531 = weight(_text_:den in 4322) [ClassicSimilarity], result of:
          0.024899531 = score(doc=4322,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 4322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.71428573 = coord(5/7)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  4. Knoll, A.: Kompetenzprofil von Information Professionals in Unternehmen (2016) 0.16
    0.15502775 = product of:
      0.21703884 = sum of:
        0.11511128 = weight(_text_:methoden in 3069) [ClassicSimilarity], result of:
          0.11511128 = score(doc=3069,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.48582888 = fieldWeight in 3069, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=3069)
        0.033292558 = weight(_text_:und in 3069) [ClassicSimilarity], result of:
          0.033292558 = score(doc=3069,freq=10.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.328536 = fieldWeight in 3069, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3069)
        0.014837754 = weight(_text_:in in 3069) [ClassicSimilarity], result of:
          0.014837754 = score(doc=3069,freq=14.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.23857531 = fieldWeight in 3069, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3069)
        0.035213258 = weight(_text_:den in 3069) [ClassicSimilarity], result of:
          0.035213258 = score(doc=3069,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.26870608 = fieldWeight in 3069, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=3069)
        0.018583983 = product of:
          0.037167966 = sum of:
            0.037167966 = weight(_text_:22 in 3069) [ClassicSimilarity], result of:
              0.037167966 = score(doc=3069,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.23214069 = fieldWeight in 3069, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3069)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    Zielsetzung - Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der vorliegenden Arbeit eine Begriffsbestimmung unternommen. Methode - Mit Hilfe dreier Methoden - einer Auswertung von relevanter Fachliteratur, der Untersuchung von einschlägigen Stellenausschreibungen und dem Führen von Experteninterviews - wird ein Kompetenzprofil für Information Professionals erstellt. Ergebnisse - Die 16 wichtigsten Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen sind IT-Kenntnisse, Sprachkenntnisse, Quellenkenntnisse, Recherchekenntnisse, Projektmanagement, Darstellungskompetenz, Problemlösungskompetenz, selbständiges Arbeiten, Kommunikationsfähigkeit, Teamfähigkeit, Servicementalität, Interkulturelle Kompetenz, Analytische Fähigkeiten, Eigenmarketing, Veränderungsbereitschaft und Stressresistenz. Schlussfolgerung - Die Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst. Ein Kompetenzrad kann als Visualisierung dienen.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1324/1234. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Lamparter, Anna: Kompetenzprofil für Information Professionals in Unternehmen. Masterarbeit (M.A.), Hochschule Hannover, 2015. Volltext: https://serwiss.bib.hs-hannover.de/frontdoor/index/index/docId/528 Vgl. auch: (geb. Lamparter): Kompetenzprofil von Information Professionals in Unternehmen. In:
    Date
    28. 7.2016 16:22:54
  5. Lusti, M.: Data Warehousing and Data Mining : Eine Einführung in entscheidungsunterstützende Systeme (1999) 0.15
    0.14883421 = product of:
      0.2083679 = sum of:
        0.10852795 = weight(_text_:methoden in 4261) [ClassicSimilarity], result of:
          0.10852795 = score(doc=4261,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.45804384 = fieldWeight in 4261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=4261)
        0.034384403 = weight(_text_:und in 4261) [ClassicSimilarity], result of:
          0.034384403 = score(doc=4261,freq=6.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.33931053 = fieldWeight in 4261, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4261)
        0.0074775247 = weight(_text_:in in 4261) [ClassicSimilarity], result of:
          0.0074775247 = score(doc=4261,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.120230645 = fieldWeight in 4261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4261)
        0.033199377 = weight(_text_:den in 4261) [ClassicSimilarity], result of:
          0.033199377 = score(doc=4261,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 4261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=4261)
        0.024778644 = product of:
          0.049557287 = sum of:
            0.049557287 = weight(_text_:22 in 4261) [ClassicSimilarity], result of:
              0.049557287 = score(doc=4261,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.30952093 = fieldWeight in 4261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4261)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    Im Mittelpunkt dieses anwendungsbezogenen Lehrbuchs stehen Architekturen, Methoden und Werkzeuge entscheidungsunterstützender Systeme. Beispiele und Aufgaben ermöglichen die Entwicklung von Anwendungen mit der Demonstrationssoftware der CD-ROM. Eine interaktive Foliensammlung veranschaulicht den Buchtext und verweist auf zusätzliches Lernmaterial
    Date
    17. 7.2002 19:22:06
  6. Dogtas, G.; Ibitz, M.-P.; Jonitz, F.; Kocher, V.; Poyer, A.,; Stapf, L.: Kritik an rassifizierenden und diskriminierenden Titeln und Metadaten : Praxisorientierte Lösungsansätze (2022) 0.13
    0.13288993 = product of:
      0.23255737 = sum of:
        0.13429649 = weight(_text_:methoden in 1828) [ClassicSimilarity], result of:
          0.13429649 = score(doc=1828,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.56680036 = fieldWeight in 1828, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
        0.04254853 = weight(_text_:und in 1828) [ClassicSimilarity], result of:
          0.04254853 = score(doc=1828,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41987535 = fieldWeight in 1828, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
        0.014630223 = weight(_text_:in in 1828) [ClassicSimilarity], result of:
          0.014630223 = score(doc=1828,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.23523843 = fieldWeight in 1828, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
        0.041082133 = weight(_text_:den in 1828) [ClassicSimilarity], result of:
          0.041082133 = score(doc=1828,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31349042 = fieldWeight in 1828, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
      0.5714286 = coord(4/7)
    
    Abstract
    In den letzten Jahren ist eine Debatte immer stärker in der Öffentlichkeit ausgetragen worden: Wie mit rassistischen Inhalten umgehen? Auch in Bibliotheken, Archiven und Museen muss die Frage gestellt werden, welche Methoden Anwendung finden sollen, um diskriminierende Inhalte nicht weiter zu reproduzieren. Der Beitrag untersucht Methoden im Umgang mit rassifizierendem und diskriminierendem Vokabular sowie den technischen Herausforderungen. Bei dem Versuch praxisorientierte Lösungsansätze zu verhandeln, werden die Bedürfnisse von kuratorischer Verantwortung, Einbeziehung, Nutzung und Bereitstellung diskutiert und in einem Orientierungsleitfaden zusammengeführt.
    Footnote
    Beitrag in enem Themenheft 'Critical Library Perspectives'.
  7. Gillitzer, B.: Yewno (2017) 0.12
    0.121386416 = product of:
      0.16994098 = sum of:
        0.07674085 = weight(_text_:methoden in 3447) [ClassicSimilarity], result of:
          0.07674085 = score(doc=3447,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.32388592 = fieldWeight in 3447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.035788424 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.035788424 = score(doc=3447,freq=26.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.011823005 = weight(_text_:in in 3447) [ClassicSimilarity], result of:
          0.011823005 = score(doc=3447,freq=20.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.19010136 = fieldWeight in 3447, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.033199377 = weight(_text_:den in 3447) [ClassicSimilarity], result of:
          0.033199377 = score(doc=3447,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 3447, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.024778644 = score(doc=3447,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  8. Bredemeier, W.: Podiumsdiskussion "Zukunft wissenschaftlicher Bibliotheken?!" : Mit provokanten Thesen an neues Format angepasst (2020) 0.12
    0.12040975 = product of:
      0.16857365 = sum of:
        0.040697984 = weight(_text_:methoden in 5739) [ClassicSimilarity], result of:
          0.040697984 = score(doc=5739,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.17176645 = fieldWeight in 5739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.036470167 = weight(_text_:und in 5739) [ClassicSimilarity], result of:
          0.036470167 = score(doc=5739,freq=48.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.35989314 = fieldWeight in 5739, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.05720592 = weight(_text_:techniken in 5739) [ClassicSimilarity], result of:
          0.05720592 = score(doc=5739,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.20364435 = fieldWeight in 5739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.009300054 = weight(_text_:in in 5739) [ClassicSimilarity], result of:
          0.009300054 = score(doc=5739,freq=22.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.14953499 = fieldWeight in 5739, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.024899531 = weight(_text_:den in 5739) [ClassicSimilarity], result of:
          0.024899531 = score(doc=5739,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 5739, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
      0.71428573 = coord(5/7)
    
    Abstract
    Auf der Veranstaltung "Zukunft wissenschaftlicher Bibliotheken?!" in Trägerschaft von ZB MED und Open Password wurde die auf Präsenzveranstaltungen übliche Podiumsdiskussion durch eine virtuelle Lösung ersetzt. Diese wurde an das neue Format angepasst, weil man einander in einer virtuellen Veranstaltung "noch weniger ins Wort fallen kann" als auf einer Präsenztagung (Moderatorin Miriam Albers): Es wurden vorab teils provokante Thesen formuliert, zu denen die Referenten maximal zwei Minuten lang Stellung nehmen sollten. Von den vier Thesen sollten sie zu mindestens dreien einen Kommentar abgeben. Im Folgenden einige Kernthesen aus den Kommentaren, wie sie der Rezensent verstanden hat.
    Content
    These 1: Wissenschaftliche Bibliotheken zwischen Formalerschließung und Forschungsdatenmanagement: Was ist Kunst und was kann weg? Maschine, übernehmen Sie! Wir Humans wenden uns interessanteren Themen zu Bleiben muss, was tatsächlich nachgefragt und nach der Einschätzung und den Prognosen der Experten auf der Basis von Kriterien längerfristig aufgehoben werden sollte (selbst wenn momentan keine Nachfrage danach besteht). Es wird keine einfachen Antworten geben, aber es ist ein Stück bibliothekarische Kompetenz, diese Antworten zu finden (Nelle). Bleiben muss, was nachgefragt wird und der Community dient und eine starke Relevanz besitzt. Gute Kunst ist, was von Herzen kommt und authentisch ist. Also sollte man nicht alles mitmachen, wenn wieder wie beispielsweise vor zwanzig Jahren mit der "Informationskompetenz" eine neue Sau durchs Dorf getrieben wird (Christensen).
    These 2: Data Librarian, Systembibliothekar und Co.: Welche Qualifikationen brauchen wir und wie lassen sich diese rekrutieren? Über den Tellerrand schauen, in drei Welten beheimatet sein, sich selbst die gerade erforderlichen Fähigkeiten beibringen Bibliothekare sind häufig mit Managementaufgaben befasst und müssen sich immer wieder an Prozesse, Projekte, Zieldefinitionen, überhaupt an dem großen Ganzen orientieren. Aber sie verfügen lediglich über eine fachliche Ausbildung. Sollte nicht eine Managementqualifikation hinzukommen? (Albers). Dem könne er nur zustimmen, sagte Konrad Förstner. Von ähnlich zentraler Bedeutung sei zudem die Kommunikationskompetenz und die Fähigkeit, sich selbst Wissen anzueignen. Die Techniken verändern sich mittlerweile derart rapide, dass der Bibliothekar sich in einem sich bewegenden Feld der Anforderungen befindet und sich bemühen muss, die neu erforderlichen Qualifizierungen fortlaufend zu akquirieren. Das ist eine sehr schwierige Aufgabe (beispielsweise auch die, eine solche Fähigkeit vermitteln), so dass man die Leute langsam in diese Qualifikation hineinwachsen lassen sollte. Andererseits ist diese Kompetenz nicht nur in Bibliotheken, vielmehr überall gefragt und gibt es dazu keine Alternative (Förstner).
    These 3: Citizen Science: Die breite Öffentlichkeit als wichtige Zielgruppe für Wissenschaftliche Bibliotheken? Bibliotheken sollten Bürger befähigen, wissenschaftlichen Prozess zu verstehen Bei Citizen Science sind zwei Aspekte zu unterscheiden: die Bürger an der Forschung zu beteiligen (beispielsweise mit dem Sammeln von Daten), auf dass sie selbst einen Mehrwert für die Entwicklung neuer bibliothekarischer Methoden zu schaffen - die Bürger an die Wissenschaft heranzuführen und Verständnis für diese zu vermitteln. Dabei sollte die Bibliothek als Ansprechpartner für belastbares Wissen, für Evidenzbasierung und gute Empirie fungieren. Sie hat die Fragen zu beantworten: Welches Wissen ist vertrauenswürdig und unter welchen Vorussetzungen kann ich ein bestimmtes Wissen nutzen? Dies ist eine Kernaufgabe nicht jeder einzelnen wissenschaftlichen Bibliothek, aber der wissenschaftlichen Bibliotheken insgesamt (Nelle).
    These 4: Wissenschaftliche Bibliotheken und Privatwirtschaft: Notwendig, sinnvoll oder verwerflich? Keiner der Referenten sah die Zusammenarbeit zwischen Wissenschaft und Wirtschaft als verwerflich an, aber in jedem Statement wurden mögliche Gefahren und Problematiken einer solchen Zusammenarbeit betont. Wissenschaft und Gesellschaft sollten sich in einen interaktiven Austausch zum wechselseitigen Vorteil begeben und die Wirtschaft ist ein wesentlicher Teil der Gesellschaft. Allerdings kommt es auf die Setzung geeigneter Rahmenbedingungen an. Die Wissenschaft darf sich nicht in einseitige Abhängigkeiten begeben. Zudem hat die Bibliothek ihr Wissen nach vielen Seiten zur Verfügung zu stellen (Nelle). Anne Christensen, die sich erst vor fünf Monaten aus einer wissenschaftlichen Bibliothek in die Privatwirtschaft begeben hatte, machte bereits die Erfahrung, dass sie nicht mehr uneingeschränkt Teil der Bibliotheksgemeinschaft ist, schon weil sie das Privileg verloren hat, keine Umsätze machen zu müssen. Große private Anbieter wie EBSCO haben wichtigen Projekten einen großen Schub gegeben, weniger wegen ihres Know hows, sondern weil sie anders als die beteiligten wissenschaftlichen Bibliotheken über ausreichende Entwicklungsressourcen geboten. Aber die Bibliotheken müssen in jedem Fall ihre Unabhängigkeit bewahren und die Hoheit über die eigenen Daten und Dienste behalten (Christensen).
  9. Schöneberg, U.; Gödert, W.: Erschließung mathematischer Publikationen mittels linguistischer Verfahren (2012) 0.11
    0.111271895 = product of:
      0.19472581 = sum of:
        0.11511128 = weight(_text_:methoden in 1055) [ClassicSimilarity], result of:
          0.11511128 = score(doc=1055,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.48582888 = fieldWeight in 1055, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.036470167 = weight(_text_:und in 1055) [ClassicSimilarity], result of:
          0.036470167 = score(doc=1055,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.35989314 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.007931113 = weight(_text_:in in 1055) [ClassicSimilarity], result of:
          0.007931113 = score(doc=1055,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.12752387 = fieldWeight in 1055, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.035213258 = weight(_text_:den in 1055) [ClassicSimilarity], result of:
          0.035213258 = score(doc=1055,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.26870608 = fieldWeight in 1055, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
      0.5714286 = coord(4/7)
    
    Abstract
    Die Zahl der mathematik-relevanten Publikationn steigt von Jahr zu Jahr an. Referatedienste wie da Zentralblatt MATH und Mathematical Reviews erfassen die bibliographischen Daten, erschließen die Arbeiten inhaltlich und machen sie - heute über Datenbanken, früher in gedruckter Form - für den Nutzer suchbar. Keywords sind ein wesentlicher Bestandteil der inhaltlichen Erschließung der Publikationen. Keywords sind meist keine einzelnen Wörter, sondern Mehrwortphrasen. Das legt die Anwendung linguistischer Methoden und Verfahren nahe. Die an der FH Köln entwickelte Software 'Lingo' wurde für die speziellen Anforderungen mathematischer Texte angepasst und sowohl zum Aufbau eines kontrollierten Vokabulars als auch zur Extraction von Keywords aus mathematischen Publikationen genutzt. Es ist geplant, über eine Verknüpfung von kontrolliertem Vokabular und der Mathematical Subject Classification Methoden für die automatische Klassifikation für den Referatedienst Zentralblatt MATH zu entwickeln und zu erproben.
    Footnote
    Vortrag anlässlich der DMV-Tagung in Saarbrücken, 17.-20.09.2012.
  10. Böller, N.; Herget, J.; Hierl, S.: Knowledge-enhancing Helix : Herausbildung und Entwicklung von Informations- und Medienkompetenz durch systemgestütztes kollaboratives Arbeiten in der universitären Ausbildung. Eine Fallstudie (2007) 0.11
    0.11077706 = product of:
      0.19385985 = sum of:
        0.09592607 = weight(_text_:methoden in 707) [ClassicSimilarity], result of:
          0.09592607 = score(doc=707,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.4048574 = fieldWeight in 707, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=707)
        0.049629614 = weight(_text_:und in 707) [ClassicSimilarity], result of:
          0.049629614 = score(doc=707,freq=32.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.48975256 = fieldWeight in 707, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=707)
        0.012364795 = weight(_text_:in in 707) [ClassicSimilarity], result of:
          0.012364795 = score(doc=707,freq=14.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.19881277 = fieldWeight in 707, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=707)
        0.03593938 = weight(_text_:den in 707) [ClassicSimilarity], result of:
          0.03593938 = score(doc=707,freq=6.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.274247 = fieldWeight in 707, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=707)
      0.5714286 = coord(4/7)
    
    Abstract
    Informations- und Medienkompetenz gehören in der Informationsgesellschaft zu den wichtigsten Schlüsselqualifikationen. Ebenso gewinnen Aspekte wie Teamarbeit und Wissensaustausch im Berufsleben zunehmend an Bedeutung; kollaborative Arbeitsstile werden in der neuen informationell vernetzten Arbeitsumgebung dominant. Die berufsqualifizierende Ausbildung an Hochschulen ist somit mit immer neuen Herausforderungen konfrontiert: traditionelle Formen und Methoden der Hochschullehre wie das Schreiben wissenschaftlicher Arbeiten, Vorlesungen, Referate, Seminare oder Gruppenarbeiten genügen nicht mehr, um all diese Kompetenzen herauszubilden und den Herausforderungen des Berufslebens und der Informationsgesellschaft gerecht zu werden. Das Konzept "DIAMOND" (DIdactical Approach for Media cOmpeteNce Development) schafft einen Bezugrahmen für eine in das Curriculum integrierte umfassende und aktive Vermittlung von Methoden-, Sozial-, Fach-, Medien- und Informationskompetenz. Das über mehrere Jahre hinweg entwickelte und mehrfach erprobte Kursframework folgt einem aus sechs Bausteinen bestehendem Modell. Jeder Baustein (kontextuell, technisch, didaktisch, methodisch, pädagogisch, inhaltlich) besteht aus verschiedenen Aspekten, die in ihrer Gesamtheit die Herausbildung und Entwicklung von Schlüsselkompetenzen bei Studierenden ermöglichen und fördern. Der zugrundeliegende Ansatz des Blended Learning wird hierbei in mehrwertschaffender Form mit diversen neuen Medien und Systemunterstützungen (Topic Map basierte eLearningwebseite, Mediawiki, Lernplattform etc.) ergänzt, die in einem den Lehr- und Lernpozess unterstützenden Framework integriert sind. Ein Schwerpunkt liegt dabei auf einem kollaborativen Ansatz mit Hilfe einer WIKI-Software. Dieser umfassende didaktische Ansatz wird seit mehreren Jahren im ersten Semester des Studiums der Informationswissenschaft an der Hochschule für Technik und Wirtschaft Chur (HTW), University of Applied Science, im Grundlagenmodul erfolgreich eingesetzt und kontinuierlich weiterentwickelt.
  11. Gödert, W.: Wissensorganisation und Information Retrieval im Wandel : Konzepte für die Ausbildung in Deutschland (2001) 0.11
    0.108649075 = product of:
      0.19013587 = sum of:
        0.08139597 = weight(_text_:methoden in 4833) [ClassicSimilarity], result of:
          0.08139597 = score(doc=4833,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 4833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4833)
        0.0576644 = weight(_text_:und in 4833) [ClassicSimilarity], result of:
          0.0576644 = score(doc=4833,freq=30.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.5690411 = fieldWeight in 4833, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4833)
        0.015862226 = weight(_text_:in in 4833) [ClassicSimilarity], result of:
          0.015862226 = score(doc=4833,freq=16.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.25504774 = fieldWeight in 4833, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4833)
        0.035213258 = weight(_text_:den in 4833) [ClassicSimilarity], result of:
          0.035213258 = score(doc=4833,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.26870608 = fieldWeight in 4833, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=4833)
      0.5714286 = coord(4/7)
    
    Abstract
    Es wird ein Überblick gegeben, wie sich die Veränderungen sich im Bereich der Informationsverarbeitung und -technik auf die Gestaltung von Studienkonzepten im Bereich Wissensorganisation und Information Retrieval in deutschen bibliothekarischen Ausbildungseinrichtungen ausgewirkt haben. Dabei wird unterschieden in Bereiche der Veränderungen und in Bereiche der Stabilität. Die Bereiche der Veränderungen lassen sich den Verfahren und Anwendungen in der Praxis zuordnen. Sie sind zum einen geprägt durch eine integrative Sicht auf Indexierung und Information Retrieval und lassen sich zum anderen durch folgende Trends charakterisieren: - Von Katalogen zu OPACs und WebOPACs - Von der Katalogisierung zum intelligenten Information Retrieval und Suchmaschinen mit benutzerfreundlichen Interaktionsschnittstellen - Vom lokalen Katalog zum kooperativen Erschließen und Retrieval in heterogenen Netzen - Von intellektueller zu automatischer Indexierung - Von Regelwerken zu strukturierten Beschreibungsebenen (z.B. Metadaten) - Von Beschreibung und Bewertung zu Entwicklungen und Produktdesign Die Bereiche der Stabilität lassen sich der Theorie und den Methoden zuordnen und sind durch folgende Themen beschreibbar: - Grundlagen der Wissensorganisation und Informationserschließung (z.B. in Philosophie, Linguistik, Informatik, Kognitionspsychologie) - Grundlagen der Gestaltung von Dokumentationssprachen - Grundlagen des Information Retrieval
    Footnote
    Beitrag für die IFLA-Tagung 2001 in Boston
  12. Hensinger, P.: Trojanisches Pferd "Digitale Bildung" : Auf dem Weg zur Konditionierungsanstalt in einer Schule ohne Lehrer? (2017) 0.11
    0.10540493 = product of:
      0.1475669 = sum of:
        0.054263975 = weight(_text_:methoden in 5000) [ClassicSimilarity], result of:
          0.054263975 = score(doc=5000,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.22902192 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.0371394 = weight(_text_:und in 5000) [ClassicSimilarity], result of:
          0.0371394 = score(doc=5000,freq=28.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.36649725 = fieldWeight in 5000, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.010574817 = weight(_text_:in in 5000) [ClassicSimilarity], result of:
          0.010574817 = score(doc=5000,freq=16.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.17003182 = fieldWeight in 5000, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.033199377 = weight(_text_:den in 5000) [ClassicSimilarity], result of:
          0.033199377 = score(doc=5000,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 5000, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 5000) [ClassicSimilarity], result of:
              0.024778644 = score(doc=5000,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 5000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5000)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    Wir hatten schon viele Schulreformen, und nun wird von der Kultusministerkonferenz eine weitere angekün-digt, die "Digitale Bildung": Unterricht mit digitalen Medien wie Smartphone und Tablet-PC über WLAN.1Medien und Bildungspolitiker predigen Eltern, ihre Kinder seien in Schule und Beruf chancenlos, wenn sie nicht schon in der Grundschule Apps programmieren lernen.Die Hauptinitiative der Digitalisierung der Bildung kommt von der IT-Branche. Im Zwischenbericht der Platt-form "Digitalisierung in Bildung und Wissenschaft" steht, wer das Bundeswissenschaftsministerium berät - nämlich Akteure der IT-Wirtschaft: Vom Bitkom, der Gesellschaft für Informatik (GI) über Microsoft, SAP bis zur Telekom sind alle vertreten (BUNDESMINISTERIUM 2016:23). Nicht vertreten dagegen sind Kinderärzte, Päda-gogen, Lernpsychologen oder Neurowissenschaftler, die sich mit den Folgen der Nutzung von Bildschirm-medien bei Kindern und Jugendlichen beschäftigen. Die New York Times schlägt in einer Analyse Alarm: "How Google Took Over the Classroom" (13.05.2017).2 Mit ausgeklügelten Methoden, den Hype um digitale Medien nutzend, greift Google nach der Kontrolle des US-Bildungswesens, auch der Kontrolle über die Inhalte. Wer bei der Analyse und Bewertung dieser Entwicklung nur fragt "Nützen digitale Medien im Unterricht?", verengt den Blick, reduziert auf Methodik und Didaktik und schließt Gesamtzusammenhänge aus. Denn die digitalen Medien sind mehr als nur Unterrichts-Hilfsmittel. Diesen Tunnelblick weitet die IT-Unternehmerin Yvonne Hofstetter. Sie schreibt in ihrem Buch "Das Ende der Demokratie": "Mit der Digitalisierung verwandeln wir unser Leben, privat wie beruflich, in einen Riesencomputer. Alles wird gemessen, gespeichert, analysiert und prognostiziert, um es anschließend zu steuern und zu optimieren"(HOFSTETTER 2016:37). Grundlage dafür ist das Data-Mining - das Sammeln von Daten - für BigData Analysen. Die Haupt-Schürfwerkzeuge dazu sind dasSmartphone, der TabletPC und das WLAN-Netz.
    Date
    22. 2.2019 11:45:19
    Issue
    Ein Vortrag zu den Bestrebungen von Google, Apple, Microsoft, Bertelsmann und der Telekom, die Bildung in die Hand zu bekommen. Und warum fast keiner diese Unterwanderung bemerkt..
  13. Cremer, F.; Klaffki, L.; Steyer, T.: ¬Der Chimäre auf der Spur : Forschungsdaten in den Geisteswissenschaften (2018) 0.10
    0.104874514 = product of:
      0.18353039 = sum of:
        0.034740727 = weight(_text_:und in 4354) [ClassicSimilarity], result of:
          0.034740727 = score(doc=4354,freq=8.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.34282678 = fieldWeight in 4354, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4354)
        0.011332521 = weight(_text_:in in 4354) [ClassicSimilarity], result of:
          0.011332521 = score(doc=4354,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1822149 = fieldWeight in 4354, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4354)
        0.06495655 = weight(_text_:den in 4354) [ClassicSimilarity], result of:
          0.06495655 = score(doc=4354,freq=10.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.49567187 = fieldWeight in 4354, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4354)
        0.072500594 = product of:
          0.14500119 = sum of:
            0.14500119 = weight(_text_:naturwissenschaften in 4354) [ClassicSimilarity], result of:
              0.14500119 = score(doc=4354,freq=2.0), product of:
                0.29278275 = queryWeight, product of:
                  6.4035826 = idf(docFreq=198, maxDocs=44218)
                  0.045721713 = queryNorm
                0.4952518 = fieldWeight in 4354, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.4035826 = idf(docFreq=198, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4354)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Forschungsdaten nehmen in den Geistes- und Kulturwissenschaften eine immer wichtigere Rolle im Forschungsprozess ein. Doch dieser Vorgang ist nicht frei von Widersprüchen und Missverständnissen - das aus den Naturwissenschaften stammende Konzept "Forschungsdaten" kann nur bedingt auf traditionelle Arbeitsverfahren in den Geisteswissenschaften übertragen werden. Der vorliegende Beitrag thematisiert anhand der Spezifika geisteswissenschaftlicher Forschungsdaten das Spannungsverhältnis zwischen Relevanz und Wahrnehmung bei den Forschenden sowie zwischen Konzeption und Umsetzung im Forschungsalltag.
  14. Poggendorff, J.C.: Biographisch-literarisches Handwörterbuch der exakten Naturwissenschaften (2000) 0.10
    0.10406862 = product of:
      0.36424017 = sum of:
        0.009346906 = weight(_text_:in in 6882) [ClassicSimilarity], result of:
          0.009346906 = score(doc=6882,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15028831 = fieldWeight in 6882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=6882)
        0.35489327 = sum of:
          0.29294667 = weight(_text_:naturwissenschaften in 6882) [ClassicSimilarity], result of:
            0.29294667 = score(doc=6882,freq=4.0), product of:
              0.29278275 = queryWeight, product of:
                6.4035826 = idf(docFreq=198, maxDocs=44218)
                0.045721713 = queryNorm
              1.0005598 = fieldWeight in 6882, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                6.4035826 = idf(docFreq=198, maxDocs=44218)
                0.078125 = fieldNorm(doc=6882)
          0.06194661 = weight(_text_:22 in 6882) [ClassicSimilarity], result of:
            0.06194661 = score(doc=6882,freq=2.0), product of:
              0.16010965 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045721713 = queryNorm
              0.38690117 = fieldWeight in 6882, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=6882)
      0.2857143 = coord(2/7)
    
    Date
    3. 4.1996 15:41:22
    Field
    Naturwissenschaften
    Footnote
    Rez. in: Online Mitteilungen 2001, Nr.70, S.64-69 (H. Hauffe u. E. Pipp)
  15. Umlauf, K.: Grundkurs Informationsaufbereitung : Vorlesungsskript (2009) 0.10
    0.10267718 = product of:
      0.17968506 = sum of:
        0.094961956 = weight(_text_:methoden in 2776) [ClassicSimilarity], result of:
          0.094961956 = score(doc=2776,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.40078837 = fieldWeight in 2776, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2776)
        0.04913081 = weight(_text_:und in 2776) [ClassicSimilarity], result of:
          0.04913081 = score(doc=2776,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4848303 = fieldWeight in 2776, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2776)
        0.0065428335 = weight(_text_:in in 2776) [ClassicSimilarity], result of:
          0.0065428335 = score(doc=2776,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10520181 = fieldWeight in 2776, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2776)
        0.029049452 = weight(_text_:den in 2776) [ClassicSimilarity], result of:
          0.029049452 = score(doc=2776,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 2776, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2776)
      0.5714286 = coord(4/7)
    
    Abstract
    Diese Seite ist noch im Aufbau. Die Vorlesung gibt einen Überblick über Informationsprodukte als Ergebnis der Informationsaufbereitung und über Methoden der Informationsaufbereitung. Behandelt werden: Indexierungsmethoden, Metadaten und Functional Requirements for bibliographic Records, International Standard Bibliographic Description und Regelwerke für die Formalerschließung, kontrollierte und freie Termini; Metatexte (Inhaltskondensate wie z.B. informatives, indikatives und kritisches Kurzreferat [Abstract], Literaturbericht; feuilletonistische Kritik; wissenschaftliche Rezension; bibliothekarische Begutachtung); Gegenstände, Arten und Formen von Katalogen in Bibliotheken; Klassifikation; Verbale Sacherschließung, Deskriptoren und Thesaurus, Regeln für den Schlagwortkatalog; Reader Interest Classsification, Interessenkreis-Erschließung; Arbeitsorganisation; Katalogbenutzung. Einige Links führen zu lizenzpflichtigen Ressourcen und funktionieren deshalb nur im Campus von deutschen Universitäten oder im Campus der Humboldt-Universität.
  16. Mache, B.; Klaffki, L.: ¬Das DARIAH-DE Repository : Elementarer Teil einer modularen Infrastruktur für geistes- und kulturwissenschaftliche Forschungsdaten (2018) 0.10
    0.100863956 = product of:
      0.17651191 = sum of:
        0.094961956 = weight(_text_:methoden in 4485) [ClassicSimilarity], result of:
          0.094961956 = score(doc=4485,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.40078837 = fieldWeight in 4485, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4485)
        0.045957662 = weight(_text_:und in 4485) [ClassicSimilarity], result of:
          0.045957662 = score(doc=4485,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4535172 = fieldWeight in 4485, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4485)
        0.0065428335 = weight(_text_:in in 4485) [ClassicSimilarity], result of:
          0.0065428335 = score(doc=4485,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10520181 = fieldWeight in 4485, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4485)
        0.029049452 = weight(_text_:den in 4485) [ClassicSimilarity], result of:
          0.029049452 = score(doc=4485,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 4485, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4485)
      0.5714286 = coord(4/7)
    
    Abstract
    DARIAH-DE unterstützt mit digitalen Ressourcen und Methoden arbeitende Geistes- und Kulturwissenschaftler/innen in Forschung und Lehre. Forschungsdaten und Wissenschaftliche Sammlungen haben dabei eine zentrale Bedeutung. Im Rahmen einer Forschungsdaten-Föderationsarchitektur stehen eine Reihe von Werkzeugen zur Verfügung, mit denen Daten gefunden, vernetzt, publiziert und archiviert werden können. Hierzu zählt auch das DARIAH-DE Repository, das den Forschenden eine sichere, langfristige und nachhaltige Speicherung sowie die Veröffentlichung der Forschungsdaten ermöglicht.
  17. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 2: Wie sich "Informationskompetenz" methodisch-operativ untersuchen lässt Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.10
    0.09975227 = product of:
      0.17456646 = sum of:
        0.08139597 = weight(_text_:methoden in 346) [ClassicSimilarity], result of:
          0.08139597 = score(doc=346,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.042112123 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.042112123 = score(doc=346,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41556883 = fieldWeight in 346, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.007931113 = weight(_text_:in in 346) [ClassicSimilarity], result of:
          0.007931113 = score(doc=346,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.12752387 = fieldWeight in 346, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.043127254 = weight(_text_:den in 346) [ClassicSimilarity], result of:
          0.043127254 = score(doc=346,freq=6.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.32909638 = fieldWeight in 346, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
      0.5714286 = coord(4/7)
    
    Abstract
    In Teil 1 dieser Themenreihe zur Informationskompetenz wurde auf das Versäumnis der Bibliotheks- und Informationswissenschaft hingewiesen, das die Schlüsselqualifikation der Informations- und Medienkompetenz für die Lösung von Desinformationsproblemen für die eigene Forschung und Lehre in Anspruch nimmt, den damit implizit eingegangenen Verpflichtungen aber nicht nachkommt oder nicht nachkommen kann. Wenn zum Beispiel Informationskompetenz an Schulen vermittelt werden soll, dann müssten den Lehrern konkrete Handlungsanweisungen und Methoden an die Hand gegeben werden, um den Grad der (persönlichen) Informationskompetenz operativ messbar zu machen, zu testen und vor allem zu spezifizieren, was unter dem angeblich omnipotenten Begriff der Informationskompetenz zu verstehen sei. Das wird nicht geleistet.
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  18. Haake, E.; Blenkle, M.; Ellis, R.; Zillmann, H.: Nur die ersten Drei zählen! : Optimierung der Rankingverfahren über Popularitätsfaktoren bei der Elektronischen Bibliothek Bremen (E-LIB) (2015) 0.10
    0.096248545 = product of:
      0.16843495 = sum of:
        0.08139597 = weight(_text_:methoden in 2150) [ClassicSimilarity], result of:
          0.08139597 = score(doc=2150,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 2150, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=2150)
        0.042112123 = weight(_text_:und in 2150) [ClassicSimilarity], result of:
          0.042112123 = score(doc=2150,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41556883 = fieldWeight in 2150, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2150)
        0.00971359 = weight(_text_:in in 2150) [ClassicSimilarity], result of:
          0.00971359 = score(doc=2150,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1561842 = fieldWeight in 2150, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2150)
        0.035213258 = weight(_text_:den in 2150) [ClassicSimilarity], result of:
          0.035213258 = score(doc=2150,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.26870608 = fieldWeight in 2150, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=2150)
      0.5714286 = coord(4/7)
    
    Abstract
    Seit Einführung der neuen Discovery-Kataloge stehen unseren Nutzerinnen und Nutzern zusätzlich Millionen von Dokumenten neben dem lokalen Buchbestand zur Verfügung. Diese Zielgruppe muss in die Lage versetzt werden, die für sie relevanten Titel einfach und sicher zu finden. Die Qualität von Empfehlungsfunktionen und besonders der Relevanz-Ranking-Methoden sind daher für den Erfolg eines Discovery-Systems besonders wichtig. Das Ranking bibliothekarischer Suchmaschinentechnik ignoriert bisher das Feedback durch Nutzerinnen und Nutzer. Die Staats- und Universitätsbibliothek Bremen (SuUB) setzt mit dem in Bremen entwickelten Discovery-System "E-LIB" seit Sommer 2011 zusätzlich auf eine Modifikation des Treffer-Rankings über Popularitätsfaktoren der Medien wie Klickstatistik, Auflagen- und Exemplarzahl. Die maßgeschneiderte Entwicklung eines eigenen Bibliothekskataloges, den die SuUB seit 2004 mit dem Discovery-System "E-LIB" in Bremen betreibt, erlaubt die schnelle und flexible Anpassung von Retrievalfunktionen an die Bedürfnisse der Nutzerinnen und Nutzer vor Ort.
  19. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.09
    0.091484554 = product of:
      0.12807837 = sum of:
        0.054263975 = weight(_text_:methoden in 3284) [ClassicSimilarity], result of:
          0.054263975 = score(doc=3284,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.22902192 = fieldWeight in 3284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.024313446 = weight(_text_:und in 3284) [ClassicSimilarity], result of:
          0.024313446 = score(doc=3284,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.23992877 = fieldWeight in 3284, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.008360127 = weight(_text_:in in 3284) [ClassicSimilarity], result of:
          0.008360127 = score(doc=3284,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.13442196 = fieldWeight in 3284, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.028751504 = weight(_text_:den in 3284) [ClassicSimilarity], result of:
          0.028751504 = score(doc=3284,freq=6.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.21939759 = fieldWeight in 3284, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.024778644 = score(doc=3284,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    Das Klassifizieren von Objekten (z. B. Fauna, Flora, Texte) ist ein Verfahren, das auf menschlicher Intelligenz basiert. In der Informatik - insbesondere im Gebiet der Künstlichen Intelligenz (KI) - wird u. a. untersucht, inweit Verfahren, die menschliche Intelligenz benötigen, automatisiert werden können. Hierbei hat sich herausgestellt, dass die Lösung von Alltagsproblemen eine größere Herausforderung darstellt, als die Lösung von Spezialproblemen, wie z. B. das Erstellen eines Schachcomputers. So ist "Rybka" der seit Juni 2007 amtierende Computerschach-Weltmeistern. Inwieweit Alltagsprobleme mit Methoden der Künstlichen Intelligenz gelöst werden können, ist eine - für den allgemeinen Fall - noch offene Frage. Beim Lösen von Alltagsproblemen spielt die Verarbeitung der natürlichen Sprache, wie z. B. das Verstehen, eine wesentliche Rolle. Den "gesunden Menschenverstand" als Maschine (in der Cyc-Wissensbasis in Form von Fakten und Regeln) zu realisieren, ist Lenat's Ziel seit 1984. Bezüglich des KI-Paradeprojektes "Cyc" gibt es CycOptimisten und Cyc-Pessimisten. Das Verstehen der natürlichen Sprache (z. B. Werktitel, Zusammenfassung, Vorwort, Inhalt) ist auch beim intellektuellen Klassifizieren von bibliografischen Titeldatensätzen oder Netzpublikationen notwendig, um diese Textobjekte korrekt klassifizieren zu können. Seit dem Jahr 2007 werden von der Deutschen Nationalbibliothek nahezu alle Veröffentlichungen mit der Dewey Dezimalklassifikation (DDC) intellektuell klassifiziert.
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
    Date
    22. 1.2010 14:41:24
    Footnote
    Vortrag gehalten am 03.06.2009 auf dem 98. Bibliothekartag 2009 in Erfurt; erscheint in: Dialog mit Biliotheken. Vgl. auch: http://www.gbv.de/vgm/info/biblio/01VZG/06Publikationen/2009/index.
  20. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.09
    0.09050408 = product of:
      0.21117619 = sum of:
        0.16279194 = weight(_text_:methoden in 4888) [ClassicSimilarity], result of:
          0.16279194 = score(doc=4888,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.6870658 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.011216287 = weight(_text_:in in 4888) [ClassicSimilarity], result of:
          0.011216287 = score(doc=4888,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.18034597 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.037167966 = product of:
          0.07433593 = sum of:
            0.07433593 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.07433593 = score(doc=4888,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.5 = coord(1/2)
      0.42857143 = coord(3/7)
    
    Abstract
    Mit einem Überblick über: Probleme, Methoden, Stand der Forschung u. Literatur.
    Date
    1. 3.2013 14:56:22

Languages

Types

  • a 916
  • i 129
  • m 37
  • r 34
  • x 30
  • b 29
  • p 21
  • s 20
  • n 19
  • l 3
  • More… Less…

Themes

Subjects

Classifications