Search (1263 results, page 1 of 64)

  • × type_ss:"el"
  1. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.13
    0.1327648 = product of:
      0.2655296 = sum of:
        0.06558075 = product of:
          0.1311615 = sum of:
            0.1311615 = weight(_text_:methoden in 4499) [ClassicSimilarity], result of:
              0.1311615 = score(doc=4499,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.64777184 = fieldWeight in 4499, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4499)
          0.5 = coord(1/2)
        0.13036454 = weight(_text_:techniken in 4499) [ClassicSimilarity], result of:
          0.13036454 = score(doc=4499,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.5430516 = fieldWeight in 4499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.023991954 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.023991954 = score(doc=4499,freq=4.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.04559235 = weight(_text_:der in 4499) [ClassicSimilarity], result of:
          0.04559235 = score(doc=4499,freq=14.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.5223744 = fieldWeight in 4499, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
      0.5 = coord(4/8)
    
    Abstract
    Mit dieser Diplomarbeit soll vor allem ein Überblick über den derzeitigen Stand der Technik der Methoden der Semantischen Netze, der Fuzzy-Logik sowie der regelbasierten Wissensrepräsentation und -verarbeitung gegeben werden. Anhand praktischer Anwendungen wird dargestellt, in welchen Bereichen diese Techniken eingesetzt werden und welcher Nutzen sich hieraus ergibt.
    Content
    Diplomarbeit zur Erlangung des Grades eines Diplom-Wirtschaftsinformatikers (FH) der Hochschule Wismar. Vgl.: http://www.wi.hs-wismar.de/~cleve/vorl/projects/da/DA-FS-Haas.pdf.
  2. Seefried, E.: ¬Die Gestaltbarkeit der Zukunft und ihre Grenzen : zur Geschichte der Zukunftsforschung (2015) 0.13
    0.12862979 = product of:
      0.20580766 = sum of:
        0.02898287 = product of:
          0.05796574 = sum of:
            0.05796574 = weight(_text_:methoden in 4312) [ClassicSimilarity], result of:
              0.05796574 = score(doc=4312,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.2862774 = fieldWeight in 4312, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4312)
          0.5 = coord(1/2)
        0.081477836 = weight(_text_:techniken in 4312) [ClassicSimilarity], result of:
          0.081477836 = score(doc=4312,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.33940727 = fieldWeight in 4312, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.035166327 = weight(_text_:und in 4312) [ClassicSimilarity], result of:
          0.035166327 = score(doc=4312,freq=22.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.40608138 = fieldWeight in 4312, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.046946127 = weight(_text_:der in 4312) [ClassicSimilarity], result of:
          0.046946127 = score(doc=4312,freq=38.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.5378853 = fieldWeight in 4312, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.013234494 = product of:
          0.026468989 = sum of:
            0.026468989 = weight(_text_:22 in 4312) [ClassicSimilarity], result of:
              0.026468989 = score(doc=4312,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.19345059 = fieldWeight in 4312, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4312)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Dieser Beitrag beleuchtet die Geschichte der Zukunftsforschung in der Bundesrepublik und in den westlichen Industriegesellschaften vom 19. Jahrhundert bis in die Gegenwart. Er charakterisiert die Vorläufer der modernen Zukunftsforschung am Beginn der europäischen "Hochmoderne" um 1900, stellt aber die Formierungs- und Transformationsphase der 1950er- bis frühen 1980er-Jahre in den Mittelpunkt. Zentrale Faktoren für die Konzeptionierung einer Meta-Disziplin Zukunftsforschung waren der Systemwettlauf des Kalten Krieges, welcher der Entwicklung von Methoden der Vorausschau und Planung Dynamik verlieh, und ein teilweise frappantes wissenschaftliches Vertrauen in diese neuen methodisch-theoretischen Zugänge und Techniken der Vorausschau - insbesondere die Kybernetik -, welche die Zukunft prognostizierbar und damit plan- und steuerbar zu machen schienen. Den Kontext bildeten eine gesellschaftliche Aufbruchstimmung und eine hohe politische Technik- und Planungsaffinität der 1960er-Jahre, welche das Verständnis der Zukunftsforschung bestärkten, dass der Mensch aus der Fülle der möglichen Zukünfte wählen und so die Zukunft geradezu frei gestalten könne. Dieses überzogene Machbarkeitsdenken betraf insbesondere die bundesdeutsche Zukunftsforschung. In den 1970er-Jahren wurden allerdings die Grenzen dieses Anspruchs deutlich. In der Folge pragmatisierte sich die Zukunftsforschung in methodischer Hinsicht. Nicht zuletzt trug dieser übersteigerte Machbarkeitsglaube der 1960er-Jahre dazu bei, dass die Zukunftsforschung in der Bundesrepublik lange wenig institutionalisiert war.
    Date
    22. 6.2018 13:47:33
  3. Perry, A.; Recker, J.: Sozialwissenschaftliche Forschungsdaten langfristig sichern und zugänglich machen : Herausforderungen und Lösungsansätze (2018) 0.12
    0.12058923 = product of:
      0.24117845 = sum of:
        0.031166462 = weight(_text_:und in 4353) [ClassicSimilarity], result of:
          0.031166462 = score(doc=4353,freq=12.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.35989314 = fieldWeight in 4353, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4353)
        0.0223854 = weight(_text_:der in 4353) [ClassicSimilarity], result of:
          0.0223854 = score(doc=4353,freq=6.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.25648075 = fieldWeight in 4353, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4353)
        0.15697506 = weight(_text_:sozialwissenschaftlichen in 4353) [ClassicSimilarity], result of:
          0.15697506 = score(doc=4353,freq=2.0), product of:
            0.30417487 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.039072596 = queryNorm
            0.51606846 = fieldWeight in 4353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.046875 = fieldNorm(doc=4353)
        0.030651545 = product of:
          0.06130309 = sum of:
            0.06130309 = weight(_text_:forschung in 4353) [ClassicSimilarity], result of:
              0.06130309 = score(doc=4353,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.32250258 = fieldWeight in 4353, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4353)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Sozialwissenschaftlerinnen und -wissenschaftler sind gemäß der guten wissenschaftlichen Praxis dazu angehalten, den Forschungsprozess möglichst transparent zu halten, ihre Forschungsergebnisse reproduzierbar zu machen und im Sinne von "Open Science" erhobene Daten für die Nachnutzung zur Verfügung zu stellen. Dies ist allerdings mit einigen Hürden verbunden. So müssen nachnutzbare Daten so dokumentiert werden, dass sie für Dritte auffindbar und verständlich sind. Gleichzeitig müssen personenbezogene Daten der Teilnehmenden ausreichend geschützt werden. Forschende sind hier auf Unterstützung angewiesen, um diesen Ansprüchen an die empirische Forschung gerecht zu werden. Dieser Artikel geht zunächst auf die Hürden bei der Bereitstellung von sozialwissenschaftlichen Forschungsdaten ein und stellt dann Dienstleistungen des GESIS Datenarchivs für Sozialwissenschaften vor, die Forschenden helfen, diese Hürden zu meistern.
  4. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.11
    0.10701467 = product of:
      0.21402934 = sum of:
        0.049185563 = product of:
          0.098371126 = sum of:
            0.098371126 = weight(_text_:methoden in 4322) [ClassicSimilarity], result of:
              0.098371126 = score(doc=4322,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.48582888 = fieldWeight in 4322, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4322)
          0.5 = coord(1/2)
        0.097773395 = weight(_text_:techniken in 4322) [ClassicSimilarity], result of:
          0.097773395 = score(doc=4322,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.4072887 = fieldWeight in 4322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.038170967 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.038170967 = score(doc=4322,freq=18.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.028899424 = weight(_text_:der in 4322) [ClassicSimilarity], result of:
          0.028899424 = score(doc=4322,freq=10.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3311152 = fieldWeight in 4322, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.5 = coord(4/8)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  5. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.11
    0.105577156 = product of:
      0.28153908 = sum of:
        0.06955889 = product of:
          0.13911778 = sum of:
            0.13911778 = weight(_text_:methoden in 4888) [ClassicSimilarity], result of:
              0.13911778 = score(doc=4888,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.6870658 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.5 = coord(1/2)
        0.025848432 = weight(_text_:der in 4888) [ClassicSimilarity], result of:
          0.025848432 = score(doc=4888,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.29615843 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.18613175 = sum of:
          0.12260618 = weight(_text_:forschung in 4888) [ClassicSimilarity], result of:
            0.12260618 = score(doc=4888,freq=2.0), product of:
              0.19008557 = queryWeight, product of:
                4.8649335 = idf(docFreq=926, maxDocs=44218)
                0.039072596 = queryNorm
              0.64500517 = fieldWeight in 4888, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8649335 = idf(docFreq=926, maxDocs=44218)
                0.09375 = fieldNorm(doc=4888)
          0.063525565 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
            0.063525565 = score(doc=4888,freq=2.0), product of:
              0.13682558 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.039072596 = queryNorm
              0.46428138 = fieldWeight in 4888, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=4888)
      0.375 = coord(3/8)
    
    Abstract
    Mit einem Überblick über: Probleme, Methoden, Stand der Forschung u. Literatur.
    Date
    1. 3.2013 14:56:22
  6. Mayr, P.; Petras, V.: Crosskonkordanzen : Terminologie Mapping und deren Effektivität für das Information Retrieval 0.09
    0.08704198 = product of:
      0.17408396 = sum of:
        0.033192787 = weight(_text_:und in 1996) [ClassicSimilarity], result of:
          0.033192787 = score(doc=1996,freq=10.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.38329202 = fieldWeight in 1996, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1996)
        0.07901475 = weight(_text_:organisation in 1996) [ClassicSimilarity], result of:
          0.07901475 = score(doc=1996,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.3954754 = fieldWeight in 1996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1996)
        0.0261163 = weight(_text_:der in 1996) [ClassicSimilarity], result of:
          0.0261163 = score(doc=1996,freq=6.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.29922754 = fieldWeight in 1996, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1996)
        0.035760134 = product of:
          0.07152027 = sum of:
            0.07152027 = weight(_text_:forschung in 1996) [ClassicSimilarity], result of:
              0.07152027 = score(doc=1996,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.376253 = fieldWeight in 1996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1996)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Das Bundesministerium für Bildung und Forschung hat eine große Initiative zur Erstellung von Crosskonkordanzen gefördert, die 2007 zu Ende geführt wurde. Die Aufgabe dieser Initiative war die Organisation, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) in den Sozialwissenschaften und anderen Fachgebieten. 64 Crosskonkordanzen mit mehr als 500.000 Relationen wurden umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Crosskonkordanz-Arbeit und die Evaluationsergebnisse.
  7. Bredemeier, W.: Podiumsdiskussion "Zukunft wissenschaftlicher Bibliotheken?!" : Mit provokanten Thesen an neues Format angepasst (2020) 0.09
    0.08559228 = product of:
      0.13694765 = sum of:
        0.017389722 = product of:
          0.034779444 = sum of:
            0.034779444 = weight(_text_:methoden in 5739) [ClassicSimilarity], result of:
              0.034779444 = score(doc=5739,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.17176645 = fieldWeight in 5739, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5739)
          0.5 = coord(1/2)
        0.048886698 = weight(_text_:techniken in 5739) [ClassicSimilarity], result of:
          0.048886698 = score(doc=5739,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.20364435 = fieldWeight in 5739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.031166462 = weight(_text_:und in 5739) [ClassicSimilarity], result of:
          0.031166462 = score(doc=5739,freq=48.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.35989314 = fieldWeight in 5739, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.024178991 = weight(_text_:der in 5739) [ClassicSimilarity], result of:
          0.024178991 = score(doc=5739,freq=28.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.27703083 = fieldWeight in 5739, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.015325773 = product of:
          0.030651545 = sum of:
            0.030651545 = weight(_text_:forschung in 5739) [ClassicSimilarity], result of:
              0.030651545 = score(doc=5739,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.16125129 = fieldWeight in 5739, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5739)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Auf der Veranstaltung "Zukunft wissenschaftlicher Bibliotheken?!" in Trägerschaft von ZB MED und Open Password wurde die auf Präsenzveranstaltungen übliche Podiumsdiskussion durch eine virtuelle Lösung ersetzt. Diese wurde an das neue Format angepasst, weil man einander in einer virtuellen Veranstaltung "noch weniger ins Wort fallen kann" als auf einer Präsenztagung (Moderatorin Miriam Albers): Es wurden vorab teils provokante Thesen formuliert, zu denen die Referenten maximal zwei Minuten lang Stellung nehmen sollten. Von den vier Thesen sollten sie zu mindestens dreien einen Kommentar abgeben. Im Folgenden einige Kernthesen aus den Kommentaren, wie sie der Rezensent verstanden hat.
    Content
    These 1: Wissenschaftliche Bibliotheken zwischen Formalerschließung und Forschungsdatenmanagement: Was ist Kunst und was kann weg? Maschine, übernehmen Sie! Wir Humans wenden uns interessanteren Themen zu Bleiben muss, was tatsächlich nachgefragt und nach der Einschätzung und den Prognosen der Experten auf der Basis von Kriterien längerfristig aufgehoben werden sollte (selbst wenn momentan keine Nachfrage danach besteht). Es wird keine einfachen Antworten geben, aber es ist ein Stück bibliothekarische Kompetenz, diese Antworten zu finden (Nelle). Bleiben muss, was nachgefragt wird und der Community dient und eine starke Relevanz besitzt. Gute Kunst ist, was von Herzen kommt und authentisch ist. Also sollte man nicht alles mitmachen, wenn wieder wie beispielsweise vor zwanzig Jahren mit der "Informationskompetenz" eine neue Sau durchs Dorf getrieben wird (Christensen).
    These 2: Data Librarian, Systembibliothekar und Co.: Welche Qualifikationen brauchen wir und wie lassen sich diese rekrutieren? Über den Tellerrand schauen, in drei Welten beheimatet sein, sich selbst die gerade erforderlichen Fähigkeiten beibringen Bibliothekare sind häufig mit Managementaufgaben befasst und müssen sich immer wieder an Prozesse, Projekte, Zieldefinitionen, überhaupt an dem großen Ganzen orientieren. Aber sie verfügen lediglich über eine fachliche Ausbildung. Sollte nicht eine Managementqualifikation hinzukommen? (Albers). Dem könne er nur zustimmen, sagte Konrad Förstner. Von ähnlich zentraler Bedeutung sei zudem die Kommunikationskompetenz und die Fähigkeit, sich selbst Wissen anzueignen. Die Techniken verändern sich mittlerweile derart rapide, dass der Bibliothekar sich in einem sich bewegenden Feld der Anforderungen befindet und sich bemühen muss, die neu erforderlichen Qualifizierungen fortlaufend zu akquirieren. Das ist eine sehr schwierige Aufgabe (beispielsweise auch die, eine solche Fähigkeit vermitteln), so dass man die Leute langsam in diese Qualifikation hineinwachsen lassen sollte. Andererseits ist diese Kompetenz nicht nur in Bibliotheken, vielmehr überall gefragt und gibt es dazu keine Alternative (Förstner).
    These 3: Citizen Science: Die breite Öffentlichkeit als wichtige Zielgruppe für Wissenschaftliche Bibliotheken? Bibliotheken sollten Bürger befähigen, wissenschaftlichen Prozess zu verstehen Bei Citizen Science sind zwei Aspekte zu unterscheiden: die Bürger an der Forschung zu beteiligen (beispielsweise mit dem Sammeln von Daten), auf dass sie selbst einen Mehrwert für die Entwicklung neuer bibliothekarischer Methoden zu schaffen - die Bürger an die Wissenschaft heranzuführen und Verständnis für diese zu vermitteln. Dabei sollte die Bibliothek als Ansprechpartner für belastbares Wissen, für Evidenzbasierung und gute Empirie fungieren. Sie hat die Fragen zu beantworten: Welches Wissen ist vertrauenswürdig und unter welchen Vorussetzungen kann ich ein bestimmtes Wissen nutzen? Dies ist eine Kernaufgabe nicht jeder einzelnen wissenschaftlichen Bibliothek, aber der wissenschaftlichen Bibliotheken insgesamt (Nelle).
    These 4: Wissenschaftliche Bibliotheken und Privatwirtschaft: Notwendig, sinnvoll oder verwerflich? Keiner der Referenten sah die Zusammenarbeit zwischen Wissenschaft und Wirtschaft als verwerflich an, aber in jedem Statement wurden mögliche Gefahren und Problematiken einer solchen Zusammenarbeit betont. Wissenschaft und Gesellschaft sollten sich in einen interaktiven Austausch zum wechselseitigen Vorteil begeben und die Wirtschaft ist ein wesentlicher Teil der Gesellschaft. Allerdings kommt es auf die Setzung geeigneter Rahmenbedingungen an. Die Wissenschaft darf sich nicht in einseitige Abhängigkeiten begeben. Zudem hat die Bibliothek ihr Wissen nach vielen Seiten zur Verfügung zu stellen (Nelle). Anne Christensen, die sich erst vor fünf Monaten aus einer wissenschaftlichen Bibliothek in die Privatwirtschaft begeben hatte, machte bereits die Erfahrung, dass sie nicht mehr uneingeschränkt Teil der Bibliotheksgemeinschaft ist, schon weil sie das Privileg verloren hat, keine Umsätze machen zu müssen. Große private Anbieter wie EBSCO haben wichtigen Projekten einen großen Schub gegeben, weniger wegen ihres Know hows, sondern weil sie anders als die beteiligten wissenschaftlichen Bibliotheken über ausreichende Entwicklungsressourcen geboten. Aber die Bibliotheken müssen in jedem Fall ihre Unabhängigkeit bewahren und die Hoheit über die eigenen Daten und Dienste behalten (Christensen).
  8. Lehmann, K.: Braucht der menschliche Hippokampus neue Nervenzellen? (2018) 0.08
    0.077439226 = product of:
      0.2065046 = sum of:
        0.13036454 = weight(_text_:techniken in 5379) [ClassicSimilarity], result of:
          0.13036454 = score(doc=5379,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.5430516 = fieldWeight in 5379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=5379)
        0.033929747 = weight(_text_:und in 5379) [ClassicSimilarity], result of:
          0.033929747 = score(doc=5379,freq=8.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.39180204 = fieldWeight in 5379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5379)
        0.04221031 = weight(_text_:der in 5379) [ClassicSimilarity], result of:
          0.04221031 = score(doc=5379,freq=12.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4836247 = fieldWeight in 5379, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5379)
      0.375 = coord(3/8)
    
    Abstract
    Es gibt nur zwei Gebiete im Großhirn der Säugetiere, in denen noch nach der Geburt neue Nervenzellen entstehen: die Wand der Seitenventrikel und der Gyrus dentatus im Hippokampus. Seitdem Techniken zur Verfügung stehen, um die neuen Zellen einfach und zuverlässig anzufärben, fasziniert dieser Vorgang Wissenschaftler und Laien, verspricht Erneuerung doch intuitiv so etwas wie Jugend, Offenheit, Lernfähigkeit.
    Content
    Vgl. auch: https://www.heise.de/tp/features/Vielleicht-doch-keine-neuen-Nervenzellen-im-Gehirn-na-und-4041070.html?view=print.
    Source
    https://www.heise.de/tp/features/Braucht-der-menschliche-Hippokampus-neue-Nervenzellen-4038079.html?view=print
  9. Baierer, K.; Zumstein, P.: Verbesserung der OCR in digitalen Sammlungen von Bibliotheken (2016) 0.08
    0.07554496 = product of:
      0.15108992 = sum of:
        0.046372592 = product of:
          0.092745185 = sum of:
            0.092745185 = weight(_text_:methoden in 2818) [ClassicSimilarity], result of:
              0.092745185 = score(doc=2818,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.45804384 = fieldWeight in 2818, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2818)
          0.5 = coord(1/2)
        0.029384023 = weight(_text_:und in 2818) [ClassicSimilarity], result of:
          0.029384023 = score(doc=2818,freq=6.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.33931053 = fieldWeight in 2818, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
        0.034464575 = weight(_text_:der in 2818) [ClassicSimilarity], result of:
          0.034464575 = score(doc=2818,freq=8.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3948779 = fieldWeight in 2818, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
        0.040868726 = product of:
          0.08173745 = sum of:
            0.08173745 = weight(_text_:forschung in 2818) [ClassicSimilarity], result of:
              0.08173745 = score(doc=2818,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.43000343 = fieldWeight in 2818, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2818)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Möglichkeiten zur Verbesserung der automatischen Texterkennung (OCR) in digitalen Sammlungen insbesondere durch computerlinguistische Methoden werden beschrieben und bisherige PostOCR-Verfahren analysiert. Im Gegensatz zu diesen Möglichkeiten aus der Forschung oder aus einzelnen Projekten unterscheidet sich die momentane Anwendung von OCR in der Bibliothekspraxis wesentlich und nutzt das Potential nur teilweise aus.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/155/353.
  10. Bach, N.: ¬Die nächste PID-Evolution : selbstsouverän, datenschutzfreundlich, dezentral (2021) 0.07
    0.07185228 = product of:
      0.14370456 = sum of:
        0.02898287 = product of:
          0.05796574 = sum of:
            0.05796574 = weight(_text_:methoden in 539) [ClassicSimilarity], result of:
              0.05796574 = score(doc=539,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.2862774 = fieldWeight in 539, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=539)
          0.5 = coord(1/2)
        0.025972052 = weight(_text_:und in 539) [ClassicSimilarity], result of:
          0.025972052 = score(doc=539,freq=12.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.29991096 = fieldWeight in 539, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=539)
        0.05643911 = weight(_text_:organisation in 539) [ClassicSimilarity], result of:
          0.05643911 = score(doc=539,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.28248245 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0390625 = fieldNorm(doc=539)
        0.032310538 = weight(_text_:der in 539) [ClassicSimilarity], result of:
          0.032310538 = score(doc=539,freq=18.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.37019804 = fieldWeight in 539, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=539)
      0.5 = coord(4/8)
    
    Abstract
    Dieser Beitrag behandelt den zuletzt vom W3C hervorgebrachten Standard für dezentrale Identi­fikatoren (Decentralized Identifiers, kurz: DIDs) in Bezug auf den Bereich des Forschungsdatenmanagements. Es wird dargelegt, dass die aktuell im wissenschaftlichen Publikationswesen häufig verwendeten persistenten Identifikatorensysteme (Persistent Identifiers, PIDs) wie Handle, DOI, ORCID und ROR aufgrund ihrer Zentralisierung fundamentale Probleme hinsichtlich der Daten­sicherheit, dem Datenschutz und bei der Sicherstellung der Datenintegrität aufweisen. Dem werden als mögliche Lösung das System der DIDs gegenübergestellt: eine neuartige Form von weltweit eindeutigen Identifikatoren, die durch jedes Individuum oder jede Organisation selbst generiert und auf jeder als vertrauenswürdig erachteten Plattform betrieben werden können. Blockchains oder andere Distributed-Legder-Technologien können dabei als vertrauenswürdige Datenregister fungieren, aber auch direkte Peer-to-Peer-Verbindungen, auf bestehende Internetprotokolle aufsetzende Methoden oder statische DIDs sind möglich. Neben dem Schema wird die technische Spezifikation im Sinne von Datenmodell und die Anwendung von DIDs erläutert sowie im Vergleich die Unterschiede zu zentralisierten PID-Systemen herausgestellt. Zuletzt wird der Zusammenhang mit dem zugrundeliegenden neuen Paradigma einer dezentralen Identität, der Self-Sovereign Identity, hergestellt. SSI repräsentiert ein gesamtes Ökosystem, in dem Entitäten ein kryptografisch gesichertes Vertrauensnetzwerk auf der Basis von DIDs und digitalen Identitätsnachweisen bilden, um dezentral manipulationsgesichert und datenschutzgerecht identitätsbezogene Daten auszutauschen. Zum Schluss der Abhandlung stellt der Autor fünf zuvor herausgearbeitete Anforderungen in Bezug auf eine zeitgemäße Umsetzung von persistenten Identifikatoren vor.
  11. Voß, J.: ¬Das Simple Knowledge Organisation System (SKOS) als Kodierungs- und Austauschformat der DDC für Anwendungen im Semantischen Web (2007) 0.07
    0.0700311 = product of:
      0.18674959 = sum of:
        0.025447309 = weight(_text_:und in 243) [ClassicSimilarity], result of:
          0.025447309 = score(doc=243,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.29385152 = fieldWeight in 243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=243)
        0.13545385 = weight(_text_:organisation in 243) [ClassicSimilarity], result of:
          0.13545385 = score(doc=243,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.67795783 = fieldWeight in 243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.09375 = fieldNorm(doc=243)
        0.025848432 = weight(_text_:der in 243) [ClassicSimilarity], result of:
          0.025848432 = score(doc=243,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.29615843 = fieldWeight in 243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=243)
      0.375 = coord(3/8)
    
  12. Treude, L.: ¬Das Problem der Konzeptdefinition in der Wissensorganisation : über einen missglückten Versuch der Klärung (2013) 0.07
    0.069920294 = product of:
      0.13984059 = sum of:
        0.022038016 = weight(_text_:und in 3060) [ClassicSimilarity], result of:
          0.022038016 = score(doc=3060,freq=6.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.2544829 = fieldWeight in 3060, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3060)
        0.067726925 = weight(_text_:organisation in 3060) [ClassicSimilarity], result of:
          0.067726925 = score(doc=3060,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.33897892 = fieldWeight in 3060, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.046875 = fieldNorm(doc=3060)
        0.03419426 = weight(_text_:der in 3060) [ClassicSimilarity], result of:
          0.03419426 = score(doc=3060,freq=14.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3917808 = fieldWeight in 3060, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3060)
        0.015881391 = product of:
          0.031762782 = sum of:
            0.031762782 = weight(_text_:22 in 3060) [ClassicSimilarity], result of:
              0.031762782 = score(doc=3060,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.23214069 = fieldWeight in 3060, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3060)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Alon Friedman und Richard P. Smiraglia kündigen in ihrem aktuellen Artikel "Nodes and arcs: concept map, semiotics, and knowledge organization" an, eine "empirical demonstration of how the domain [of knowledge organisation] itself understands the meaning of a concept" durchzuführen. Die Klärung des Konzeptbegriffs ist ein begrüßenswertes Vorhaben, das die Autoren in einer empirischen Untersuchung von concept maps (also Konzeptdiagrammen) aus dem Bereich der Wissensorganisation nachvollziehen wollen. Beschränkte sich Friedman 2011 in seinem Artikel "Concept theory and semiotics in knowledge organization" [Fn 01] noch ausschließlich auf Sprache als Medium im Zeichenprozess, bezieht er sich nun auf Visualisierungen als Repräsentationsform und scheint somit seinen Ansatz um den Aspekt der Bildlichkeit zu erweitern. Zumindest erwartet man dies nach der Lektüre der Beschreibung des aktuellen Vorhabens von Friedman und Smiraglia, das - wie die Autoren verkünden - auf einer semiotischen Grundlage durchgeführt worden sei.
    Source
    LIBREAS: Library ideas. no.22, 2013, S.xx-xx
  13. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 2: Wie sich "Informationskompetenz" methodisch-operativ untersuchen lässt Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.07
    0.06780659 = product of:
      0.13561317 = sum of:
        0.034779444 = product of:
          0.06955889 = sum of:
            0.06955889 = weight(_text_:methoden in 346) [ClassicSimilarity], result of:
              0.06955889 = score(doc=346,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.3435329 = fieldWeight in 346, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.046875 = fieldNorm(doc=346)
          0.5 = coord(1/2)
        0.035987932 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.035987932 = score(doc=346,freq=16.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.41556883 = fieldWeight in 346, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.03419426 = weight(_text_:der in 346) [ClassicSimilarity], result of:
          0.03419426 = score(doc=346,freq=14.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3917808 = fieldWeight in 346, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.030651545 = product of:
          0.06130309 = sum of:
            0.06130309 = weight(_text_:forschung in 346) [ClassicSimilarity], result of:
              0.06130309 = score(doc=346,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.32250258 = fieldWeight in 346, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.046875 = fieldNorm(doc=346)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    In Teil 1 dieser Themenreihe zur Informationskompetenz wurde auf das Versäumnis der Bibliotheks- und Informationswissenschaft hingewiesen, das die Schlüsselqualifikation der Informations- und Medienkompetenz für die Lösung von Desinformationsproblemen für die eigene Forschung und Lehre in Anspruch nimmt, den damit implizit eingegangenen Verpflichtungen aber nicht nachkommt oder nicht nachkommen kann. Wenn zum Beispiel Informationskompetenz an Schulen vermittelt werden soll, dann müssten den Lehrern konkrete Handlungsanweisungen und Methoden an die Hand gegeben werden, um den Grad der (persönlichen) Informationskompetenz operativ messbar zu machen, zu testen und vor allem zu spezifizieren, was unter dem angeblich omnipotenten Begriff der Informationskompetenz zu verstehen sei. Das wird nicht geleistet.
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  14. Weber, S.: Eine Million Bücher mit automatisch erzeugten Texten (2018) 0.07
    0.067719884 = product of:
      0.18058635 = sum of:
        0.11406896 = weight(_text_:techniken in 4504) [ClassicSimilarity], result of:
          0.11406896 = score(doc=4504,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.47517014 = fieldWeight in 4504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4504)
        0.036360875 = weight(_text_:und in 4504) [ClassicSimilarity], result of:
          0.036360875 = score(doc=4504,freq=12.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.41987535 = fieldWeight in 4504, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4504)
        0.030156504 = weight(_text_:der in 4504) [ClassicSimilarity], result of:
          0.030156504 = score(doc=4504,freq=8.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.34551817 = fieldWeight in 4504, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4504)
      0.375 = coord(3/8)
    
    Abstract
    Wenn Künstliche Intelligenz eine Doktorarbeit schreiben kann, was heißt dann Bildung? Interview mit dem Verleger Philip M. Parker. Im deutschsprachigen Raum ist er fast ein Unbekannter: Der in Singapur lehrende Wirtschaftswissenschaftler und Unternehmer Philip M. Parker. Der von ihm gegründete Buchverlag ICON Group International hat mehr als eine Million verschiedener Bücher publiziert, deren Inhalte komplett automatisch generiert wurden. Mit Apps, Spielen und Lehrbüchern zu landwirtschaftlichen Techniken, Lesen und Rechnen - auch diese allesamt komplett automatisch erzeugt - will er die Alphabetisierung und Bildung in der Dritten Welt vorantreiben. Sein Programm "Totopoetry" erzeugt automatisch Perlen der Dichtkunst, wie er eindrucksvoll zeigen kann. Und nun will Parker auch noch die Wikipedia revolutionieren: natürlich mit Bots, die die Inhalte automatisch erstellen und übersetzen.
  15. Mache, B.; Klaffki, L.: ¬Das DARIAH-DE Repository : Elementarer Teil einer modularen Infrastruktur für geistes- und kulturwissenschaftliche Forschungsdaten (2018) 0.07
    0.06534432 = product of:
      0.13068864 = sum of:
        0.04057602 = product of:
          0.08115204 = sum of:
            0.08115204 = weight(_text_:methoden in 4485) [ClassicSimilarity], result of:
              0.08115204 = score(doc=4485,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.40078837 = fieldWeight in 4485, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4485)
          0.5 = coord(1/2)
        0.03927423 = weight(_text_:und in 4485) [ClassicSimilarity], result of:
          0.03927423 = score(doc=4485,freq=14.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4535172 = fieldWeight in 4485, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4485)
        0.015078252 = weight(_text_:der in 4485) [ClassicSimilarity], result of:
          0.015078252 = score(doc=4485,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.17275909 = fieldWeight in 4485, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4485)
        0.035760134 = product of:
          0.07152027 = sum of:
            0.07152027 = weight(_text_:forschung in 4485) [ClassicSimilarity], result of:
              0.07152027 = score(doc=4485,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.376253 = fieldWeight in 4485, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4485)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    DARIAH-DE unterstützt mit digitalen Ressourcen und Methoden arbeitende Geistes- und Kulturwissenschaftler/innen in Forschung und Lehre. Forschungsdaten und Wissenschaftliche Sammlungen haben dabei eine zentrale Bedeutung. Im Rahmen einer Forschungsdaten-Föderationsarchitektur stehen eine Reihe von Werkzeugen zur Verfügung, mit denen Daten gefunden, vernetzt, publiziert und archiviert werden können. Hierzu zählt auch das DARIAH-DE Repository, das den Forschenden eine sichere, langfristige und nachhaltige Speicherung sowie die Veröffentlichung der Forschungsdaten ermöglicht.
  16. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.06
    0.062211104 = product of:
      0.16589628 = sum of:
        0.11406896 = weight(_text_:techniken in 1047) [ClassicSimilarity], result of:
          0.11406896 = score(doc=1047,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.47517014 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.025711019 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.025711019 = score(doc=1047,freq=6.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.0261163 = weight(_text_:der in 1047) [ClassicSimilarity], result of:
          0.0261163 = score(doc=1047,freq=6.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.29922754 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.375 = coord(3/8)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
    Source
    https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
  17. Lusti, M.: Data Warehousing and Data Mining : Eine Einführung in entscheidungsunterstützende Systeme (1999) 0.06
    0.06065097 = product of:
      0.12130194 = sum of:
        0.046372592 = product of:
          0.092745185 = sum of:
            0.092745185 = weight(_text_:methoden in 4261) [ClassicSimilarity], result of:
              0.092745185 = score(doc=4261,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.45804384 = fieldWeight in 4261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4261)
          0.5 = coord(1/2)
        0.029384023 = weight(_text_:und in 4261) [ClassicSimilarity], result of:
          0.029384023 = score(doc=4261,freq=6.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.33931053 = fieldWeight in 4261, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4261)
        0.024370136 = weight(_text_:der in 4261) [ClassicSimilarity], result of:
          0.024370136 = score(doc=4261,freq=4.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.27922085 = fieldWeight in 4261, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4261)
        0.021175189 = product of:
          0.042350378 = sum of:
            0.042350378 = weight(_text_:22 in 4261) [ClassicSimilarity], result of:
              0.042350378 = score(doc=4261,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.30952093 = fieldWeight in 4261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4261)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Im Mittelpunkt dieses anwendungsbezogenen Lehrbuchs stehen Architekturen, Methoden und Werkzeuge entscheidungsunterstützender Systeme. Beispiele und Aufgaben ermöglichen die Entwicklung von Anwendungen mit der Demonstrationssoftware der CD-ROM. Eine interaktive Foliensammlung veranschaulicht den Buchtext und verweist auf zusätzliches Lernmaterial
    Date
    17. 7.2002 19:22:06
  18. Stocker, G.; Bruck, P.A.: Öffentliche Bibliotheken im Informationszeitalter : Ergebnisse des Forschungsprojekts: Die Digitale Bibliothek (1996) 0.06
    0.05976868 = product of:
      0.15938315 = sum of:
        0.025447309 = weight(_text_:und in 6478) [ClassicSimilarity], result of:
          0.025447309 = score(doc=6478,freq=8.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.29385152 = fieldWeight in 6478, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6478)
        0.040869962 = weight(_text_:der in 6478) [ClassicSimilarity], result of:
          0.040869962 = score(doc=6478,freq=20.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.46826762 = fieldWeight in 6478, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6478)
        0.09306587 = sum of:
          0.06130309 = weight(_text_:forschung in 6478) [ClassicSimilarity], result of:
            0.06130309 = score(doc=6478,freq=2.0), product of:
              0.19008557 = queryWeight, product of:
                4.8649335 = idf(docFreq=926, maxDocs=44218)
                0.039072596 = queryNorm
              0.32250258 = fieldWeight in 6478, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8649335 = idf(docFreq=926, maxDocs=44218)
                0.046875 = fieldNorm(doc=6478)
          0.031762782 = weight(_text_:22 in 6478) [ClassicSimilarity], result of:
            0.031762782 = score(doc=6478,freq=2.0), product of:
              0.13682558 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.039072596 = queryNorm
              0.23214069 = fieldWeight in 6478, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=6478)
      0.375 = coord(3/8)
    
    Abstract
    Der gegenwärtige Wandel zur Informationsgesellschaft betrifft auch die Bibliotheken. Schlagworte wie "virtuelle Bibliothek" oder "digitale Bibliothek" tauchen immer häufiger in der Bibliothekslandschaft auf. Die Bücher-Bibliotheken" werden nicht verschwinden, aber sie müssen sich der Herausforderung der Informationsgesellschaft stellen und ihre Rolle neu definieren. Wissenschaftliche Bibliotheken nehmen sich bereits seit einiger Zeit der neuen Informations- und Kommunikationstechnologien an, aber auch für die Öffentlichen Bibliotheken besteht Handlungsbedarf. Das Land Salzburg hat deshalb eine Studie mit dem Titel "Die Digitale Bibliothek" bei der Techno-Z Fachhochschule Forschung und Entwicklung GmbH in Auftrag gegeben, die Strategien für die Weiterentwicklung der Öffentlichen Bibliotheken des Landes im Informationszeitalter entwickeln soll. Die Ergebnisse dieser Studie sind nicht nur für die Öffentlichen Bibliotheken im Land Salzburg von Interesse, sondern betreffen auch andere Regionen und deren Bibliothekslandschaft. Aufgrund der großen Nachfrage haben wir uns daher zu einem Sonderdruck des Heftes 15 der "Materialien zur Weiterbildung in Salzburg" mit den wichtigsten Ergebnisse der Studie entschlossen. So liegt neben dem umfangreichen Endbericht eine Kurzfassung vor. Diese Kurzfassung haben wir für Sie via Internet zugänglich gemacht.
    Date
    16. 8.2001 18:03:22
  19. Rieble, V.: Wer hat die Wissensbilanz erfunden? (2011) 0.06
    0.057295658 = product of:
      0.114591315 = sum of:
        0.020493984 = product of:
          0.04098797 = sum of:
            0.04098797 = weight(_text_:methoden in 4430) [ClassicSimilarity], result of:
              0.04098797 = score(doc=4430,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.2024287 = fieldWeight in 4430, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4430)
          0.5 = coord(1/2)
        0.032247905 = weight(_text_:und in 4430) [ClassicSimilarity], result of:
          0.032247905 = score(doc=4430,freq=74.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.37238106 = fieldWeight in 4430, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4430)
        0.028219555 = weight(_text_:organisation in 4430) [ClassicSimilarity], result of:
          0.028219555 = score(doc=4430,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.14124122 = fieldWeight in 4430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4430)
        0.033629872 = weight(_text_:der in 4430) [ClassicSimilarity], result of:
          0.033629872 = score(doc=4430,freq=78.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3853143 = fieldWeight in 4430, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4430)
      0.5 = coord(4/8)
    
    Abstract
    Plagiate sind besonders pikant, wenn sie von Ministerien verantwortet werden. Original und Weiterentwicklung sind kaum noch zu unterscheiden, die Quelle bleibt ungenannt.
    Content
    "14. Mai 2011 - Wissensbilanzen sind ein Instrument des Wissensmanagements: Es geht darum, das in Organisationen und also in Unternehmen vorhandene individuelle und kollektive (organisationale) Humankapital zu erfassen und als Ressource nutzbar zu machen. Deutsche haben die Nase gefühlt vorn und feiern dies nächste Woche mit dem Kongress "Standortvorteil Wissen" in Berlin (am 19. und 20. Mai). 2004 hat das Wirtschaftsministerium erkannt, dass Wissensgesellschaften im Wissenswettbewerb stehen und dabei eigenes und fremdes Wissen in höchst komplexer Weise erfassen, steuern und nutzen müssen. Den steuernd-strategischen Wissenszugriff zugunsten des eigenen Wissensstandortes hat das Ministerium in größtmöglicher wissender Weitsicht gemeinsam mit dem Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik (IPK) entwickelt. Im Zentrum steht die Wissensbilanz, die 2004 und 2005 in einer vom Ministerium herausgegebenen und von IPK-Wissenschaftlern verfassten Broschüre "Wissensbilanz - Made in Germany" vorgestellt wird. 2008 erscheint die "Wissensbilanz 2.0", wieder mit dem Herstellungszusatz (online abrufbar). Das Projekt ist auf Wissenstransfer ausgelegt und wird vermarktet: Wissensmoderatoren stehen zum kostenpflichtigen Einsatz auch in Ihrem Unternehmen bereit.
    Die Wissensbilanz hat einen hübschen Nebeneffekt: Sie kann helfen, Plagiate abzuwehren, weil das Wissen um das eigene Wissen steigt und Schutzvorkehrungen gegen Wissensdiebe installiert werden können. So weit, so schön. Beim Feiern eigener Wissensbewirtschaftungserfolge bleibt die Skepsis ausgeschlossen. Skepsis in der Sache heißt: Wie kann ich wissen, was ich weiß? Was ist überhaupt "Wissen"? Ist das organisationale Wissen nicht ein zu komplexes Phänomen, als dass jede konkrete Aussage eine (unzulässige) Wissensanmaßung bedeutet - wie das von Hayek mit Blick auf Marktverhältnisse herausgearbeitet hat? Ist nicht für ein solches Wissensbilanzsystem der mathematisch-formale Unvollständigkeitssatz von Gödel aufzugreifen: Wenn kein Aussagensystem eine valide Aussage über sich selbst treffen kann, dann ist die Aussage über das vorhandene organisationale Wissen in der Organisation von dieser selbst gerade nicht zu leisten. Man kann nicht selbst wissen, was man weiß. Damit erzeugen der "ganzheitliche" Anspruch und die fehlende Messbarkeit eine wabernde Wissensunschärfe! - Der Werbespruch "Made in Germany" ist eine Täuschung Der vom Wissenschaftsministerium tönende Werbespruch "Made in Germany" ist nicht bloß anmaßend, sondern eine Täuschung. Wer bei Wikipedia unter Wissensbilanz zu suchen anfängt, dem wird offenbar, dass es sich mitnichten um eine deutsche Erfindung oder gar ein deutsches Konzept handelt. Die Ricola-Frage "Wer hat's erfunden?" darf diesmal aus Österreich gestellt werden: Neu ist der Ansatz von Wirtschaftsministerium und Fraunhofer-Institut nämlich nicht. Die Idee, solches "Intellectual Capital" als Wert zu erfassen und in den Finanzbericht einzustellen (IC Reporting), stammt aus Skandinavien (Sveiby, Edvinsson, Mouritsen). Der wesentliche Schritt zu einer komplexen "mehrdimensionalen" und steuerungstauglichen Methode wurde im Austrian Research Center (ARC, heute: AIT Austrian Institute of Technology) getan und schon 2000 publiziert (Koch, Leitner und Bornemann in einem Papier für die OECD-Konferenz). Die "Wissensstrategie" fordert strategische Wissensziele; das Wissenspotential wird verstanden als "Humankapital", "Beziehungskapital" und "Strukturkapital". Entscheidend aber ist die Prozesssteuerung, also die dynamische Betrachtung, die es den Organisationen erlaubt, ihr Wissenskapital gezielt zu erhalten und zu vermehren. Schon 2002 wurde daraus eine gesetzliche Verpflichtung für österreichische Universitäten zur Wissensbilanzierung.
    Das "deutsche" Modell ist, um es vorsichtig zu sagen, dem österreichischen doch sehr ähnlich. Das betrifft sowohl die Einteilung des Wissenskapitals als auch den Steuerungsansatz. Die Entwicklungsgeschichte des Konzepts vom Wissenskapital zeigt der Ricardis-Bericht (Ricardis steht für Reporting Intellectual Capital to Augment Research, Development and Innovation in SMEs) der Europäischen Union auf; aufschlussreich sind Seite 61 und folgende und das Literaturverzeichnis. Wie nun sind die "Deutschen" vorgegangen, um zu einem "Made in Germany" zu gelangen? Sie engagierten ausländische Pioniere, einmal Kivikas, der in Schweden als Mitarbeiter von Professor Edvinsson arbeitete, und zum anderen Bornemann aus der österreichischen Forschungsgruppe um Professor Koch - und zwar in einem Projektkonsortium, das schließlich in den deutschen Arbeitskreis Wissensbilanz (Alwert, Bornemann, Kivikas) mündet. Ein weiterer Mitarbeiter aus Österreich (Leitner) wird in das Expertenteam berufen. Im Leitfaden wird behauptet, der eigene Ansatz baue auf "den Methoden der skandinavischen Wissensbilanz-Pioniere" auf. Immerhin gibt es einen Fußnotenhinweis. Ganz nach Bauernopferart werden verschiedene "neuere Ansätze" vorgestellt, in einer Fußnote auch der des ARC. Eine kühne Idee: Man schnappt sich die Mitarbeiter der (ausländischen) Vordenker und gibt das Produkt des eigenen Nach-Denkens als Original aus. Das ist so, als hätte Porsche nach der damaligen Hilfe durch japanische Ingenieure vom kontinuierlichen Verbesserungsprozess als deutscher Erfindung gesprochen.
    - Die Zitierweise in den Ministeriums-Leitfäden ist als selektiv zu werten In der Broschüre "Wissensbilanz 2.0" wird die eigene Forscherbrust nicht mehr ganz so keck gereckt. Zwischenzeitliche Internetpublikationen zeigen die erstaunliche Ähnlichkeit. Nun wird der Begriff der Wissensbilanz den Österreichern gutgeschrieben (S. 53). "Ähnlichkeiten in den abstrakten Modellen und im Namen" werden zugegeben. Doch dann folgt der große Rechtfertigungsversuch: Die "Methoden zur Wissensbilanzierung" unterschieden sich "teilweise erheblich". Das behauptete Alleinstellungsmerkmal der Steuerungsbezogenheit ist im österreichischen Modell mehr als nur vorhanden. Und die spezifisch deutsche "workshopbasierte Selbstbewertungsmethode" kann schwerlich als herausragende Weiterentwicklung gesehen werden. Im Literaturverzeichnis taucht nun auch der zentrale publizierte Beitrag der Österreicher aus dem Jahre 2000 auf, der es irgendwie nicht in die Erstauflage 2004 geschafft hatte. "Teilweise erheblich" ist eine kühne Unterscheidung, denn sie gesteht ja zu, dass es im anderen Teil eben doch große Übereinstimmung oder gar Identität im Modell gibt. Vor diesem Hintergrund ist die Zitierweise in den Ministeriums-Leitfäden nicht nur als selektiv zu werten; zitiert werden (natürlich) vor allem die Arbeiten der eigenen Mitstreiter, die der Vorarbeiter werden allenfalls in der Darstellungsperipherie geduldet. Auch die Neuerungen müssen nicht alle auf dem eigenen Mist gewachsen sein. Eine österreichische Arbeit von Gertraud Denscher, die schon 2003 den Praxistest der Wissensbilanz beschreibt, wird nicht zitiert, auch nicht deren spätere Gemeinschaftsveröffentlichung mit Bornemann und Sammer. All das mutet merkwürdig an - und das ausgerechnet in einer Publikation, die sich um den richtigen Umgang mit Wissen sorgt. Aber in einer Wissensbilanz muss nicht angegeben werden, wo man sein Wissen entlehnt oder geklaut hat. Das Haben ist entscheidend, nicht das Soll. Wissensschulden gibt es nicht.
    Die Wertung fällt dennoch leicht: Es handelt sich um ein Entwicklungsplagiat, weil Konzepte in wesentlichen Teilen identisch sind und das Ausmaß der Übernahme von Vorarbeiten nicht nur nicht ausgewiesen, sondern gezielt verschleiert wird. Anders lassen sich die Änderungen in der Ministerialbroschüre und der verschämte Neutext kaum deuten. "Made in Germany" ist das jedenfalls nicht. Sondern "researched & developed in Austria" und nur "modified in Germany". Doppelt anrüchig wird das Plagiat zuerst durch die Beteiligung der öffentlichen Hand: Das Wirtschaftsministerium wirbt als Auftraggeber des Konzeptes und als Herausgeber der Broschüre. Insofern darf man spöttisch von einem Staatsplagiat sprechen, wenigstens aber von staatlicher Wissenshehlerei. Durchaus problematisch ist der Umstand, dass hier mit fremden Federn in der Praxisberatung Geld verdient wird. Damit erlangt der Vorgang eine wirtschaftsrechtliche Perspektive - vom unlauteren Wettbewerb durch Produktnachahmung bis hin zur gezielten Nutzung fremden Mitarbeiterwissens. Pikant ist das allemal. Noch schöner: Eine rheinland-pfälzische Landeswissensbilanz lehnt sich eng an die Bundeswissensbilanz an - und setzt damit das Plagiat fort, mit noch eigentümlicheren Zitierungen. Daran wird das eigentliche Übel des Wissenschaftsplagiates sichtbar: Das persönliche Fehlverhalten verblasst nach einiger Zeit; doch die Plagiate bleiben in Umlauf und "pflanzen sich fort". Aber all das soll die Freude in der nächsten Woche nicht trüben. Es ist kein Spielverderber in Sicht, der konfrontativ fragen könnte: "Wer hat's erfunden?""
  20. Was ist GPT-3 und spricht das Modell Deutsch? (2022) 0.06
    0.057227746 = product of:
      0.15260732 = sum of:
        0.03793461 = weight(_text_:und in 868) [ClassicSimilarity], result of:
          0.03793461 = score(doc=868,freq=10.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.438048 = fieldWeight in 868, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=868)
        0.09030257 = weight(_text_:organisation in 868) [ClassicSimilarity], result of:
          0.09030257 = score(doc=868,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.4519719 = fieldWeight in 868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0625 = fieldNorm(doc=868)
        0.024370136 = weight(_text_:der in 868) [ClassicSimilarity], result of:
          0.024370136 = score(doc=868,freq=4.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.27922085 = fieldWeight in 868, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=868)
      0.375 = coord(3/8)
    
    Abstract
    GPT-3 ist ein Sprachverarbeitungsmodell der amerikanischen Non-Profit-Organisation OpenAI. Es verwendet Deep-Learning um Texte zu erstellen, zusammenzufassen, zu vereinfachen oder zu übersetzen.  GPT-3 macht seit der Veröffentlichung eines Forschungspapiers wiederholt Schlagzeilen. Mehrere Zeitungen und Online-Publikationen testeten die Fähigkeiten und veröffentlichten ganze Artikel - verfasst vom KI-Modell - darunter The Guardian und Hacker News. Es wird von Journalisten rund um den Globus wahlweise als "Sprachtalent", "allgemeine künstliche Intelligenz" oder "eloquent" bezeichnet. Grund genug, die Fähigkeiten des künstlichen Sprachgenies unter die Lupe zu nehmen.
    Source
    https://www.lernen-wie-maschinen.ai/ki-pedia/was-ist-gpt-3-und-spricht-das-modell-deutsch/

Years

Languages

  • d 976
  • e 249
  • a 12
  • el 2
  • m 2
  • i 1
  • nl 1
  • no 1
  • s 1
  • More… Less…

Types

  • a 553
  • i 108
  • m 29
  • r 21
  • x 20
  • b 19
  • n 10
  • s 7
  • l 3
  • p 2
  • More… Less…

Themes

Subjects

Classifications