Search (10367 results, page 1 of 519)

  • × year_i:[2000 TO 2010}
  1. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.16
    0.156567 = product of:
      0.2348505 = sum of:
        0.055152725 = product of:
          0.16545817 = sum of:
            0.16545817 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.16545817 = score(doc=306,freq=2.0), product of:
                0.25234294 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029764405 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.006121026 = weight(_text_:a in 306) [ClassicSimilarity], result of:
          0.006121026 = score(doc=306,freq=8.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.17835285 = fieldWeight in 306, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.008118565 = product of:
          0.03247426 = sum of:
            0.03247426 = weight(_text_:g in 306) [ClassicSimilarity], result of:
              0.03247426 = score(doc=306,freq=2.0), product of:
                0.11179353 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.029764405 = queryNorm
                0.29048425 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.25 = coord(1/4)
        0.16545817 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.16545817 = score(doc=306,freq=2.0), product of:
            0.25234294 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029764405 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.6666667 = coord(4/6)
    
    Abstract
    Although service-oriented architectures go a long way toward providing interoperability in distributed, heterogeneous environments, managing semantic differences in such environments remains a challenge. We give an overview of the issue of semantic interoperability (integration), provide a semantic characterization of services, and discuss the role of ontologies. Then we analyze four basic models of semantic interoperability that differ in respect to their mapping between service descriptions and ontologies and in respect to where the evaluation of the integration logic is performed. We also provide some guidelines for selecting one of the possible interoperability models.
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
    Type
    a
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.13
    0.13493797 = product of:
      0.20240696 = sum of:
        0.047273763 = product of:
          0.14182128 = sum of:
            0.14182128 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.14182128 = score(doc=562,freq=2.0), product of:
                0.25234294 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029764405 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.0052465936 = weight(_text_:a in 562) [ClassicSimilarity], result of:
          0.0052465936 = score(doc=562,freq=8.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.15287387 = fieldWeight in 562, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.14182128 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.14182128 = score(doc=562,freq=2.0), product of:
            0.25234294 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029764405 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.008065332 = product of:
          0.024195995 = sum of:
            0.024195995 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.024195995 = score(doc=562,freq=2.0), product of:
                0.104229875 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029764405 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.6666667 = coord(4/6)
    
    Abstract
    Document representations for text classification are typically based on the classical Bag-Of-Words paradigm. This approach comes with deficiencies that motivate the integration of features on a higher semantic level than single words. In this paper we propose an enhancement of the classical document representation through concepts extracted from background knowledge. Boosting is used for actual classification. Experimental evaluations on two well known text corpora support our approach through consistent improvement of the results.
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
    Type
    a
  3. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.13
    0.12781224 = product of:
      0.25562447 = sum of:
        0.06303169 = product of:
          0.18909505 = sum of:
            0.18909505 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.18909505 = score(doc=140,freq=2.0), product of:
                0.25234294 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029764405 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
        0.003497729 = weight(_text_:a in 140) [ClassicSimilarity], result of:
          0.003497729 = score(doc=140,freq=2.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.10191591 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.18909505 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.18909505 = score(doc=140,freq=2.0), product of:
            0.25234294 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029764405 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.5 = coord(3/6)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
    Type
    a
  4. Goldstein, R.: Kurt Gödel : Jahrhundertmathematiker und großer Entdecker (2007) 0.11
    0.10896541 = product of:
      0.32689622 = sum of:
        0.0021860807 = weight(_text_:a in 303) [ClassicSimilarity], result of:
          0.0021860807 = score(doc=303,freq=2.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.06369744 = fieldWeight in 303, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0390625 = fieldNorm(doc=303)
        0.32471013 = weight(_text_:kurt in 303) [ClassicSimilarity], result of:
          0.32471013 = score(doc=303,freq=18.0), product of:
            0.24148957 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.029764405 = queryNorm
            1.3446134 = fieldWeight in 303, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.0390625 = fieldNorm(doc=303)
      0.33333334 = coord(2/6)
    
    Abstract
    »Gödel, Escher, Bach« war der Titel eines Kultbuchs der achtziger Jahre. Wer war eigentlich Kurt Gödel, der 1906 in Brünn geboren wurde? Ein Jahrhundertgenie als Mathematiker, der größte Logiker seit Aristoteles, ein enger Freund und wichtiger Gesprächspartner von Albert Einstein in Princeton. Im Jahr 1931 formulierte Gödel den Unvollständigkeitssatz, der die Mathematiker schockierte. Er besagt im Kern, daß es keine vollständigen Theorien geben kann. Gödels Entdeckung steht auf einer Stufe mit Einsteins Relativitätstheorien und Heisenbergs Unbestimmtheitsrelation. Rebecca Goldstein, Philosophin und Autorin mehrerer Romane aus dem Wissenschaftsmilieu, zeigt, warum Kurt Gödel, der 1978 in Princeton starb, zu den größten Genies der Menschheit gerechnet wird. Sie erzählt von einer außergewöhnlichen Persönlichkeit, die skurrile und später auch paranoide Züge trug.
    Biographed
    Gödel, Kurt
    Content
    A Platonist among the positivists -- Hilbert and the formalists -- The proof of incompleteness -- Gödel's incompleteness.
    Footnote
    Originaltitel: Incompleteness - the proof and paradox of Kurt Gödel <dt.>
    LCSH
    Gödel, Kurt
    RSWK
    Gödel, Kurt / Biographie
    Subject
    Gödel, Kurt / Biographie
    Gödel, Kurt
  5. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.10
    0.09825742 = product of:
      0.19651484 = sum of:
        0.047273763 = product of:
          0.14182128 = sum of:
            0.14182128 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.14182128 = score(doc=2918,freq=2.0), product of:
                0.25234294 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029764405 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.007419804 = weight(_text_:a in 2918) [ClassicSimilarity], result of:
          0.007419804 = score(doc=2918,freq=16.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.2161963 = fieldWeight in 2918, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.14182128 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.14182128 = score(doc=2918,freq=2.0), product of:
            0.25234294 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029764405 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.5 = coord(3/6)
    
    Abstract
    The employees of an organization often use a personal hierarchical classification scheme to organize digital documents that are stored on their own workstations. As this may make it hard for other employees to retrieve these documents, there is a risk that the organization will lose track of needed documentation. Furthermore, the inherent boundaries of such a hierarchical structure require making arbitrary decisions about which specific criteria the classification will b.e based on (for instance, the administrative activity or the document type, although a document can have several attributes and require classification in several classes).A faceted classification model to support corporate information organization is proposed. Partially based on Ranganathan's facets theory, this model aims not only to standardize the organization of digital documents, but also to simplify the management of a document throughout its life cycle for both individuals and organizations, while ensuring compliance to regulatory and policy requirements.
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
    Type
    a
  6. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.08
    0.07988265 = product of:
      0.1597653 = sum of:
        0.039394803 = product of:
          0.11818441 = sum of:
            0.11818441 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.11818441 = score(doc=5895,freq=2.0), product of:
                0.25234294 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029764405 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
        0.0021860807 = weight(_text_:a in 5895) [ClassicSimilarity], result of:
          0.0021860807 = score(doc=5895,freq=2.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.06369744 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.11818441 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.11818441 = score(doc=5895,freq=2.0), product of:
            0.25234294 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029764405 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
      0.5 = coord(3/6)
    
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
    Type
    a
  7. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.07
    0.066741586 = product of:
      0.13348317 = sum of:
        0.031515844 = product of:
          0.094547525 = sum of:
            0.094547525 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.094547525 = score(doc=701,freq=2.0), product of:
                0.25234294 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029764405 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.007419804 = weight(_text_:a in 701) [ClassicSimilarity], result of:
          0.007419804 = score(doc=701,freq=36.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.2161963 = fieldWeight in 701, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.094547525 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.094547525 = score(doc=701,freq=2.0), product of:
            0.25234294 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029764405 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(3/6)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  8. Springer, M.: Was hier steht, ist nicht wahr (2006) 0.06
    0.06479081 = product of:
      0.12958162 = sum of:
        0.0017488645 = weight(_text_:a in 5309) [ClassicSimilarity], result of:
          0.0017488645 = score(doc=5309,freq=2.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.050957955 = fieldWeight in 5309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.03125 = fieldNorm(doc=5309)
        0.122455865 = weight(_text_:kurt in 5309) [ClassicSimilarity], result of:
          0.122455865 = score(doc=5309,freq=4.0), product of:
            0.24148957 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.029764405 = queryNorm
            0.5070855 = fieldWeight in 5309, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.03125 = fieldNorm(doc=5309)
        0.005376888 = product of:
          0.016130663 = sum of:
            0.016130663 = weight(_text_:22 in 5309) [ClassicSimilarity], result of:
              0.016130663 = score(doc=5309,freq=2.0), product of:
                0.104229875 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029764405 = queryNorm
                0.15476047 = fieldWeight in 5309, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5309)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Content
    "Was halten Sie von diesem Satz, der von sich aussagt, dass er falsch sei? Wenn er, wie behauptet, nicht wahr ist, stimmt nicht, was er aussagt, und das bedeutet, dass er wahr ist - im Widerspruch zu dem, was er behauptet. Als Urform solcher sich selbst torpedierenden Aussagen gilt die Paradoxie des kretischen Priesters Epimenides, der alle Kreter als Lügner bezeichnete. Auch dies führt zu einer Antinomie: einem unauflöslichen Selbstwiderspruch. Vor hundert Jahren, am 28. April 1906, wurde im heutigen Tschechien, damals Teil der österreichischen Monarchie, Kurt Gödel geboren, den die Fachwelt zu diesem Jubiläum als den größten Logiker seit Aristoteles feiert. Sein Ruhm beruht im Wesentlichen auf einem einzigen Theorem, dem Gödel'schen Unvollständigkeitssatz, der auf raffinierte Weise die Antinomie des Lügners nutzt. Damit zeigte Gödel 1931, dass die damalige Erwartung, die gesamte Mathematik lasse sich nach dem Vorbild der Euklidischen Geometrie aus einigen Axiomen und Ableitungsregeln entwickeln, trügerisch war. In jedem formalen System, das es erlaubt, die Theoreme der Arithmetik herzuleiten, können systemsprengende Sätze von der Art des Lügnerparadoxons konstruiert werden, die sich weder beweisen noch widerlegen lassen. Gödel selbst sah in seiner - für die Zeitgenossen völlig überraschenden - Entdeckung nichts Negatives, obwohl sie die Hoffnung, die Mathematik könne letztlich komplett auf Logik zurückgeführt werden, gründlich zerstörte. Hätte jene Hoffnung sich bewahrheitet, so gäbe es zumindest theoretisch ein Computerprogramm, das automatisch sämtliche Sätze der Mathematik zu produzieren vermöchte. Gödel hingegen meinte als überzeugter Anhänger der Platon'schen Ideenlehre, die Tätigkeit der Mathematiker gleiche der Entdeckungsreise in eine unbekannte Welt geistiger Objekte und nicht der freien Erfindung von Spielregeln, Formalismen und Rechenprogrammen. Dafür schien ihm sein Unvollständigkeitssatz ein klares Indiz (siehe »Kurt Gödel«, Spektrum-Biografie 1/2002). Wie groß der denkerische Ehrgeiz des großen Logikers war, offenbaren erst Gödels postum edierte Notizen. Schon der Halbwüchsige betitelte ein Schulheft mit »Fehler der Bibel« - nicht einmal das Buch der Bücher war vor seinem kritischen Misstrauen sicher. In reifen Jahren arbeitete er an einem Beweis für die Existenz Gottes auf rein logischer Basis - nach dem Vorbild des mittelalterlichen Scholastikers Anselm von Canterbury. Gödels ontologischer Gottesbeweis geht kurz gesagt so: Gott ist nur denkbar als Wesen, das alle positiven Eigenschaften in sich vereint, und da Existenz eine solche positive Eigenschaft ist, muss Gott existieren. Was zu beweisen war. In gewisser Weise erscheint mir dieses Argument als logische Umkehrung der Antinomie des Lügners. Der Satz »Ich bin falsch« sprengt die Konsistenz des Systems, in dem er formuliert wird; die Behauptung »Ich bin wahr« macht das Gegenteil: Eigenmächtig, kühn und herausfordernd stellt sie sich selbst im logischen Raum auf. Um dieser Behauptung blindlings zu vertrauen, ja sie als Selbstaussage des höchsten Wesens zu verstehen - etwa im Sinne des Jesu-Worts »Ich bin die Wahrheit und das Leben« -, dazu muss man freilich wie Gödel bedingungslos an die reale Existenz logisch-mathematischer Objekte glauben."
    Date
    22. 7.2006 19:56:41
    Type
    a
  9. dpa/EB: "Wiki"-Gemeinde erklärt die Welt : 1. Kongress der Wikipedianer - Qualität des Online-Dienstes teils mangelhaft (2005) 0.05
    0.046857566 = product of:
      0.09371513 = sum of:
        0.0017488645 = weight(_text_:a in 3732) [ClassicSimilarity], result of:
          0.0017488645 = score(doc=3732,freq=2.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.050957955 = fieldWeight in 3732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.03125 = fieldNorm(doc=3732)
        0.08658937 = weight(_text_:kurt in 3732) [ClassicSimilarity], result of:
          0.08658937 = score(doc=3732,freq=2.0), product of:
            0.24148957 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.029764405 = queryNorm
            0.3585636 = fieldWeight in 3732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.03125 = fieldNorm(doc=3732)
        0.005376888 = product of:
          0.016130663 = sum of:
            0.016130663 = weight(_text_:22 in 3732) [ClassicSimilarity], result of:
              0.016130663 = score(doc=3732,freq=2.0), product of:
                0.104229875 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029764405 = queryNorm
                0.15476047 = fieldWeight in 3732, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3732)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Content
    "Das Wort "Wiki" kommt aus Hawaii und heißt schnell. Diesen Anspruch hat die Internet-Enzyklopädie Wikipedia eingelöst: In nur vier Jahren hat das kostenlose Online-Nachschlagewerk den Globus erobert. Weltweit bringt es Wikipedia in mehr als 60 Sprachen auf über zwei Millionen Einträge, allein in Deutschland haben über 10.000 Freiwillige rund 270.000 Artikel erstellt. Noch bis Sonntag will die Wiki-Gemeinde in Frankfurt, gemeinsam mit dem Vater der Enzyklopädie, Jimmy Wales, auf ihrer ersten internationalen Konferenz über Zukunft, Erfolge und Probleme sprechen. Neben Software-Fragen wird es um die Zuverlässigkeit der Artikel gehen, die von sehr unterschiedlicher Qualität sind. Wie das Bildungsportal "Bildungsklick" herausgefunden hat, enthält im Schnitt jeder Text vier Rechtschreibfehler. Dies ist auch deshalb bedenklich, weil der kostenlose Online-Dienst von und für notorisch unterfinanzierte Schulen empfohlen wird. Die Internet-Philosophie des 38-jährigen Amerikaners Wales aus Florida ist einfach: Informationen sollen für alle frei zugänglich sein, und alle Internetnutzer können bei der Enzyklopädie mitmachen. Jeder Artikel oder Eintrag kann von anderen verbessert oder erweitert werden. Dabei kann immer festgestellt werden, wie und von wem ein Artikel verändert wurde. Zur weltweiten Verbreitung seiner Idee rief Wales 2003 die Wikimedia-Stiftung ins Leben. Die deutsche Wikipedia-Community, zweitgrößte nach den USA, ist bunt. "Wir haben 13-Jährige genauso wie 80Jährige, die für uns arbeiten", sagt Kurt Jansson, der 28 Jahre alte Vorsitzende des deutschen Fördervereins. Überdurchschnittlich viele Beiträge kommen von Studenten, der Altersdurchschnitt liege bei 30 Jahren, schätzt Jansson, der Soziologie in Berlin studiert. Bei allem idealistischen Anspruch sind jedoch auch Kontrolleure nötig. In Deutschland gibt es um die 160 Administratoren, die Einträge aus dem Web entfernen können. Sie forsten die Einträge auf Fehler durch und überprüfen Fakten auf Zuruf ihrer User. Denn auf deren Mithilfe sind sie angewiesen. Immer wieder gibt es Scherzbolde, die Artikel erfinden. Dann gibt es Artikel, die wegen fehlender Substanz jeder zur Diskussion stellen, kann. Über die ständig aktualisierte Streichliste entscheidet dann einender Administratoren. Die Administratoren müssen auch eingreifen, wenn zwei Autoren zum Beispiel bei einem Artikel über einen Politiker eine private Kontroverse austragen oder PR in eigener Sache machen. Vollständig haben sie die Worterläuterungen dabei jedoch nicht im Blick. Täglich kommen auf Deutsch 400 neue Artikel dazu und 60 verschwinden wieder. Die gesamte Verwaltung von Wikipedia gemeinnützige deutsche Förderverein finanziert sich nach eigenen Angaben - wie auch die gesamte internationale Wikipedia-Bewegung - nur aus Spenden. Die Organisation betreibt auch noch anderen Projekte wie das Nachrichtenportal Wikinews."
    Date
    3. 5.1997 8:44:22
    Type
    a
  10. Ackermann, E.: Piaget's constructivism, Papert's constructionism : what's the difference? (2001) 0.04
    0.04467681 = product of:
      0.08935362 = sum of:
        0.039394803 = product of:
          0.11818441 = sum of:
            0.11818441 = weight(_text_:3a in 692) [ClassicSimilarity], result of:
              0.11818441 = score(doc=692,freq=2.0), product of:
                0.25234294 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029764405 = queryNorm
                0.46834838 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.33333334 = coord(1/3)
        0.0037864032 = weight(_text_:a in 692) [ClassicSimilarity], result of:
          0.0037864032 = score(doc=692,freq=6.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.11032722 = fieldWeight in 692, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0390625 = fieldNorm(doc=692)
        0.046172414 = product of:
          0.18468966 = sum of:
            0.18468966 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.18468966 = score(doc=692,freq=2.0), product of:
                0.31545135 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.029764405 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.25 = coord(1/4)
      0.5 = coord(3/6)
    
    Abstract
    What is the difference between Piaget's constructivism and Papert's "constructionism"? Beyond the mere play on the words, I think the distinction holds, and that integrating both views can enrich our understanding of how people learn and grow. Piaget's constructivism offers a window into what children are interested in, and able to achieve, at different stages of their development. The theory describes how children's ways of doing and thinking evolve over time, and under which circumstance children are more likely to let go of-or hold onto- their currently held views. Piaget suggests that children have very good reasons not to abandon their worldviews just because someone else, be it an expert, tells them they're wrong. Papert's constructionism, in contrast, focuses more on the art of learning, or 'learning to learn', and on the significance of making things in learning. Papert is interested in how learners engage in a conversation with [their own or other people's] artifacts, and how these conversations boost self-directed learning, and ultimately facilitate the construction of new knowledge. He stresses the importance of tools, media, and context in human development. Integrating both perspectives illuminates the processes by which individuals come to make sense of their experience, gradually optimizing their interactions with the world.
    Content
    Vgl.: https://www.semanticscholar.org/paper/Piaget-%E2%80%99-s-Constructivism-%2C-Papert-%E2%80%99-s-%3A-What-%E2%80%99-s-Ackermann/89cbcc1e740a4591443ff4765a6ae8df0fdf5554. Darunter weitere Hinweise auf verwandte Beiträge. Auch unter: Learning Group Publication 5(2001) no.3, S.438.
    Type
    a
  11. Sigmund, K.; Dawson, J.; Mühlberger, K.: Kurt Gödel : Das Album - The Album (2006) 0.04
    0.040337443 = product of:
      0.24202466 = sum of:
        0.24202466 = weight(_text_:kurt in 470) [ClassicSimilarity], result of:
          0.24202466 = score(doc=470,freq=10.0), product of:
            0.24148957 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.029764405 = queryNorm
            1.0022157 = fieldWeight in 470, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.0390625 = fieldNorm(doc=470)
      0.16666667 = coord(1/6)
    
    Abstract
    Time Magazine reihte ihn unter die hundert wichtigsten Personen des zwanzigsten Jahrhunderts. Die Harvard University verlieh ihm das Ehrendoktorat für die Entdeckung "der bedeutsamsten mathematischen Wahrheit des Jahrhunderts". Er gilt allgemein als der größte Logiker seit Aristoteles. Sein Freund Einstein ging, nach eigener Aussage, nur deshalb ans Institut, um Gödel auf dem Heimweg begleiten zu dürfen. Und John von Neumann, einer der Väter des Computers, schrieb: "Gödel ist tatsächlich absolut unersetzlich. Er ist der einzige Mathematiker, von dem ich das zu behaupten wage." Dieses Buch ist eine leichtverdauliche, einfache und anschauliche Einführung in Gödels Leben und Werk, gedacht für jene, die sich für die menschlichen und kulturellen Aspekte der Wissenschaft interessieren. Ausgangspunkt des Buches waren die Vorbereitungen zu einer Ausstellung über Kurt Gödel aus Anlass seines hundertsten Geburtstags. Eine Ausstellung hat etwas von einem Spaziergang an sich, und gerade das wollen wir bieten: einen Spaziergang mit Gödel. Albert Einstein genoss solche Spaziergänge sehr. Man kann also Gödel genießen.
    Biographed
    Gödel, Kurt
    RSWK
    Gödel, Kurt / Biographie
    Subject
    Gödel, Kurt / Biographie
  12. Wikipedia nutzt DDB-Katalog und deutsche Normdateien (2005) 0.04
    0.0368076 = product of:
      0.1104228 = sum of:
        0.0021860807 = weight(_text_:a in 4310) [ClassicSimilarity], result of:
          0.0021860807 = score(doc=4310,freq=2.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.06369744 = fieldWeight in 4310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4310)
        0.108236715 = weight(_text_:kurt in 4310) [ClassicSimilarity], result of:
          0.108236715 = score(doc=4310,freq=2.0), product of:
            0.24148957 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.029764405 = queryNorm
            0.44820452 = fieldWeight in 4310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4310)
      0.33333334 = coord(2/6)
    
    Content
    "Die freie Enzyklopädie Wikipedia ist mit dem Onlinekatalog Der Deutschen Bibliothek verbunden. Für Personen, die Autor oder Gegenstand von Publikationen sind, wurde der Wikipedia-Eintrag um einen Link erweitert. Mit einem Mausklick gelangen Benutzer zu den entsprechenden Veröffentlichungen im Katalog Der Deutschen Bibliothek. Mit der Verbindung zu der beliebten Online-Enzyklopädie geht die Deutsche Bibliothek einen Schritt auf die Internetnutzer zu. Durch den direkten und vollständigen Nachweis der Veröffentlichungen zu der gesuchten Person bringt Die Deutsche Bibliothek ihre Kompetenz als nationale Archivbibliothek in die populäre Online-Enzyklopädie ein. Alle seit 1913 von oder über diese Person veröffentlichten und archivierten Werke werden angezeigt. Möglich wurde die Kooperation, nachdem Wikipedia Anfang des Jahres alle biographischen Artikel mit strukturierten Metadaten versehen hat. Als nächste Erweiterung der Zusammenarbeit wird die Verlinkung auch aus dem Onlinekatalog Der Deutschen Bibliothek zu den Personeneinträgen in Wikipedia realisiert. Die Verbindung zwischen den beiden Systemen wird über die Personennamendatei hergestellt. In der kooperativ von allen deutschen und österreichischen Bibliotheksverbünden gepflegten Normdatei sind derzeit rund 2,6 Mio. Personen mit ihren Namensformen und zusätzlichen Angaben abgebildet. Die Normdaten werden zum Bindeglied zwischen Enzyklopädie-Einträgen, Werken von und über die Person sowie weiteren unterschiedlichen Materialien zur Person. Ein Beispiel für die Verlinkung ist der Eintrag über Kurt Tucholsky. Der Zugriff auf Bestände zur Person in Archiven und Museen, in denen die Personennamendatei genutzt wird, ist in Zukunft ebenfalls möglich."
    Type
    a
  13. Datenbanken in den Geisteswissenschaften (2007) 0.03
    0.02944608 = product of:
      0.08833824 = sum of:
        0.0017488645 = weight(_text_:a in 796) [ClassicSimilarity], result of:
          0.0017488645 = score(doc=796,freq=2.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.050957955 = fieldWeight in 796, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.03125 = fieldNorm(doc=796)
        0.08658937 = weight(_text_:kurt in 796) [ClassicSimilarity], result of:
          0.08658937 = score(doc=796,freq=2.0), product of:
            0.24148957 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.029764405 = queryNorm
            0.3585636 = fieldWeight in 796, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.03125 = fieldNorm(doc=796)
      0.33333334 = coord(2/6)
    
    Abstract
    Datenbanken in den Geisteswissenschaften werden als Arbeitsmittel, Forschungsbasis oder Archiv genutzt. Dieser Band versammelt Beiträge aus verschiedenen Disziplinen. Sie machen sichtbar, welche methodischen, forschungstheoretischen und praktischen Fragen bestehen, gilt es eine Datenbank zu entwerfen, zu pflegen, zu erhalten und/oder weiterzuentwickeln. Allen Beiträgen gemeinsam ist dabei das Interesse, das eigene Forschungsfeld weiterzuentwickeln, neue Sichtweisen zu gewinnen und/oder die Ergebnisse einem breiten interessierten Publikum anzubieten. Vorgestellt werden u. a. Datenbanken zu Spielplanauswertungen von Theatern und Forschungen zu Frauenklöstern. Im SFB 496 werden Datenbanken eingesetzt, um interdisziplinäre Untersuchungen zu ermöglichen und zu verbinden. Möglichkeiten eines polyhierarchischen Thesaurus für Designgeschichte und eines intertextuellen Zugangs zum «Kafka Bureau» bilden weitere Schwerpunkte. Eine Literaturverwaltung online und die Rezensionsdatenbank von Clio-Online, die durch Indizierung/Aggregierung entsteht, verweisen auf andere Verwendungen von Datenbanken.
    Content
    Inhalt: Holger Gast / Almut Mainka-Mehling: Gewinnung Quantitativer Ergebnisse zu Archäologischen Lebensbildern - Ingo Jonas: Datenbank als Arbeitsmittel zur personellen und theatralen Konstellationsforschung im Werk August Wilhelm Ifflands - Katrinette Bodarwé: FeMo-Data - Female Monasticism's Database. Von einem internen Hilfsmittel zum internationalen Internetprojekt - Klaus Gerlach: Die Datenbank zum Berliner Nationaltheater als Form des wissenschaftlichen Diskurses über die Entstehung einer modernen Großstadtkultur um 1800 - Stefanie Rüther: Rituale, Grabmäler und Schandgesten - Möglichkeiten und Grenzen einer projektübergreifenden Datenbank in einem interdisziplinären Sonderforschungsbereich - Benno Wagner / Timo Reinhard: Das Virtuelle Kafka-Bureau - Dana Pflugmacher: Bibliographie der älteren niederländischsprachigen Literatur in deutscher Übersetzung - Karin Orchard: Die Datenbank des Kurt Schwitters Archivs im Sprengel Museum Hannover - Kerstin Albrecht: Das «Digitale Design Archiv» (dda) und die Entwicklung eines polyhierarchischen Thesaurus für Designgeschichte - Klaus Weber: Das Mainzer Model - eine uniweite Multimediadatenbank für Forschung und Lehre - Agnieszka SeidelGrzesiiiska: MIDAS auf Polnisch - Ein deutsches Regelwerk in Forschungs- und Lehrpraxis des Kunsthistorischen Instituts in Wroclaw/ Polen - Kay Heiligenhaus / Till Schicketanz: Digitalisierungsprojekte, Datenbankportale und Literaturmanagement in den Geisteswissenschaften. Anforderungsprofile - Softwarelösungen - Realisation - Daniel Burckhardt: Aggregieren und indizieren statt selbst produzieren. Der Aufbau einer Rezensionsdatenbank bei Clio-online - Kristina Lowis: Pfadfinder durch die Geschichte der Kunst. Eine Präsentation der Bibliographie d'Histoire de l'Art (BHA).
  14. Proceedings of the Second ACM/IEEE-CS Joint Conference on Digital Libraries : July 14 - 18, 2002, Portland, Oregon, USA. (2002) 0.03
    0.027561044 = product of:
      0.05512209 = sum of:
        0.004868633 = weight(_text_:a in 172) [ClassicSimilarity], result of:
          0.004868633 = score(doc=172,freq=62.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.14186095 = fieldWeight in 172, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.015625 = fieldNorm(doc=172)
        0.006958769 = product of:
          0.027835077 = sum of:
            0.027835077 = weight(_text_:g in 172) [ClassicSimilarity], result of:
              0.027835077 = score(doc=172,freq=18.0), product of:
                0.11179353 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.029764405 = queryNorm
                0.24898647 = fieldWeight in 172, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.015625 = fieldNorm(doc=172)
          0.25 = coord(1/4)
        0.043294687 = weight(_text_:kurt in 172) [ClassicSimilarity], result of:
          0.043294687 = score(doc=172,freq=2.0), product of:
            0.24148957 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.029764405 = queryNorm
            0.1792818 = fieldWeight in 172, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.015625 = fieldNorm(doc=172)
      0.5 = coord(3/6)
    
    Content
    Inhalt: SESSION: Building and using cultural digital libraries Primarily history: historians and the search for primary source materials (Helen R. Tibbo) - Using the Gamera framework for the recognition of cultural heritage materials (Michael Droettboom, Ichiro Fujinaga, Karl MacMillan, G. Sayeed Chouhury, Tim DiLauro, Mark Patton, Teal Anderson) - Supporting access to large digital oral history archives (Samuel Gustman, Dagobert Soergel, Douglas Oard, William Byrne, Michael Picheny, Bhuvana Ramabhadran, Douglas Greenberg) SESSION: Summarization and question answering Using sentence-selection heuristics to rank text segments in TXTRACTOR (Daniel McDonald, Hsinchun Chen) - Using librarian techniques in automatic text summarization for information retrieval (Min-Yen Kan, Judith L. Klavans) - QuASM: a system for question answering using semi-structured data (David Pinto, Michael Branstein, Ryan Coleman, W. Bruce Croft, Matthew King, Wei Li, Xing Wei) SESSION: Studying users Reading-in-the-small: a study of reading on small form factor devices (Catherine C. Marshall, Christine Ruotolo) - A graph-based recommender system for digital library (Zan Huang, Wingyan Chung, Thian-Huat Ong, Hsinchun Chen) - The effects of topic familiarity on information search behavior (Diane Kelly, Colleen Cool) SESSION: Classification and browsing A language modelling approach to relevance profiling for document browsing (David J. Harper, Sara Coulthard, Sun Yixing) - Compound descriptors in context: a matching function for classifications and thesauri (Douglas Tudhope, Ceri Binding, Dorothee Blocks, Daniel Cunliffe) - Structuring keyword-based queries for web databases (Rodrigo C. Vieira, Pavel Calado, Altigran S. da Silva, Alberto H. F. Laender, Berthier A. Ribeiro-Neto) - An approach to automatic classification of text for information retrieval (Hong Cui, P. Bryan Heidorn, Hong Zhang)
    SESSION: A digital libraries for education Middle school children's use of the ARTEMIS digital library (June Abbas, Cathleen Norris, Elliott Soloway) - Partnership reviewing: a cooperative approach for peer review of complex educational resources (John Weatherley, Tamara Sumner, Michael Khoo, Michael Wright, Marcel Hoffmann) - A digital library for geography examination resources (Lian-Heong Chua, Dion Hoe-Lian Goh, Ee-Peng Lim, Zehua Liu, Rebecca Pei-Hui Ang) - Digital library services for authors of learning materials (Flora McMartin, Youki Terada) SESSION: Novel search environments Integration of simultaneous searching and reference linking across bibliographic resources on the web (William H. Mischo, Thomas G. Habing, Timothy W. Cole) - Exploring discussion lists: steps and directions (Paula S. Newman) - Comparison of two approaches to building a vertical search tool: a case study in the nanotechnology domain (Michael Chau, Hsinchun Chen, Jialun Qin, Yilu Zhou, Yi Qin, Wai-Ki Sung, Daniel McDonald) SESSION: Video and multimedia digital libraries A multilingual, multimodal digital video library system (Michael R. Lyu, Edward Yau, Sam Sze) - A digital library data model for music (Natalia Minibayeva, Jon W. Dunn) - Video-cuebik: adapting image search to video shots (Alexander G. Hauptmann, Norman D. Papernick) - Virtual multimedia libraries built from the web (Neil C. Rowe) - Multi-modal information retrieval from broadcast video using OCR and speech recognition (Alexander G. Hauptmann, Rong Jin, Tobun Dorbin Ng) SESSION: OAI application Extending SDARTS: extracting metadata from web databases and interfacing with the open archives initiative (Panagiotis G. Ipeirotis, Tom Barry, Luis Gravano) - Using the open archives initiative protocols with EAD (Christopher J. Prom, Thomas G. Habing) - Preservation and transition of NCSTRL using an OAI-based architecture (H. Anan, X. Liu, K. Maly, M. Nelson, M. Zubair, J. C. French, E. Fox, P. Shivakumar) - Integrating harvesting into digital library content (David A. Smith, Anne Mahoney, Gregory Crane) SESSION: Searching across language, time, and space Harvesting translingual vocabulary mappings for multilingual digital libraries (Ray R. Larson, Fredric Gey, Aitao Chen) - Detecting events with date and place information in unstructured text (David A. Smith) - Using sharable ontology to retrieve historical images (Von-Wun Soo, Chen-Yu Lee, Jaw Jium Yeh, Ching-chih Chen) - Towards an electronic variorum edition of Cervantes' Don Quixote:: visualizations that support preparation (Rajiv Kochumman, Carlos Monroy, Richard Furuta, Arpita Goenka, Eduardo Urbina, Erendira Melgoza)
    SESSION: NSDL Core services in the architecture of the national science digital library (NSDL) (Carl Lagoze, William Arms, Stoney Gan, Diane Hillmann, Christopher Ingram, Dean Krafft, Richard Marisa, Jon Phipps, John Saylor, Carol Terrizzi, Walter Hoehn, David Millman, James Allan, Sergio Guzman-Lara, Tom Kalt) - Creating virtual collections in digital libraries: benefits and implementation issues (Gary Geisler, Sarah Giersch, David McArthur, Marty McClelland) - Ontology services for curriculum development in NSDL (Amarnath Gupta, Bertram Ludäscher, Reagan W. Moore) - Interactive digital library resource information system: a web portal for digital library education (Ahmad Rafee Che Kassim, Thomas R. Kochtanek) SESSION: Digital library communities and change Cross-cultural usability of the library metaphor (Elke Duncker) - Trust and epistemic communities in biodiversity data sharing (Nancy A. Van House) - Evaluation of digital community information systems (K. T. Unruh, K. E. Pettigrew, J. C. Durrance) - Adapting digital libraries to continual evolution (Bruce R. Barkstrom, Melinda Finch, Michelle Ferebee, Calvin Mackey) SESSION: Models and tools for generating digital libraries Localizing experience of digital content via structural metadata (Naomi Dushay) - Collection synthesis (Donna Bergmark) - 5SL: a language for declarative specification and generation of digital libraries (Marcos André, Gonçalves, Edward A. Fox) SESSION: Novel user interfaces A digital library of conversational expressions: helping profoundly disabled users communicate (Hayley Dunlop, Sally Jo Cunningham, Matt Jones) - Enhancing the ENVISION interface for digital libraries (Jun Wang, Abhishek Agrawal, Anil Bazaza, Supriya Angle, Edward A. Fox, Chris North) - A wearable digital library of personal conversations (Wei-hao Lin, Alexander G. Hauptmann) - Collaborative visual interfaces to digital libraries (Katy Börner, Ying Feng, Tamara McMahon) - Binding browsing and reading activities in a 3D digital library (Pierre Cubaud, Pascal Stokowski, Alexandre Topol)
    SESSION: Federating and harvesting metadata DP9: an OAI gateway service for web crawlers (Xiaoming Liu, Kurt Maly, Mohammad Zubair, Michael L. Nelson) - The Greenstone plugin architecture (Ian H. Witten, David Bainbridge, Gordon Paynter, Stefan Boddie) - Building FLOW: federating libraries on the web (Anna Keller Gold, Karen S. Baker, Jean-Yves LeMeur, Kim Baldridge) - JAFER ToolKit project: interfacing Z39.50 and XML (Antony Corfield, Matthew Dovey, Richard Mawby, Colin Tatham) - Schema extraction from XML collections (Boris Chidlovskii) - Mirroring an OAI archive on the I2-DSI channel (Ashwini Pande, Malini Kothapalli, Ryan Richardson, Edward A. Fox) SESSION: Music digital libraries HMM-based musical query retrieval (Jonah Shifrin, Bryan Pardo, Colin Meek, William Birmingham) - A comparison of melodic database retrieval techniques using sung queries (Ning Hu, Roger B. Dannenberg) - Enhancing access to the levy sheet music collection: reconstructing full-text lyrics from syllables (Brian Wingenroth, Mark Patton, Tim DiLauro) - Evaluating automatic melody segmentation aimed at music information retrieval (Massimo Melucci, Nicola Orio) SESSION: Preserving, securing, and assessing digital libraries A methodology and system for preserving digital data (Raymond A. Lorie) - Modeling web data (James C. French) - An evaluation model for a digital library services tool (Jim Dorward, Derek Reinke, Mimi Recker) - Why watermark?: the copyright need for an engineering solution (Michael Seadle, J. R. Deller, Jr., Aparna Gurijala) SESSION: Image and cultural digital libraries Time as essence for photo browsing through personal digital libraries (Adrian Graham, Hector Garcia-Molina, Andreas Paepcke, Terry Winograd) - Toward a distributed terabyte text retrieval system in China-US million book digital library (Bin Liu, Wen Gao, Ling Zhang, Tie-jun Huang, Xiao-ming Zhang, Jun Cheng) - Enhanced perspectives for historical and cultural documentaries using informedia technologies (Howard D. Wactlar, Ching-chih Chen) - Interfaces for palmtop image search (Mark Derthick)
    SESSION: Digital libraries for spatial data The ADEPT digital library architecture (Greg Janée, James Frew) - G-Portal: a map-based digital library for distributed geospatial and georeferenced resources (Ee-Peng Lim, Dion Hoe-Lian Goh, Zehua Liu, Wee-Keong Ng, Christopher Soo-Guan Khoo, Susan Ellen Higgins) PANEL SESSION: Panels You mean I have to do what with whom: statewide museum/library DIGI collaborative digitization projects---the experiences of California, Colorado & North Carolina (Nancy Allen, Liz Bishoff, Robin Chandler, Kevin Cherry) - Overcoming impediments to effective health and biomedical digital libraries (William Hersh, Jan Velterop, Alexa McCray, Gunther Eynsenbach, Mark Boguski) - The challenges of statistical digital libraries (Cathryn Dippo, Patricia Cruse, Ann Green, Carol Hert) - Biodiversity and biocomplexity informatics: policy and implementation science versus citizen science (P. Bryan Heidorn) - Panel on digital preservation (Joyce Ray, Robin Dale, Reagan Moore, Vicky Reich, William Underwood, Alexa T. McCray) - NSDL: from prototype to production to transformational national resource (William Y. Arms, Edward Fox, Jeanne Narum, Ellen Hoffman) - How important is metadata? (Hector Garcia-Molina, Diane Hillmann, Carl Lagoze, Elizabeth Liddy, Stuart Weibel) - Planning for future digital libraries programs (Stephen M. Griffin) DEMONSTRATION SESSION: Demonstrations u.a.: FACET: thesaurus retrieval with semantic term expansion (Douglas Tudhope, Ceri Binding, Dorothee Blocks, Daniel Cunliffe) - MedTextus: an intelligent web-based medical meta-search system (Bin Zhu, Gondy Leroy, Hsinchun Chen, Yongchi Chen) POSTER SESSION: Posters TUTORIAL SESSION: Tutorials u.a.: Thesauri and ontologies in digital libraries: 1. structure and use in knowledge-based assistance to users (Dagobert Soergel) - How to build a digital library using open-source software (Ian H. Witten) - Thesauri and ontologies in digital libraries: 2. design, evaluation, and development (Dagobert Soergel) WORKSHOP SESSION: Workshops Document search interface design for large-scale collections and intelligent access (Javed Mostafa) - Visual interfaces to digital libraries (Katy Börner, Chaomei Chen) - Text retrieval conference (TREC) genomics pre-track workshop (William Hersh)
    Editor
    Marchionini, G.
  15. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.03
    0.027539803 = product of:
      0.055079605 = sum of:
        0.0021860807 = weight(_text_:a in 193) [ClassicSimilarity], result of:
          0.0021860807 = score(doc=193,freq=2.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.06369744 = fieldWeight in 193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.046172414 = product of:
          0.18468966 = sum of:
            0.18468966 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.18468966 = score(doc=193,freq=2.0), product of:
                0.31545135 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.029764405 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.25 = coord(1/4)
        0.0067211105 = product of:
          0.020163331 = sum of:
            0.020163331 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.020163331 = score(doc=193,freq=2.0), product of:
                0.104229875 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029764405 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
    Type
    a
  16. Frey, S.: Vom Wort zum Bild - Von der Vernunft zum Instinkt? (2002) 0.03
    0.02576532 = product of:
      0.07729596 = sum of:
        0.0015302565 = weight(_text_:a in 257) [ClassicSimilarity], result of:
          0.0015302565 = score(doc=257,freq=2.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.044588212 = fieldWeight in 257, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.02734375 = fieldNorm(doc=257)
        0.0757657 = weight(_text_:kurt in 257) [ClassicSimilarity], result of:
          0.0757657 = score(doc=257,freq=2.0), product of:
            0.24148957 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.029764405 = queryNorm
            0.31374314 = fieldWeight in 257, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.02734375 = fieldNorm(doc=257)
      0.33333334 = coord(2/6)
    
    Content
    "Die Medien können erstaunliche Dinge bewirken. Sie können Politiker zu Fall bringen, Kriege gewinnen, Firmen große Probleme schaffen. Aber wie gelangten sie eigentlich in diese Machtposition? Was ist der Mechanismus, der es ihnen erlaubte, sich in einer Weise zu entwickeln, dass heutzutage nicht zu Unrecht von ihnen als von einer "vierten Gewalt" im Staate gesprochen wird? Schließlich haben die Medien ja keinerlei formales Recht, Politiker in Amt und Würden zu heben oder sie zu feuern. Im Falle von Kriegen ist es ihnen nicht erlaubt, an der strategischen Planung oder am Kampfgeschehen selbst teilzunehmen. Und wenn sie Firmen in große Bedrängnis bringen, so nicht etwa auf dem üblichen Wege eines regulären Wettbewerbs. Die Macht der Medien ist von ganz anderer Art. Sie beruht gänzlich auf kommunikativem Geschick, d. h. auf der Fähigkeit, Menschen dazu zu bringen, die von den Medien verbreitete Information zu beachten, sie zu verstehen und ihr Glauben zu schenken. - Knecht des Gehirns - Von der Macht der Medien zur Manipulation der öffentlichen Meinung kann daher auch nur insoweit gesprochen werden, als es ihnen gelingt, die Aufmerksamkeit der Menschen auf sich zu lenken und ihr Publikum davon zu überzeugen, dass die ihm übermittelte Information zuverlässig ist. Aber wie schaffen sie das? Offenkundig nicht einfach durch die bloße Verbreitung von Information. Denn in einer modernen demokratischen Gesellschaft, die dem Bürger freien, unzensierten Zugang zu einer unlimitierten Anzahl von Informationsquellen gewährt, stehen die Medien selbst in einer Konkurrenzsituation, die alle Merkmale eines darwinistischen Überlebenskampfes aufweist. Und diesen können sie - falls Darwins Überlegungen korrekt sind - überhaupt nur dadurch gewinnen, dass sie sich ihren Umweltbedingungen optimal anpassen. Diese wiederum sind im Falle der Medien nun aber in erster Linie definiert durch die Funktionsweise jenes wundersamen Informationsverarbeitungsapparats, den wir das menschliche Gehirn nennen. Wenn es also darum gehen soll, herauszufinden, wie es den Medien gelingen konnte, sich den hehren Status einer vierten Gewalt anzueignen - einer Gewalt, die in Montesquieus Modell der drei Staatsgewalten noch gar nicht mal vorgesehen war -, müssen wir klären, wie der menschliche Wahrnehmungsapparat mit den Informationen umgeht, die ihm die Medien über die Sinnesorgane zuführen. Das heißt, wir müssen, um es in den Worten von Kurt und Gladys Lang, den großen Pionieren der amerikanischen Medienforschung, auszudrücken, uns der schwierigen Aufgabe stellen, herauszufinden, wie "das Beurteilungsschema des anonymen Herrn Jedermann" funktioniert.- Mehr als tausend Worte - Dazu aber gilt es zunächst einmal zu klären, auf welchem Wege es überhaupt gelingt, homo sapiens etwas "glauben zu machen". Wie kann man es erreichen, dass Menschen das Wahrgenommene als wahr erachten, wie ist es zu schaffen, dass ihnen ein Argument einleuchtet, dass sie eine Schlussfolgerung überzeugt? Man würde denken, dass bei einem Wesen, das sich - als einziges auf diesem Planeten - mit der Erfindung der Lautsprache sein eigenes Kommunikationswerkzeug geschaffen hat, der Prozess der Meinungsbildung vor allem auf verbalem Wege erfolgt. Ohne die Erfindung der Sprache hätte der Mensch schließlich einen sehr engen geistigen Horizont. Er wüsste nichts von der Existenz all jener Dinge, die jenseits seines engen persönlichen Erfahrungsraumes liegen. Er könnte kaum vom Wissen und vom Erfahrungsschatz anderer profitieren. Ja, er wüsste nicht mal, ob und in welcher Weise das Weltbild, das sein Gegenüber sich zurechtlegt, sich von dem seinigen unterscheidet. ..."
    Type
    a
  17. Buhr, E.: Sommerreise : Nida-Rümelins Kanon (2002) 0.02
    0.022265658 = product of:
      0.06679697 = sum of:
        0.001854951 = weight(_text_:a in 868) [ClassicSimilarity], result of:
          0.001854951 = score(doc=868,freq=4.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.054049075 = fieldWeight in 868, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0234375 = fieldNorm(doc=868)
        0.064942025 = weight(_text_:kurt in 868) [ClassicSimilarity], result of:
          0.064942025 = score(doc=868,freq=2.0), product of:
            0.24148957 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.029764405 = queryNorm
            0.2689227 = fieldWeight in 868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.0234375 = fieldNorm(doc=868)
      0.33333334 = coord(2/6)
    
    Content
    ""Don't know much about history / don't know much biology / don't know much about a science book / don't know much about the French I took" (Sam Cook, Wonderful World). - Die Beschulung der Jugend ist eine komplizierte Sache, das war schon lange vor dem Pisa-Debakel bekannt. Man kann sich leicht darauf einigen, dass eine Mehrheit der Bevölkerung lesen und schreiben lernen sollte-was ja, glaubt man den Verkündern der Bildungs-Apokalypse, keine Selbstverständlichkeit mehr zu sein scheint. Die Lernziele, die darüber hinausgehen, sind allerdings schwieriger zu klären. Der Streit ist im Kern die gute alte Kanon-Debatte: Was ist kulturell wertvoll, von praktischem Nutzen, zu überlieferndes Bildungsgut? Diese Fragen werden von den Vertretern der verschiedenen Generationen traditionsgemäß sehr unterschiedlich beantwortet. Während Großväter gern darauf verweisen, dass sie früher in der Schule unendliche Mengen von deutschen Balladen auswendig zu lernen hatten und auf Familienfesten regelmäßig und ungefragt ins Deklamieren von Schillers Glocke und anderen Hits verfallen, kontern die Enkel alle kulturpessimistischen Verfallserzählungen mit der enzyklopädischen Kenntnis von Pokemon-Figuren, Star Wars-Mythologie oder Chartkonstellationen. Aus Enkelperspektive muss man nur den Kanon in Richtung Weltwissen des Computerzeitalters verschieben, um einzusehen: Auch die Jugend hat einiges im Kopf. Die Konnotationen der verschiedenen Konzepte sind dabei klar: Goethe passt zu Großvater passt zu konservativ und überholt, die curriculäre Adelung von Popkultur verheißt dagegen den Anschein von Jugend, Frische, Modernität. Womit auch die Motivation für die kleine Sommerreise im Zeichen von Jugend und Bildung genannt wäre, die unser Kulturstaatsminister Julian Nida-Rümelin in dieser Woche unternommen hat. Es begann in Gronau, der münsterländischen Heimatstadt von Udo Lindenberg. Dort entsteht zur Zeit das erste Rock- und Popmuseum auf deutschem Boden. Grundstock der Sammlung sind umfangreiche Schenkungen von Herrn Lindenberg; in dieser Woche hat das Museum außerdem eine Original GI-Jacke von Elvis Presley aus den Händen eines Gelsenkirchener Fan-Clubs sowie die Totenmaske von Rio Reiser aus den Händen von Rios Bruder entgegennehmen dürfen. Offensichtlich nicht abgeschreckt von so viel Nekrophilie, fand sich auch Nida-Rümelin an der Popmuseumsbaustelle ein und bedauerte, dass die Rock- und Popmusik in Deutschland jahrzehntelang als unliebsamer Importartikel wie Comics und Kaugummi verpönt gewesen sei. Es gelte, Versäumtes nachzuholen. Seine Idee dazu: Das MusikInteresse junger Menschen solle künftig auch an Schulen stärker über die Popmusik gefördert werden. Die meisten Jugendlichen seien nicht primär über die Klassik für die Musikkultur zu gewinnen. Natürlich: Wo man die Bestände eines mit dem vielsagenden Attribut Altrocker versehen Musikers neben Devotionalien verstorbenener Helden auszustellen gedenkt, da mag auch die Idee einleuchten, Pop in der Schule zu lehren. Aus der Sicht des Pop ist das völlig ungefährlich. Vielleicht ist Schiller in deutschen Klassenzimmern getötet worden; Udo Lindenbergs Musik aber ist sowieso schon lange tot, auch ohne Museum.
    Und dank des schneckenartigen Tempos, in dem normalerweise Inhalte ihren Weg von der wirklichen Welt in die Lehrpläne finden, wird in den Schulen kein einziges Popstück durch öffentliches Vorführen an falschem Ort seine Aura verlieren, das irgendeinem Schüler noch etwas bedeutet. Sollen Sie doch die Akkordstruktur von Nirvanas Come as you are im Musikunterricht studieren und dazu Kurt Cobains demnächst erschienen Tagebücher lesen - das hätte immer noch den angemessenen Abstand vom wirklichen Leben der jetzigen Schülergeneration, der lebensnotwendig ist, um Schule ertragen zu können, und ergäbe zudem eine nette Lehreinheit mit Goethes Werther. Nachdem Nida-Rümelin so den Pop in die Schulen hineingelobt hatte, war er offensichtlich so in Schwung, dass er es gleich mit dem nächsten Produkt der Kulturindustrie versuchte: Bei der Vorstellung der saarländischen Schulfilmwoche "Lernort Kino" verkündetete er, für die ästhetische Erziehung von Jugendlichen seien Kinofilme ebenso bedeutsam wie Popmusik. Er äußerte sich besorgt, dass der Durchschnittsdeutsche nur 1,9 Mal pro Jahr ins Kino gehe. Film müsse daher als Medium der Kunst und Unterhaltung von der Bildungslandschaft angenommen werden. Im Saarland geht man mit nun mit gutem Beispiel voran und schulklassenweise zum Preis von 2,50 Euro in ausgewählte Spielfilme, darunter Literaturverfilmungen, Filmklassiker und aktuelle "themenbezogene" Filme, die möglichst zur politischen Bildung beitragen. Auch der Film wird es überleben, wenn er zum subventionierten Gegenstand didaktischer Bemühungen wird. Und diejenigen, die mittels des Filmprogramms ästhetisch erzogen werden sollen, werden als ersten Lernerfolg wahrscheinlich mitnehmen, dass es auch in den vermeintlichen Unterhaltungsmedien Pop und Film eine Unterscheidung zwischen E und U gibt: Auf der einen Seite das Privatvergnügen, auf der anderen Seite der kanonisierte Stoff. Nichts gegen Kanon, nichts gegen Pop in der Schule. Aber Charterfolge funktionieren anders - auch im Wahlkampf."
    Type
    a
  18. Egel, J.R.: ¬Die Erde ist eine Scheibe : Was die vier am häufigsten verkauften Enzyklopädien auf CD-ROM bieten (2000) 0.02
    0.022084557 = product of:
      0.06625367 = sum of:
        0.0013116484 = weight(_text_:a in 5502) [ClassicSimilarity], result of:
          0.0013116484 = score(doc=5502,freq=2.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.03821847 = fieldWeight in 5502, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5502)
        0.064942025 = weight(_text_:kurt in 5502) [ClassicSimilarity], result of:
          0.064942025 = score(doc=5502,freq=2.0), product of:
            0.24148957 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.029764405 = queryNorm
            0.2689227 = fieldWeight in 5502, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5502)
      0.33333334 = coord(2/6)
    
    Abstract
    Regelmäßig zum Weihnachtsgeschäft füllen Software-Hersteller Datenbanken mit Fakten, Klängen und Bildern - und brennen sie zu mehr oder weniger runderneuerten multimedialen Enzyklopädien. Die Silberscheiben des Jahrgangs 2001 sind im Handel. Wieder werden Rekordernten versprochen, mehr Artikel, Fotos, Videos, Audios und Animationen angepriesen. Eine CD-ROM alleine fasst nicht mehr alles - drei bis fünf müssen es sein, wahlweise komprimiert auf einer DVD. Alter Wein in neuen Schläuchen? Was bringen die neuen Versionen der Marktführer? Wer die absatzstärksten Anbieter miteinander vergleicht, bemerkt auch diesmal: Qualitativ hochwertige Produkte kommen aus lexikografisch erfahrenen Häusern (Bibliographisches Institut & F.A. Brockhaus AG) oder von Anbietern, die Inhalte weltweit gekauft haben (Microsoft Corporation) und multimedial umzusetzen wissen. Den größten Sprung macht "Der Brockhaus multimedial 2001" mit 60 Prozent mehr Text und einem neuen Recherchesystem. Jedem der 98 000 Artikel ist ein Netz von Bezügen zugeordnet, die es ermöglichen, per Mausklick verwandte Themen zu finden und sich so einen eigenen Weg durch den Faktendschungel zu bahnen. Der computergenerierte Kontext stellt etwa die Abfrage "Gerhard Schröder" in einen Suchzusammenhang mit "SPD, Lafontaine, Teufel, Jungsozialisten, Wieczorek-Zeul, Niedersachsen und Kurt Beck". Warum gerade dorthin, bleibt offen. An anderen Stellen überzeugt das Wissensnetz deutlicher. So führt der Begriff "Terzett" zu "Vokalensemble, Deklamation/Musik, Air/Musik, tacet, Romanze/Musik, Glee, Chorkantate und Duett". Außerdem bietet der Brockhaus (Basisversion 99 Mark, empfehlenswerte Version Premium 179 Mark) den Vorteil, dass jedes Wort in Texten automatisch Sprungstelle zu dem dazugehörigen Artikel ist, also nicht nur einzelne Links ausgewiesen werden, wie in anderen Werken üblich.
    Type
    a
  19. Kleinz, T.: Wikipedia professionalisiert sich : Das Büro der deutschen Sektion soll im Oktober in Frankfurt eröffnen - Schreiber und Spender werden umworben (2006) 0.02
    0.022084557 = product of:
      0.06625367 = sum of:
        0.0013116484 = weight(_text_:a in 2871) [ClassicSimilarity], result of:
          0.0013116484 = score(doc=2871,freq=2.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.03821847 = fieldWeight in 2871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2871)
        0.064942025 = weight(_text_:kurt in 2871) [ClassicSimilarity], result of:
          0.064942025 = score(doc=2871,freq=2.0), product of:
            0.24148957 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.029764405 = queryNorm
            0.2689227 = fieldWeight in 2871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2871)
      0.33333334 = coord(2/6)
    
    Content
    "Aufgaben wachsen mit den Projekten "Ich freue mich schon auf die Herausforderung", sagt der 34 Jahre alte Klempert über seine neue Aufgabe. Und die ist nicht klein: Mittlerweile ist Wikipedia ein Projekt mit Tausenden von Mitarbeitern, die organisiert sein wollen. Dazu kommen noch zahlreiche Schwester-Projekte, wie zum Beispiel das Nachrichten-Portal Wikinews oder das Bücher-Portal Wikibooks. Klempert ist zuversichtlich, dass er der Aufgabe gewachsen ist. Als Mitorganisator des Open-Air-Konzerts "Rock auf der Burg" hat er reichlich Erfahrungen gesammelt, im Büro der SPD-Landtagsabgeordneten Hildegard Klär lernte er auch das politische Geschäft kennen. Zwar ist der deutsche Verein nicht direkt verantwortlich für den Betrieb von Wikipedia, doch spielt er eine wichtige Rolle bei Öffentlichkeitsarbeit und bei der Anwerbung von Freiwilligen. Auf Messen und Seminaren werben die Wikipedianer für ihr Projekt, mit eigenen Veranstaltungen versuchen sie immer neue Kreise für das freie Wissen zu begeistern. Betrieben wird die Wiki-Welt von den USA aus - in Florida stehen die meisten Server des mittlerweile weltumspannenden Projekts, hier hat Wikipedia-Gründer Jimmy Wales sein Büro. Personell lebt die internationale Wikimedia Foundation schon immer auf schmalem Fuß. Obwohl die Organisation pro Jahr mehr als eine Million Dollar an Spendeneinnahmen verzeichnen kann, reicht dies nur für das Notwendigste. Die Stiftung hat nur vier Angestellte und zwei Praktikanten, die sich um Betrieb, Verwaltung und Spendenwerbung für Wikipedia und deren Schwester-Projekte kümmern. Die meiste Arbeit wird von Freiwilligen erledigt, die aber nur begrenzt Zeit und Kraft investieren können. Hinzu kommen die immer größeren Aufgaben, die mit dem Umfang des Projekts einhergehen. "Es gibt viele Organisationen, die uns bei unserer Arbeit unterstützen möchten% sagt der Wikimedia-Vorsitzende Kurt Jansson. Doch ohne eigenes Büro in Deutschland war das auf Dauer nicht zu schaffen. Hinzu kommt der finanzielle Aspekt: Klempert soll neue Gelder für das gemeinnützige Projekt organisieren.
    Type
    a
  20. Robinson, G.: Time out of mind : a critical consideration of Table 1g (2000) 0.02
    0.021856338 = product of:
      0.043712676 = sum of:
        0.008656438 = weight(_text_:a in 369) [ClassicSimilarity], result of:
          0.008656438 = score(doc=369,freq=4.0), product of:
            0.034319755 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.029764405 = queryNorm
            0.25222903 = fieldWeight in 369, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.109375 = fieldNorm(doc=369)
        0.01623713 = product of:
          0.06494852 = sum of:
            0.06494852 = weight(_text_:g in 369) [ClassicSimilarity], result of:
              0.06494852 = score(doc=369,freq=2.0), product of:
                0.11179353 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.029764405 = queryNorm
                0.5809685 = fieldWeight in 369, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.109375 = fieldNorm(doc=369)
          0.25 = coord(1/4)
        0.018819109 = product of:
          0.056457322 = sum of:
            0.056457322 = weight(_text_:22 in 369) [ClassicSimilarity], result of:
              0.056457322 = score(doc=369,freq=2.0), product of:
                0.104229875 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029764405 = queryNorm
                0.5416616 = fieldWeight in 369, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=369)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Source
    Extensions and corrections to the UDC. 22(2000), S.28-31
    Type
    a

Authors

Languages

Types

  • a 9260
  • m 700
  • el 515
  • s 221
  • x 57
  • b 40
  • r 30
  • i 28
  • n 16
  • p 14
  • l 1
  • More… Less…

Themes

Subjects

Classifications