Search (1592 results, page 1 of 80)

  • × year_i:[2000 TO 2010}
  1. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.38
    0.37753233 = product of:
      0.75506467 = sum of:
        0.07550647 = product of:
          0.2265194 = sum of:
            0.2265194 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.2265194 = score(doc=140,freq=2.0), product of:
                0.30228487 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.035655163 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
        0.2265194 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.2265194 = score(doc=140,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.2265194 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.2265194 = score(doc=140,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.2265194 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.2265194 = score(doc=140,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.5 = coord(4/8)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.36
    0.3629943 = product of:
      0.5807909 = sum of:
        0.05662985 = product of:
          0.16988955 = sum of:
            0.16988955 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.16988955 = score(doc=562,freq=2.0), product of:
                0.30228487 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.035655163 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.16988955 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16988955 = score(doc=562,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.16988955 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16988955 = score(doc=562,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.16988955 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16988955 = score(doc=562,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.014492347 = product of:
          0.028984694 = sum of:
            0.028984694 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.028984694 = score(doc=562,freq=2.0), product of:
                0.124858305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035655163 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  3. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.33
    0.33275786 = product of:
      0.5324126 = sum of:
        0.047191545 = product of:
          0.14157464 = sum of:
            0.14157464 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.14157464 = score(doc=5895,freq=2.0), product of:
                0.30228487 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.035655163 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
        0.14157464 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.14157464 = score(doc=5895,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.060497165 = weight(_text_:darstellung in 5895) [ClassicSimilarity], result of:
          0.060497165 = score(doc=5895,freq=2.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.30615672 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.14157464 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.14157464 = score(doc=5895,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.14157464 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.14157464 = score(doc=5895,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
      0.625 = coord(5/8)
    
    Abstract
    Das Problem der Wahrnehmung und Darstellung von Wahrheit durch die Medien führt zu vier zentralen Fragen: Wie viel Wahrheit gibt es in der Welt, über die Journalisten berichten müssen? Wie ermittelt oder recherchiert man diese Wahrheit? Wie trennt man die Spreu vom Weizen? Und wie geht man als Journalist mit dem um, was man als Wahrheit erkannt hat oder erkannt zu haben glaubt? Hier gibt es ganz offensichtlich eine Parallele zwischen Journalisten und Wissenschaftlern. Journalisten und Wissenschaftler brauchen erstens Hypothesen, zweitens geeignete Hypothesentests, drittens ein gutes Abgrenzungs-Kriterium und viertens Verfahren, um die erkannten Sachverhalte auf angemessene Weise für eine Kommunikation mit anderen zu repräsentieren, das heißt sie darzustellen. Es gibt zwei große Unterschiede zwischen Journalisten und Wissenschaftlern: Journalisten sind in der Regel auf raum-zeitlich begrenzte Aussagen aus, Wissenschaftler in der Regel auf raumzeitlich unbegrenzte Gesetze. Aber diese Unterschiede sind fließend, weil Wissenschaftler raum-zeitlich begrenzte Aussagen brauchen, um ihre All-Aussagen zu überprüfen, und Journalisten sich immer häufiger auf das Feld der allgemeinen Gesetzes-Aussagen wagen oder doch zumindest Kausalinterpretationen für soziale Phänomene anbieten. Der zweite Unterschied besteht darin, dass die Wissenschaft weitgehend professionalisiert ist (zumindest gilt dies uneingeschränkt für die Naturwissenschaften und die Medizin), was ihr relativ klare Abgrenzungs- und Güte-Kriterien beschert hat. Diese fehlen weitgehend im Journalismus.
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  4. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.33
    0.3303408 = product of:
      0.6606816 = sum of:
        0.066068165 = product of:
          0.19820449 = sum of:
            0.19820449 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.19820449 = score(doc=306,freq=2.0), product of:
                0.30228487 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.035655163 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.19820449 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.19820449 = score(doc=306,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.19820449 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.19820449 = score(doc=306,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.19820449 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.19820449 = score(doc=306,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.5 = coord(4/8)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  5. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.28
    0.28314927 = product of:
      0.56629854 = sum of:
        0.05662985 = product of:
          0.16988955 = sum of:
            0.16988955 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.16988955 = score(doc=2918,freq=2.0), product of:
                0.30228487 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.035655163 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.16988955 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.16988955 = score(doc=2918,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.16988955 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.16988955 = score(doc=2918,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.16988955 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.16988955 = score(doc=2918,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.5 = coord(4/8)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  6. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.19
    0.18876617 = product of:
      0.37753233 = sum of:
        0.037753236 = product of:
          0.1132597 = sum of:
            0.1132597 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.1132597 = score(doc=701,freq=2.0), product of:
                0.30228487 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.035655163 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.1132597 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.1132597 = score(doc=701,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.1132597 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.1132597 = score(doc=701,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.1132597 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.1132597 = score(doc=701,freq=2.0), product of:
            0.30228487 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.035655163 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(4/8)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  7. Bauer, G.: Graphische Darstellung interdisziplinärer Wissensstrukturen (2004) 0.10
    0.09976472 = product of:
      0.26603925 = sum of:
        0.17895034 = weight(_text_:graphischen in 3158) [ClassicSimilarity], result of:
          0.17895034 = score(doc=3158,freq=2.0), product of:
            0.3102411 = queryWeight, product of:
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.035655163 = queryNorm
            0.57681054 = fieldWeight in 3158, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.046875 = fieldNorm(doc=3158)
        0.072596595 = weight(_text_:darstellung in 3158) [ClassicSimilarity], result of:
          0.072596595 = score(doc=3158,freq=2.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.36738807 = fieldWeight in 3158, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=3158)
        0.014492347 = product of:
          0.028984694 = sum of:
            0.028984694 = weight(_text_:22 in 3158) [ClassicSimilarity], result of:
              0.028984694 = score(doc=3158,freq=2.0), product of:
                0.124858305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035655163 = queryNorm
                0.23214069 = fieldWeight in 3158, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3158)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Abstract
    Die moderne Wissenschaftsentwicklung ist durch eine zunehmende interdisziplinäre (multidisziplinäre) Verflechtung unterschiedlicher Wissensgebiete gekennzeichnet. Neue Erkenntnisse werden immer mehr in den Grenzgebieten zwischen den traditionellen Fachdisziplinen gewonnen. Problembearbeiter, Erfinder und dergl. benötigen also in erster Linie Wissen aus diesen Grenzgebieten oder Wissensteile aus u.U. klassifikatorisch sehr entfernt liegenden Gebieten, um spezielle Probleme lösen zu können. Die Arbeit in interdisziplinären Forschungsgruppen wird dadurch erschwert, dass in den verschiedenen Fachdisziplinen unterschiedliche Ordnungssysteme und Fachterminologien existieren. Auch sind die individuell unterschiedlichen Aspekte, unter denen das zu verarbeitende Wissen betrachtet werden kann ein Hindernis für die gegenseitige Verständigung. Die traditionellen Klassifikationen sind nicht geeignet, um dem multidisziplinären Zustand des Wissens gerecht zu werden. Es wird daher vorgeschlagen, eine disziplinunabhängige Ordung anzuwenden, die durch Anwendung des Kategorien prinzips erreicht werden kann. Die Möglichkeiten der graphischen Methode wird an verschiedenen Beispielen erläutert. Es wird darauf hingewiesen, dass in einer Definition des Begriffs "Wissensorgani sation" auch neuere Erkenntnisse der kognitiven Psychologie, der Neurobiologie und der semantischen Informationstheorie Berücksichtigung finden müssen.
    Pages
    S.15-22
  8. Trunk, D.: Semantische Netze in Informationssystemen : Verbesserung der Suche durch Interaktion und Visualisierung (2005) 0.08
    0.081429824 = product of:
      0.3257193 = sum of:
        0.119778275 = weight(_text_:darstellung in 2500) [ClassicSimilarity], result of:
          0.119778275 = score(doc=2500,freq=4.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.6061594 = fieldWeight in 2500, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2500)
        0.205941 = sum of:
          0.17212553 = weight(_text_:visualisierung in 2500) [ClassicSimilarity], result of:
            0.17212553 = score(doc=2500,freq=6.0), product of:
              0.21404348 = queryWeight, product of:
                6.003155 = idf(docFreq=296, maxDocs=44218)
                0.035655163 = queryNorm
              0.80416155 = fieldWeight in 2500, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                6.003155 = idf(docFreq=296, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2500)
          0.033815477 = weight(_text_:22 in 2500) [ClassicSimilarity], result of:
            0.033815477 = score(doc=2500,freq=2.0), product of:
              0.124858305 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.035655163 = queryNorm
              0.2708308 = fieldWeight in 2500, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2500)
      0.25 = coord(2/8)
    
    Abstract
    Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Sie bestehen aus relationierten Begriffen und helfen dem Nutzer das richtige Vokabular zur Fragebildung zu finden. Eine leicht und intuitiv erfassbare Darstellung und eine interaktive Bedienungsmöglichkeit optimieren den Suchprozess mit der Begriffsstruktur. Als Interaktionsform bietet sich Hy-pertext mit dem etablierte Point- und Klickverfahren an. Eine Visualisierung zur Unterstützung kognitiver Fähigkeiten kann durch eine Darstellung der Informationen mit Hilfe von Punkten und Linien erfolgen. Vorgestellt wer-den die Anwendungsbeispiele Wissensnetz im Brockhaus multimedial, WordSurfer der Firma BiblioMondo, SpiderSearch der Firma BOND und Topic Maps Visualization in dandelon.com und im Portal Informationswis-senschaft der Firma AGI - Information Management Consultants.
    Date
    30. 1.2007 18:22:41
    Theme
    Visualisierung
  9. Oberhauser, O.; Labner, J.: Mit Symbolen angereichert : OPAC-Kurzanzeige im Verbundkatalog und in Lokalsystemen (2007) 0.06
    0.06347736 = product of:
      0.25390944 = sum of:
        0.14912528 = weight(_text_:graphischen in 196) [ClassicSimilarity], result of:
          0.14912528 = score(doc=196,freq=2.0), product of:
            0.3102411 = queryWeight, product of:
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.035655163 = queryNorm
            0.48067543 = fieldWeight in 196, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.0390625 = fieldNorm(doc=196)
        0.10478417 = weight(_text_:darstellung in 196) [ClassicSimilarity], result of:
          0.10478417 = score(doc=196,freq=6.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.53027904 = fieldWeight in 196, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=196)
      0.25 = coord(2/8)
    
    Abstract
    Bekanntlich kennt der Aleph-500-OPAC mehrere Arten der Darstellung der Ergebnisliste (Kurztitelanzeige), die - in Abhängigkeit von der entsprechenden Voreinstellung - bei Ergebnismengen von mehr als einem Treffer ausgegeben wird: Neben dem Display in tabellarischer Form gibt es auch eine Darstellung in Listenform, sogar mit einer Option zur Gestaltung durch berechtigte Endbenutzer. In den Online-Katalogen unseres Verbundes hat sich aber praktisch ausschliesslich die erstgenannte Variante durchgesetzt, auf die sich auch die folgenden Aussagen beschränken. Beim 6. SysBib-Treffen, das im Herbst 2002 an der Bibliothek der TU Wien stattfand, zeigten wir erstmals, wie mittels Tabellenparametrisierung und JavaScript (OPAC) die Ergebnisliste mit graphischen Symbolen für spezielle Titel (externe Links, "Sondermaterialien") angereichert werden kann. Diese zunächst für den Österreichischen Verbundkatalog (damals noch unter der Aleph-Version 14.2) erstellte Lösung stiess in systembibliothekarischen Kreisen auf grosses Interesse. Bald darauf wurde eine Variante für die OPACs der an der Verbundzentrale geführten Lokalsysteme erstellt. Diese Lösung wurde von mehreren Verbundbibliotheken mit eigenem Lokalsystem übernommen und mitunter auch weiter modifiziert. 2003 wurde sie bei der D-A-CH-Tagung in Wien vorgestellt. 2005 erfolgten die Anpassung an die Aleph-Version 16 und eine laufzeitorientierte Optimierung des Skripts. Im Februar 2007 wurde das Skript weiter verbessert, um auch bisher nicht berücksichtigte Sonderfälle der Datenstrukturen einzubinden. Da wir immer wieder Anfragen aus dem Verbund erhalten, wollen wir mit diesem Beitrag den aktuellen Stand dokumentieren. Die folgende Darstellung der Funktionsweise der Icon-Anreicherungen beschränkt sich auf eine verbale Beschreibung der zugrundeliegenden Parametrisierungen und Algorithmen. Die Detaildokumentation (Tabellen und Skripte) findet sich auf der Homepage der OBVSG.
  10. Ernst, S.: Aspekte der Modellierung und Visualisierung von XML Topic Maps : die Entwicklung von Stylesheets zur Darstellung von Topic Maps in SVG (2004) 0.06
    0.05759331 = product of:
      0.23037323 = sum of:
        0.14519319 = weight(_text_:darstellung in 2216) [ClassicSimilarity], result of:
          0.14519319 = score(doc=2216,freq=2.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.73477614 = fieldWeight in 2216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.09375 = fieldNorm(doc=2216)
        0.085180044 = product of:
          0.17036009 = sum of:
            0.17036009 = weight(_text_:visualisierung in 2216) [ClassicSimilarity], result of:
              0.17036009 = score(doc=2216,freq=2.0), product of:
                0.21404348 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.035655163 = queryNorm
                0.79591346 = fieldWeight in 2216, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2216)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
  11. Bertelmann, R.; Braune, S.: ¬Ein Mapserver zur Suche im Kartenbestand (2003) 0.05
    0.049829524 = product of:
      0.1993181 = sum of:
        0.14912528 = weight(_text_:graphischen in 2018) [ClassicSimilarity], result of:
          0.14912528 = score(doc=2018,freq=2.0), product of:
            0.3102411 = queryWeight, product of:
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.035655163 = queryNorm
            0.48067543 = fieldWeight in 2018, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2018)
        0.05019282 = product of:
          0.10038564 = sum of:
            0.10038564 = weight(_text_:visualisierung in 2018) [ClassicSimilarity], result of:
              0.10038564 = score(doc=2018,freq=4.0), product of:
                0.21404348 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.035655163 = queryNorm
                0.4689965 = fieldWeight in 2018, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2018)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Das Material "Karte" ist vom Buch so verschieden und in seiner Ausformung so spezifisch, dass Kartensammlungen in Bibliotheken in vielen Fällen nur unzureichend in die elektronischen Rechercheangebote integriert sind. Selbst eine Erfassung der Einzelkarten nach RAK-Karten und die Integration dieser Datensätze in die Bibliothekskataloge erlaubt zwar eine Suche nach den erfassten Daten, der Nutzen ist aber im Verhältnis zum Aufwand zumindest fraglich, da viele Nutzer auf diese Weise nicht fündig werden. Karten als visuelles Material fordern geradezu eine graphische Suchmöglichkeit. In der WeIt der Geoinformation werden seit Jahren Werkzeuge eingesetzt, die auf einer internetbasierten graphischen Suche basieren und damit eine Online-Visualisierung von Kartenbeständen ermöglichen. Im Folgenden wird ein Prototyp für eine solche Online-Visualisierung mit Hilfe eines sogenannten Mapservers am Beispiel eines Teils des Kartenbestands der Bibliothek des Wissenschaftsparks Albert Einstein vorgestellt. - Ausgangssituation- Die Institute GeoForschungsZentrum Potsdam, Potsdam-Institut für Klimafolgenforschung und Alfred-Wegener-Institut für Polar- und Meeresforschung Forschungsstelle Potsdam haben ihren Sitz im Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam und betreiben dort eine Gemeinschaftsbibliothek. Teil des Bestands ist eine historisch gewachsene Landkartensammlung von ca. 40.000 Karten. Diese Karten sind bisher weitgehend nicht elektronisch recherchierbar, ein größerer Teil ist selbst konventionell nicht katalogisiert. Nur von etwa 2000 Kartenblättern sind die Metadaten nach RAK erfasst, bei etwa 500 dieser Blätter beinhalten diese Metadaten die geographischen Koordinaten. Gehalten werden diese Daten in SISIS-ONL. Die Sammlung besteht nicht nur aus topographischen, sondern auch aus einer Vielzahl thematischer Karten. Die erfassten Regionen verteilen sich über die gesamte Erde unter Einschluss der Polargebiete.
  12. Trunk, D.: Inhaltliche Semantische Netze in Informationssystemen : Verbesserung der Suche durch Interaktion und Visualisierung (2005) 0.04
    0.0426897 = product of:
      0.1707588 = sum of:
        0.08469603 = weight(_text_:darstellung in 790) [ClassicSimilarity], result of:
          0.08469603 = score(doc=790,freq=2.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.4286194 = fieldWeight in 790, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
        0.08606277 = product of:
          0.17212553 = sum of:
            0.17212553 = weight(_text_:visualisierung in 790) [ClassicSimilarity], result of:
              0.17212553 = score(doc=790,freq=6.0), product of:
                0.21404348 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.035655163 = queryNorm
                0.80416155 = fieldWeight in 790, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=790)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Sie bestehen aus relationierten Begriffen und helfen dem Nutzer, das richtige Vokabular zur Fragebildung zu finden. Eine leicht und intuitiv erfassbare Darstellung und eine interaktive Bedienungsmöglichkeit optimieren den Suchprozess mit der Begriffsstruktur. Als Interaktionsform bietet sich Hypertext mit seinem Point- und Klickverfahren an. Die Visualisierung erfolgt als Netzstruktur aus Punkten und Linien. Es werden die Anwendungsbeispiele Wissensnetz im Brockhaus multimedial, WordSurfer der Firma BiblioMondo, SpiderSearch der Firma BOND und Topic Maps Visualization in dandelon.com und im Portal Informationswissenschaft der Firma AGI - Information Management Consultants vorgestellt.
    Theme
    Visualisierung
  13. Ohly, H.P.: Erstellung und Interpretation von semantischen Karten am Beispiel des Themas 'Soziologische Beratung' (2004) 0.04
    0.042366657 = product of:
      0.16946663 = sum of:
        0.119778275 = weight(_text_:darstellung in 3176) [ClassicSimilarity], result of:
          0.119778275 = score(doc=3176,freq=4.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.6061594 = fieldWeight in 3176, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3176)
        0.049688358 = product of:
          0.099376716 = sum of:
            0.099376716 = weight(_text_:visualisierung in 3176) [ClassicSimilarity], result of:
              0.099376716 = score(doc=3176,freq=2.0), product of:
                0.21404348 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.035655163 = queryNorm
                0.46428284 = fieldWeight in 3176, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3176)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Bei der Analyse von Informationsströmen und -systemen mit statistischen Methoden werden die Ergebnisse gerne in Grafiken dargestellt, da diese intuitiv schneller zu erfassen sind und auch Laien ohne tiefere statistische Vorbildung eine Anschauung bekommen können. Klassisches Beispiel ist etwa die graphische Darstellung der Verluste des napoleonischen Heeres in Russland (Abb. 1). Unbeachtet bleibt dabei oft, dass trotz Einfachheit der Darstellung meist große Mengen von Daten herangezogen werden und diese dann lediglich nach wenigen Gesichtspunkten in eine Grafik projiziert werdens, was leicht auch zu Fehleinschätzungen führen kann. Es sind darum geeignete Verfahren auszuwählen, die eine adäquate und möglichst 'objektive' Interpretation ermöglichen.
    Theme
    Visualisierung
  14. Uhl, M.: Medien - Gehirn - Evolution : Mensch und Medienkultur verstehen ; eine transdisziplinäre Medienanthropologie (2009) 0.03
    0.033267822 = product of:
      0.13307129 = sum of:
        0.12099433 = weight(_text_:darstellung in 510) [ClassicSimilarity], result of:
          0.12099433 = score(doc=510,freq=8.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.61231345 = fieldWeight in 510, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=510)
        0.012076956 = product of:
          0.024153912 = sum of:
            0.024153912 = weight(_text_:22 in 510) [ClassicSimilarity], result of:
              0.024153912 = score(doc=510,freq=2.0), product of:
                0.124858305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035655163 = queryNorm
                0.19345059 = fieldWeight in 510, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=510)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Classification
    LC 50000: Darstellung ohne geografischen Bezug / Ethnologie / Kunst und Wissen
    LC 13000: Darstellung ohne geografischen Bezug / Ethnologie / Materielle Kultur und Wirtschaftsethnologie
    Date
    12. 2.2022 17:28:22
    RVK
    LC 50000: Darstellung ohne geografischen Bezug / Ethnologie / Kunst und Wissen
    LC 13000: Darstellung ohne geografischen Bezug / Ethnologie / Materielle Kultur und Wirtschaftsethnologie
  15. Franzmeier, G.: ¬Die Zeitschriftendatenbank (ZDB) (2001) 0.03
    0.029029649 = product of:
      0.116118595 = sum of:
        0.09679546 = weight(_text_:darstellung in 1777) [ClassicSimilarity], result of:
          0.09679546 = score(doc=1777,freq=2.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.48985076 = fieldWeight in 1777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0625 = fieldNorm(doc=1777)
        0.01932313 = product of:
          0.03864626 = sum of:
            0.03864626 = weight(_text_:22 in 1777) [ClassicSimilarity], result of:
              0.03864626 = score(doc=1777,freq=2.0), product of:
                0.124858305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035655163 = queryNorm
                0.30952093 = fieldWeight in 1777, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1777)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Nach einer kurzen Darstellung der Entstehungsgeschichte und der Grundideen, nach denen die ZDB aufgebaut wurde und die sie noch heute bestimmen, beschreibt der Beitrag ausführlicher die derzeitige Situation der ZDB unter den drei Gesichtspunkten des Verbundsystems, der zugrundeliegenden Datenbank und der Produkte aus dieser Datenbank für die Endnutzer. Anschließend werden unter ,Perspektiven' Fragen des inhaltlichen Ausbaus der ZDB, der besonderen Anforderungen durch die elektronischen Zeitschriften, der Verbesserung der Online-Kommunikation, der Anbindung von Aufsatz-Datenbanken und einige weitere Aufgaben behandelt.
    Date
    22. 3.2008 13:56:55
  16. Semar, W.: Leistungsvisualisierung im kollaborativen E-Learning mit Hilfe spezieller Kennzahlen (2008) 0.03
    0.028796654 = product of:
      0.11518662 = sum of:
        0.072596595 = weight(_text_:darstellung in 1381) [ClassicSimilarity], result of:
          0.072596595 = score(doc=1381,freq=2.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.36738807 = fieldWeight in 1381, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=1381)
        0.042590022 = product of:
          0.085180044 = sum of:
            0.085180044 = weight(_text_:visualisierung in 1381) [ClassicSimilarity], result of:
              0.085180044 = score(doc=1381,freq=2.0), product of:
                0.21404348 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.035655163 = queryNorm
                0.39795673 = fieldWeight in 1381, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1381)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Der bisherige Einsatz elektronischer Kommunikationsforen in der Lehre hat gezeigt, dass die Motivation zur Teilnahme an kollaborativen Prozessen erst geweckt bzw. verstärkt werden muss. Aus diesem Grund wurde im K3-System ein Gratifikationssystem implementiert, das einerseits Anreize zur aktiven Teilnahme schafft und andererseits bestimmte Schlüsselkompetenzen (hier Informations-, Kommunikations- und Teamkompetenz) bei den Teilnehmern entwickelt und verbessert. Im kollaborativen Wissensmanagementsystem K3 wird dies im Wesentlichen dadurch erreicht, dass die Akteure direktes und indirektes Feedback über die von ihnen erbrachten Leistungen erhalten. Ein Alleinstellungsmerkmal des K3-Gratifikationssystems ist die Feedbackgestaltung mit Hilfe der Visualisierung bestimmter Leistungsmerkmale der teilnehmenden Akteure. In diesem Beitrag wird zunächst ganz allgemein beschrieben, wie das K3-Gratifikationssystem in den kollaborativen Prozess eingebunden ist. Aufbauend auf der Entwicklung spezieller Kennzahlen zur Leistungsbeschreibung der teilnehmenden Akteure wird der Schwerpunkt auf die Darstellung verschiedener Visualisierungsformen dieser Leistungskennzahlen gelegt.
  17. Rehn, A.: Daten-Schnüffler : Software-Entwickler verbessern Suchmaschinen, um Ordnung ins Chaos zu bringen (2004) 0.03
    0.02723603 = product of:
      0.10894412 = sum of:
        0.042348016 = weight(_text_:darstellung in 3671) [ClassicSimilarity], result of:
          0.042348016 = score(doc=3671,freq=2.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.2143097 = fieldWeight in 3671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3671)
        0.0665961 = sum of:
          0.049688358 = weight(_text_:visualisierung in 3671) [ClassicSimilarity], result of:
            0.049688358 = score(doc=3671,freq=2.0), product of:
              0.21404348 = queryWeight, product of:
                6.003155 = idf(docFreq=296, maxDocs=44218)
                0.035655163 = queryNorm
              0.23214142 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.003155 = idf(docFreq=296, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
          0.016907739 = weight(_text_:22 in 3671) [ClassicSimilarity], result of:
            0.016907739 = score(doc=3671,freq=2.0), product of:
              0.124858305 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.035655163 = queryNorm
              0.1354154 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
      0.25 = coord(2/8)
    
    Content
    "Ein Surfer-Leben ohne Suchmaschinen ist nicht vorstellbar. Doch so großartig die virtuellen Spürhunde auch sind sie haben eine Schwäche: Oft liefern sie einfach zu viele Informationen. Und die meisten Seiten' die als Ergebnis ausgeworfen werden, sind oft gar nicht von Interesse für den Surfer. Findige Software-Entwickler wollen nun Ordnung ins Chaos bringen und Google und Co. den Rang in der Gunst der Internet-Nutzer ablaufen. Das Prinzip ist einfach: Die Suchergebnisse werden bereits vor dem Anzeigen analysiert und automatisch in Kategorien sortiert. Anders als bei den herkömmlichen Listen, denen meist die innere Ordnung fehlt nimmt die Software dem Suchenden also das Strukturieren der Fundstellen ab. Dieses Prinzip steckt beispielsweise hinter der Meta-Suchmaschine www vivisimo. com. "Wir beleben den sonst nervtötenden Prozess der Informationssuche" sagt Vivisimo-Mitgründer Raul Valdes-Perez. Das Unternehmen aus Pittsburgh verkauft seine Technologie nicht nur an Geschäftskunden; sondern stellt die ClusterMaschine im Internet kostenlos zur Verfügungauch in einer deutschen Version. Wenn man sich das Web als einen riesigen Buchladen vorstellt, in dem alle Bücher willkür - lich auf dem Boden aufgestapelt sind, dann ist Vivisimo nach Darstellung von Valdes-Perez ein rasanter Buchhändler der die verschiedenen Titel in Sekundenschnelle nach sinnvollen Kriterien in Regale einordnet. Doch anders als in Buchläden oder Bibliotheken gibt es bei Vivisimo keine festen Kategorien. Die Software legt sie ad hoc fest indem sie die Sucherergebnisse nach linguistischen und statistischen Gesichtspunkten analysiert.
    - Karte mit bunten Kreisen - Während Vivisimo noch eine klassische MetaSuchmaschine ist, ist Grokker (www.groxis. com) ein Programm des kalifornischen Softwareunternehmens Groxis, schon optisch eine Innovation. Es sortiert die Suchergebnisse nicht nur, sondern visualisiert-die Kategorien als Karte mit bunten Kreisen. Innerhalb eines solchen Kreises gibt es Unterkategorien, also kleinere Kreise, die angeklickt werden können. Allerdings dauert es ein wenig, bis man sich damit zurechtfindet. Ein einfaches Beispiel verdeutlicht den Unterschied zu herkömmlichen Suchmaschinen. Bei den Schlagworten "Paris Hilton" erhält man etwa bei Google einerseits Treffer aus der Kategorie Reisen und Unterkünfte andererseits aber auch jede Menge Seiten, auf denen die Hotelerbin Paris Hilton erwähnt ist. Denn Google sortiert die Fundstellen danach wie viele Links zur jeweiligen Seite führen. Dem Nutzer bleibt die Arbeit, die lange Liste zu durchforsten: Nicht so bei Grokker oder Vivisimo: Hier werden die Ergebnisse nach Themengebieten gruppiert. Grokker selbst ist aber keine Suchmaschine, sondern kombiniert die Resultate von Yahoo, MSN, AltaVista, Wisenut, Teoma und FAST. Das Programm kann auch Dateien auf der Festplatte kategorisieren. Wir sind jetzt in der Lage, alles zu 'grokken'" sagt Groxis-Chef R. J. Pittman. Auch mit Google stehe man in Verhandlungen. Anders als bei Vivisimo gibt es von Grokker keine deutsche Version. Und außerdem ist das Programm nicht gratis: Die Vollversion kostet 49,95 Dollar, eine kostenlose Testversion für 30 Tage kann nach Anmeldung heruntergeladen werden. Eine andere Form der Visualisierung von Suchergebnissen hat www.touchgraph.com entwickelt. Die Firma bietet mit dem TouchGraph Google Browser ein Applet an, das die Fundstellen als Netzstruktur, als Beziehungsgeflecht veranschaulicht. Basis dafür ist die GoogleFunktion "Ähnliche Seiten". Die dokumentierten Verknüpfungen zwischen den verschiedenen Internetseiten werden grafisch dargestellt."
    Date
    3. 5.1997 8:44:22
  18. Albrecht, C.: Landkarten des Wissens : Eine Tagung über enzyklopädische Informationsverarbeitung (2001) 0.03
    0.026202805 = product of:
      0.10481122 = sum of:
        0.07456264 = weight(_text_:graphischen in 4572) [ClassicSimilarity], result of:
          0.07456264 = score(doc=4572,freq=2.0), product of:
            0.3102411 = queryWeight, product of:
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.035655163 = queryNorm
            0.24033771 = fieldWeight in 4572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4572)
        0.030248582 = weight(_text_:darstellung in 4572) [ClassicSimilarity], result of:
          0.030248582 = score(doc=4572,freq=2.0), product of:
            0.19760194 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.035655163 = queryNorm
            0.15307836 = fieldWeight in 4572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4572)
      0.25 = coord(2/8)
    
    Content
    Jonathan Swift brauchte in "Gullivers Reisen" die Projekte barocker Kunstsprachen nur zu beschreiben, und die Satire ergab sich daraus fast so mechanisch wie die Sätze, die der kurbelgetriebene Satzgenerator der Großen Akademie von Ladago hervorbringt. Fast ebenso mechanisch werden Wörterbuchkritiker wie Pierre Bayle zu Wörterbuchmachern. Paul Michel (Zürich) zitierte Bayle in einem quasienzyklopädischen Reigen historischer Enzyklopädiekritiker. Das "Wesen" der Enzyklopädie besteht demnach darin, Enzyklopädiekritik hervorzurufen. Was Zotter für die Ordnung im Internet festhielt, gilt für alle Enzyklopädistik: Sie scheitert gewissermaßen kontrolliert an der Dynamik der Wirklichkeit. Tiere nach der Form ihrer Exkremente zu klassifizieren, ist zwar, wie Lichtenberg feststellte, möglich, aber nach modernen Maßstäben nicht unbedingt sinnvoll. Über Sinn und Unsinn enzyklopädischer Ordnungssysteme entscheiden jedoch die Bedürfnisse der Nutzer. Iolanda Ventura stellte das alphabetisch sortierte Herbarium in der Enzyklopädie des Bartholomäus Anglicus (etwa 1230-40) vor. Es enthielt Randnoten über die Eigenschaften der Dinge und ihre allegorische Deutung; Prediger und Bibelexegeten konnten sie zur Darstellung von Tugenden und Lastern heranziehen. Zur charakterlichen Bildung dienten auch die eklektischen adab-Enzyklopädien mittelalterlicher arabischer Gelehrter (Hinrich Biesterfeldt, Bochum). Mit den Techniken des Sicherns, Ordnens und Verarbeitens von Wissen - so auch das Thema der Tagung - beschäftigten sich die drei wegweisenden Beiträge der Tagung. Gemeint sind vor allem Techniken des Exzerpierens und Indizierens von Texten. Um wichtige Passagen dem schnellen Zugriff bereitzustellen, schrieben Gelehrte einzelne Stichwörter zusammen mit einem Verweis auf das Kapitel oder den Paragraphen der Fundstelle auf Blätter. Diese zerschnitten sie anschließend in kleine Zettel. Halteschnüre oder ein lösbarer Leim erlaubten es, sie zu ordnen und laufend zu ergänzen, bis am Ende ein privater Buchindex entstanden war. Anleitungen zum Registermachen und zum Anlegen von Zettelkästen mit losen Zetteln kamen im siebzehnten Jahrhundert auf. Die darin beschriebenen Techniken bildeten eine Voraussetzung für die Durchsetzung alphabetisch statt systematisch geordneter enzyklopädischer Werke. Helmut Zedelmaier (Wolfenbüttel) machte jedoch in seiner Analyse dieser Quellen die Kontinuität wissensverarbeitender Techniken seit dem Mittelalter deutlich. Schon im späten Mittelalter wurden Buchregister in Handschriften erstellt, und die Gewohnheit des Verweisens auf Kapitel und Paragraphen behielt man bis ins siebzehnte Jahrhundert bei. Was die Verzettelung bei der Registererstellung überhaupt ermöglichte, war einfaches billiges Papier, das man in kleine Stücke schneiden konnte. Das Indizieren. von Texten ist eine anspruchsvolle Tätigkeit. In Amerika sind die professionellen Indizierer sogar zu einem Berufsverband zusammengeschlossen. Thomas Carlyle sagte zu Recht, ein Index ohne Buch habe ihm manchmal genützt, ein Buch ohne Index nie. Eine Art Index ohne Buch sind Florilegien, die Gilbert Hess (München) als eine Sonderform von Enzyklopädien untersuchte. Das Verfassen von Texten war in der rhetorischen Tradition ein Finden, nicht ein Erfinden. Wer Autoritäten anrufen, seine eigenen Behauptungen durch Zitieren von Autoritäten stützen oder seine Rede durch schöne Beispiele schmücken wollte, konnte auf Sammlungen von Gemeinplätzen zurückgreifen. Sie ermöglichten dank einem standardisierten System allgemeiner Suchkategorien den schnellen Zugriff auf Fundstellen. Zitate wurden oft als Originalzitate ausgegeben. Oder sie wurden gar nicht als Zitate ausgewiesen. Florilegien verdauten so die literarische Tradition, die in den Texten wiedergekäut wurde. Die vielen indirekten Zitate, die sich dem Gebrauch dieser "Reader's Digest"-Literatur verdanken, sind für den heutigen Leser nur nicht mehr erkennbar.
    Footnote
    Philosophen verachteten Buchregister als gelehrte Barbarei; Bücher seien nicht zum Nachschlagen da, sondern zum Durchlesen. Aber das hängt von der Art der in ihnen gesuchten Informationen ab. Bücher, die eher wie Datenbanken funktionierten, stellte Arndt Brendecke (München) vor, und zwar den bisher kaum untersuchten Typus historischer Tabellenwerke. Der Text dieser Geschichtsbücher ist tabellarisch, also räumlich gegliedert und daher tatsächlich nicht zum Durchlesen geeignet. Die Technik, Informationen in Spalten zu ordnen, wurde in Handel und Verwaltung entwickelt. Vorläufer historischer Tabellenwerke gab es auch hier bereits im Mittelalter; in der Tradition der Chronologie, der Computistik, der Annalistik und der Mnemonik. Neu war im sechzehnten Jahrhundert der Grad der graphischen Ausgestaltung solcher Tabellen. Auch hier schuf der Buchdruck nicht etwas von Grund auf Neues. Er ermöglichte vielmehr eine Verfeinerung und Ausweitung bestehender Techniken. In diesem Fall einfach dadurch, daß mit sehr kleinen Typen sehr viel Text in die feingerasterten Tabellenzellen gedruckt werden konnte. Aber dadurch wurde eine neue Qualität quasigraphischer Informationsverarbeitung geschaffen. Die synoptische Darstellungsform half zunächst, Ereignisse verschiedener Überlieferungen in chronologische Übereinstimmung zu bringen. Sie ermöglichte den synchronen Vergleich verschiedener Register einer Kultur: der politischen, kulturellen, religiösen Ereignisse. Die Einteilung in derartige Kolumnen förderte die Entstehung von Segmentgeschichten mit deutlich ausgeprägter Epochenstruktur. Die tabellarische Darstellungsweise muß man sich dabei in der Praxis als eine Benutzeroberfläche eines "Hypertextes" vorstellen; hatte man sich einen Überblick verschafft, suchte man vertiefende Informationen in Kompendien. Was anfangs die vorrangig didaktische Funktion hatte, das Memorieren fürstlicher Dynasten und ihrer Haupt- und Staatsaktionen zu erleichtern, wird später zum Erkenntnismodell, um kausale Zusammenhänge zu verstehen. Der Aufklärungshistoriker Ludwig August Schlözer verstand die Weltgeschichte als "eine systematische Sammlung von Sätzen, vermittels deren sich der gegenwärtige Zustand der Erde und des Menschengeschlechts aus Gründen verstehen läßt.""
  19. JAK: Klick-Wissen : Digitales Lexikon (2002) 0.03
    0.02554821 = product of:
      0.20438568 = sum of:
        0.20438568 = weight(_text_:diagramm in 970) [ClassicSimilarity], result of:
          0.20438568 = score(doc=970,freq=2.0), product of:
            0.3315571 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.035655163 = queryNorm
            0.6164419 = fieldWeight in 970, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.046875 = fieldNorm(doc=970)
      0.125 = coord(1/8)
    
    Content
    Das Microsoft Lexikon glänzte schon immer durch ordentliche Artikel, die schön gemachte Oberfläche und eine lange Feature-Liste. In Encarta 2003 Professional sind ein Deutsch-Englisch-Lexikon sowie Lern- und Recherche-Tools hinzugekommen. Uns lag zum Test die ProfessionalVersion (DVD, auch auf vier CDs) vor. Eine Standard-Version ohne Wörterbuch und Recherche-Tools und weniger Einträgen gibt es für 59,95 Euro. Wenig attraktiv ist das neue DeutschEnglisch/Englisch-Deutsch-Wörterbuch. Der von Langenscheidt lizenzierte Wortschatz enthält zwar 40000 Einträge, die Informationen sind aber knapp. Weiterführende Grammatikhinweise und Beispielsätze fehlen ebenso wie eine sinnvolle Anbindung an eine Textverarbeitung. Neu ist ein ziemlich unflexibler Diagramm-Assistent, der nach Mustervorlagen Balken- und Kreisdiagramme erzeugt. Nett sind die neu hinzugekommenen Tipps und Anleitungen, wie man Referate und Hausarbeiten recherchiert. Die neue Encarta enthält laut Hersteller knapp 47000 Einträge, 5500 WebLinks, 15 Stunden Audio- und VideoClips, sowie 19000 Fotos und Abbildungen zum Anklicken. Nervig ist, dass die Registrierung von Encarta nur über ein Microsoft-Passport möglich ist. Die Web-Suche findet zwangsweise über MSN statt.
  20. Pasquinelli, M.: Googles PageRank : Diagramm des kognitiven Kapitalismus und Rentier des gemeinsamen Wissens (2009) 0.03
    0.02554821 = product of:
      0.20438568 = sum of:
        0.20438568 = weight(_text_:diagramm in 25) [ClassicSimilarity], result of:
          0.20438568 = score(doc=25,freq=2.0), product of:
            0.3315571 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.035655163 = queryNorm
            0.6164419 = fieldWeight in 25, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.046875 = fieldNorm(doc=25)
      0.125 = coord(1/8)
    

Languages

Types

  • a 1254
  • m 227
  • el 88
  • s 61
  • x 42
  • b 27
  • i 13
  • r 3
  • n 2
  • l 1
  • p 1
  • More… Less…

Themes

Subjects

Classifications