Search (1263 results, page 1 of 64)

  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.38
    0.37555605 = product of:
      0.7511121 = sum of:
        0.07511121 = product of:
          0.22533363 = sum of:
            0.22533363 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.22533363 = score(doc=140,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
        0.22533363 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.22533363 = score(doc=140,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.22533363 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.22533363 = score(doc=140,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.22533363 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.22533363 = score(doc=140,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.5 = coord(4/8)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.36
    0.36109406 = product of:
      0.5777505 = sum of:
        0.056333408 = product of:
          0.16900022 = sum of:
            0.16900022 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.16900022 = score(doc=562,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.16900022 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16900022 = score(doc=562,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.16900022 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16900022 = score(doc=562,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.16900022 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16900022 = score(doc=562,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.014416483 = product of:
          0.028832966 = sum of:
            0.028832966 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.028832966 = score(doc=562,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  3. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.33
    0.33101594 = product of:
      0.52962554 = sum of:
        0.04694451 = product of:
          0.14083353 = sum of:
            0.14083353 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.14083353 = score(doc=5895,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
        0.14083353 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.14083353 = score(doc=5895,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.060180478 = weight(_text_:darstellung in 5895) [ClassicSimilarity], result of:
          0.060180478 = score(doc=5895,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.14083353 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.14083353 = score(doc=5895,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.14083353 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.14083353 = score(doc=5895,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
      0.625 = coord(5/8)
    
    Abstract
    Das Problem der Wahrnehmung und Darstellung von Wahrheit durch die Medien führt zu vier zentralen Fragen: Wie viel Wahrheit gibt es in der Welt, über die Journalisten berichten müssen? Wie ermittelt oder recherchiert man diese Wahrheit? Wie trennt man die Spreu vom Weizen? Und wie geht man als Journalist mit dem um, was man als Wahrheit erkannt hat oder erkannt zu haben glaubt? Hier gibt es ganz offensichtlich eine Parallele zwischen Journalisten und Wissenschaftlern. Journalisten und Wissenschaftler brauchen erstens Hypothesen, zweitens geeignete Hypothesentests, drittens ein gutes Abgrenzungs-Kriterium und viertens Verfahren, um die erkannten Sachverhalte auf angemessene Weise für eine Kommunikation mit anderen zu repräsentieren, das heißt sie darzustellen. Es gibt zwei große Unterschiede zwischen Journalisten und Wissenschaftlern: Journalisten sind in der Regel auf raum-zeitlich begrenzte Aussagen aus, Wissenschaftler in der Regel auf raumzeitlich unbegrenzte Gesetze. Aber diese Unterschiede sind fließend, weil Wissenschaftler raum-zeitlich begrenzte Aussagen brauchen, um ihre All-Aussagen zu überprüfen, und Journalisten sich immer häufiger auf das Feld der allgemeinen Gesetzes-Aussagen wagen oder doch zumindest Kausalinterpretationen für soziale Phänomene anbieten. Der zweite Unterschied besteht darin, dass die Wissenschaft weitgehend professionalisiert ist (zumindest gilt dies uneingeschränkt für die Naturwissenschaften und die Medizin), was ihr relativ klare Abgrenzungs- und Güte-Kriterien beschert hat. Diese fehlen weitgehend im Journalismus.
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  4. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.33
    0.32861155 = product of:
      0.6572231 = sum of:
        0.06572232 = product of:
          0.19716693 = sum of:
            0.19716693 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.19716693 = score(doc=306,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.19716693 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.19716693 = score(doc=306,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.19716693 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.19716693 = score(doc=306,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.19716693 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.19716693 = score(doc=306,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.5 = coord(4/8)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  5. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.28
    0.28166702 = product of:
      0.56333405 = sum of:
        0.056333408 = product of:
          0.16900022 = sum of:
            0.16900022 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.16900022 = score(doc=2918,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.16900022 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.16900022 = score(doc=2918,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.16900022 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.16900022 = score(doc=2918,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.16900022 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.16900022 = score(doc=2918,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.5 = coord(4/8)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  6. Ohly, H.P.: Erstellung und Interpretation von semantischen Karten am Beispiel des Themas 'Soziologische Beratung' (2004) 0.13
    0.13345051 = product of:
      0.35586804 = sum of:
        0.18728852 = weight(_text_:graphische in 3176) [ClassicSimilarity], result of:
          0.18728852 = score(doc=3176,freq=2.0), product of:
            0.29307285 = queryWeight, product of:
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.03546852 = queryNorm
            0.6390511 = fieldWeight in 3176, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3176)
        0.119151264 = weight(_text_:darstellung in 3176) [ClassicSimilarity], result of:
          0.119151264 = score(doc=3176,freq=4.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.6061594 = fieldWeight in 3176, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3176)
        0.04942825 = product of:
          0.0988565 = sum of:
            0.0988565 = weight(_text_:visualisierung in 3176) [ClassicSimilarity], result of:
              0.0988565 = score(doc=3176,freq=2.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.46428284 = fieldWeight in 3176, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3176)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Abstract
    Bei der Analyse von Informationsströmen und -systemen mit statistischen Methoden werden die Ergebnisse gerne in Grafiken dargestellt, da diese intuitiv schneller zu erfassen sind und auch Laien ohne tiefere statistische Vorbildung eine Anschauung bekommen können. Klassisches Beispiel ist etwa die graphische Darstellung der Verluste des napoleonischen Heeres in Russland (Abb. 1). Unbeachtet bleibt dabei oft, dass trotz Einfachheit der Darstellung meist große Mengen von Daten herangezogen werden und diese dann lediglich nach wenigen Gesichtspunkten in eine Grafik projiziert werdens, was leicht auch zu Fehleinschätzungen führen kann. Es sind darum geeignete Verfahren auszuwählen, die eine adäquate und möglichst 'objektive' Interpretation ermöglichen.
    Theme
    Visualisierung
  7. Bauer, G.: Graphische Darstellung interdisziplinärer Wissensstrukturen (2004) 0.09
    0.09268728 = product of:
      0.24716608 = sum of:
        0.16053303 = weight(_text_:graphische in 3158) [ClassicSimilarity], result of:
          0.16053303 = score(doc=3158,freq=2.0), product of:
            0.29307285 = queryWeight, product of:
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.03546852 = queryNorm
            0.5477581 = fieldWeight in 3158, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.046875 = fieldNorm(doc=3158)
        0.07221657 = weight(_text_:darstellung in 3158) [ClassicSimilarity], result of:
          0.07221657 = score(doc=3158,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.36738807 = fieldWeight in 3158, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=3158)
        0.014416483 = product of:
          0.028832966 = sum of:
            0.028832966 = weight(_text_:22 in 3158) [ClassicSimilarity], result of:
              0.028832966 = score(doc=3158,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.23214069 = fieldWeight in 3158, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3158)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Pages
    S.15-22
  8. Schwartz, D.: Graphische Datenanalyse für digitale Bibliotheken : Leistungs- und Funktionsumfang moderner Analyse- und Visualisierungsinstrumente (2006) 0.08
    0.078573555 = product of:
      0.31429422 = sum of:
        0.26486596 = weight(_text_:graphische in 30) [ClassicSimilarity], result of:
          0.26486596 = score(doc=30,freq=4.0), product of:
            0.29307285 = queryWeight, product of:
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.03546852 = queryNorm
            0.9037547 = fieldWeight in 30, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.0546875 = fieldNorm(doc=30)
        0.04942825 = product of:
          0.0988565 = sum of:
            0.0988565 = weight(_text_:visualisierung in 30) [ClassicSimilarity], result of:
              0.0988565 = score(doc=30,freq=2.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.46428284 = fieldWeight in 30, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=30)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Das World Wide Web stellt umfangreiche Datenmengen zur Verfügung. Für den Benutzer wird es zunehmend schwieriger, diese Datenmengen zu sichten, zu bewerten und die relevanten Daten herauszufiltern. Einen Lösungsansatz für diese Problemstellung bieten Visualisierungsinstrumente, mit deren Hilfe Rechercheergebnisse nicht mehr ausschließlich über textbasierte Dokumentenlisten, sondern über Symbole, Icons oder graphische Elemente dargestellt werden. Durch geeignete Visualisierungstechniken können Informationsstrukturen in großen Datenmengen aufgezeigt werden. Informationsvisualisierung ist damit ein Instrument, um Rechercheergebnisse in einer digitalen Bibliothek zu strukturieren und relevante Daten für den Benutzer leichter auffindbar zu machen.
    Theme
    Visualisierung
  9. Bertelmann, R.; Braune, S.: ¬Ein Mapserver zur Suche im Kartenbestand (2003) 0.05
    0.0459269 = product of:
      0.1837076 = sum of:
        0.13377751 = weight(_text_:graphische in 2018) [ClassicSimilarity], result of:
          0.13377751 = score(doc=2018,freq=2.0), product of:
            0.29307285 = queryWeight, product of:
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.03546852 = queryNorm
            0.45646507 = fieldWeight in 2018, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2018)
        0.049930073 = product of:
          0.09986015 = sum of:
            0.09986015 = weight(_text_:visualisierung in 2018) [ClassicSimilarity], result of:
              0.09986015 = score(doc=2018,freq=4.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.4689965 = fieldWeight in 2018, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2018)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Das Material "Karte" ist vom Buch so verschieden und in seiner Ausformung so spezifisch, dass Kartensammlungen in Bibliotheken in vielen Fällen nur unzureichend in die elektronischen Rechercheangebote integriert sind. Selbst eine Erfassung der Einzelkarten nach RAK-Karten und die Integration dieser Datensätze in die Bibliothekskataloge erlaubt zwar eine Suche nach den erfassten Daten, der Nutzen ist aber im Verhältnis zum Aufwand zumindest fraglich, da viele Nutzer auf diese Weise nicht fündig werden. Karten als visuelles Material fordern geradezu eine graphische Suchmöglichkeit. In der WeIt der Geoinformation werden seit Jahren Werkzeuge eingesetzt, die auf einer internetbasierten graphischen Suche basieren und damit eine Online-Visualisierung von Kartenbeständen ermöglichen. Im Folgenden wird ein Prototyp für eine solche Online-Visualisierung mit Hilfe eines sogenannten Mapservers am Beispiel eines Teils des Kartenbestands der Bibliothek des Wissenschaftsparks Albert Einstein vorgestellt. - Ausgangssituation- Die Institute GeoForschungsZentrum Potsdam, Potsdam-Institut für Klimafolgenforschung und Alfred-Wegener-Institut für Polar- und Meeresforschung Forschungsstelle Potsdam haben ihren Sitz im Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam und betreiben dort eine Gemeinschaftsbibliothek. Teil des Bestands ist eine historisch gewachsene Landkartensammlung von ca. 40.000 Karten. Diese Karten sind bisher weitgehend nicht elektronisch recherchierbar, ein größerer Teil ist selbst konventionell nicht katalogisiert. Nur von etwa 2000 Kartenblättern sind die Metadaten nach RAK erfasst, bei etwa 500 dieser Blätter beinhalten diese Metadaten die geographischen Koordinaten. Gehalten werden diese Daten in SISIS-ONL. Die Sammlung besteht nicht nur aus topographischen, sondern auch aus einer Vielzahl thematischer Karten. Die erfassten Regionen verteilen sich über die gesamte Erde unter Einschluss der Polargebiete.
  10. Franzmeier, G.: ¬Die Zeitschriftendatenbank (ZDB) (2001) 0.03
    0.028877685 = product of:
      0.11551074 = sum of:
        0.09628876 = weight(_text_:darstellung in 1777) [ClassicSimilarity], result of:
          0.09628876 = score(doc=1777,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.48985076 = fieldWeight in 1777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0625 = fieldNorm(doc=1777)
        0.019221978 = product of:
          0.038443957 = sum of:
            0.038443957 = weight(_text_:22 in 1777) [ClassicSimilarity], result of:
              0.038443957 = score(doc=1777,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.30952093 = fieldWeight in 1777, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1777)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Nach einer kurzen Darstellung der Entstehungsgeschichte und der Grundideen, nach denen die ZDB aufgebaut wurde und die sie noch heute bestimmen, beschreibt der Beitrag ausführlicher die derzeitige Situation der ZDB unter den drei Gesichtspunkten des Verbundsystems, der zugrundeliegenden Datenbank und der Produkte aus dieser Datenbank für die Endnutzer. Anschließend werden unter ,Perspektiven' Fragen des inhaltlichen Ausbaus der ZDB, der besonderen Anforderungen durch die elektronischen Zeitschriften, der Verbesserung der Online-Kommunikation, der Anbindung von Aufsatz-Datenbanken und einige weitere Aufgaben behandelt.
    Date
    22. 3.2008 13:56:55
  11. Semar, W.: Leistungsvisualisierung im kollaborativen E-Learning mit Hilfe spezieller Kennzahlen (2008) 0.03
    0.02864591 = product of:
      0.11458364 = sum of:
        0.07221657 = weight(_text_:darstellung in 1381) [ClassicSimilarity], result of:
          0.07221657 = score(doc=1381,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.36738807 = fieldWeight in 1381, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=1381)
        0.042367075 = product of:
          0.08473415 = sum of:
            0.08473415 = weight(_text_:visualisierung in 1381) [ClassicSimilarity], result of:
              0.08473415 = score(doc=1381,freq=2.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.39795673 = fieldWeight in 1381, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1381)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Der bisherige Einsatz elektronischer Kommunikationsforen in der Lehre hat gezeigt, dass die Motivation zur Teilnahme an kollaborativen Prozessen erst geweckt bzw. verstärkt werden muss. Aus diesem Grund wurde im K3-System ein Gratifikationssystem implementiert, das einerseits Anreize zur aktiven Teilnahme schafft und andererseits bestimmte Schlüsselkompetenzen (hier Informations-, Kommunikations- und Teamkompetenz) bei den Teilnehmern entwickelt und verbessert. Im kollaborativen Wissensmanagementsystem K3 wird dies im Wesentlichen dadurch erreicht, dass die Akteure direktes und indirektes Feedback über die von ihnen erbrachten Leistungen erhalten. Ein Alleinstellungsmerkmal des K3-Gratifikationssystems ist die Feedbackgestaltung mit Hilfe der Visualisierung bestimmter Leistungsmerkmale der teilnehmenden Akteure. In diesem Beitrag wird zunächst ganz allgemein beschrieben, wie das K3-Gratifikationssystem in den kollaborativen Prozess eingebunden ist. Aufbauend auf der Entwicklung spezieller Kennzahlen zur Leistungsbeschreibung der teilnehmenden Akteure wird der Schwerpunkt auf die Darstellung verschiedener Visualisierungsformen dieser Leistungskennzahlen gelegt.
  12. Rehn, A.: Daten-Schnüffler : Software-Entwickler verbessern Suchmaschinen, um Ordnung ins Chaos zu bringen (2004) 0.03
    0.027093453 = product of:
      0.10837381 = sum of:
        0.042126335 = weight(_text_:darstellung in 3671) [ClassicSimilarity], result of:
          0.042126335 = score(doc=3671,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.2143097 = fieldWeight in 3671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3671)
        0.06624748 = sum of:
          0.04942825 = weight(_text_:visualisierung in 3671) [ClassicSimilarity], result of:
            0.04942825 = score(doc=3671,freq=2.0), product of:
              0.21292302 = queryWeight, product of:
                6.003155 = idf(docFreq=296, maxDocs=44218)
                0.03546852 = queryNorm
              0.23214142 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.003155 = idf(docFreq=296, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
          0.016819231 = weight(_text_:22 in 3671) [ClassicSimilarity], result of:
            0.016819231 = score(doc=3671,freq=2.0), product of:
              0.12420471 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03546852 = queryNorm
              0.1354154 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
      0.25 = coord(2/8)
    
    Content
    "Ein Surfer-Leben ohne Suchmaschinen ist nicht vorstellbar. Doch so großartig die virtuellen Spürhunde auch sind sie haben eine Schwäche: Oft liefern sie einfach zu viele Informationen. Und die meisten Seiten' die als Ergebnis ausgeworfen werden, sind oft gar nicht von Interesse für den Surfer. Findige Software-Entwickler wollen nun Ordnung ins Chaos bringen und Google und Co. den Rang in der Gunst der Internet-Nutzer ablaufen. Das Prinzip ist einfach: Die Suchergebnisse werden bereits vor dem Anzeigen analysiert und automatisch in Kategorien sortiert. Anders als bei den herkömmlichen Listen, denen meist die innere Ordnung fehlt nimmt die Software dem Suchenden also das Strukturieren der Fundstellen ab. Dieses Prinzip steckt beispielsweise hinter der Meta-Suchmaschine www vivisimo. com. "Wir beleben den sonst nervtötenden Prozess der Informationssuche" sagt Vivisimo-Mitgründer Raul Valdes-Perez. Das Unternehmen aus Pittsburgh verkauft seine Technologie nicht nur an Geschäftskunden; sondern stellt die ClusterMaschine im Internet kostenlos zur Verfügungauch in einer deutschen Version. Wenn man sich das Web als einen riesigen Buchladen vorstellt, in dem alle Bücher willkür - lich auf dem Boden aufgestapelt sind, dann ist Vivisimo nach Darstellung von Valdes-Perez ein rasanter Buchhändler der die verschiedenen Titel in Sekundenschnelle nach sinnvollen Kriterien in Regale einordnet. Doch anders als in Buchläden oder Bibliotheken gibt es bei Vivisimo keine festen Kategorien. Die Software legt sie ad hoc fest indem sie die Sucherergebnisse nach linguistischen und statistischen Gesichtspunkten analysiert.
    - Karte mit bunten Kreisen - Während Vivisimo noch eine klassische MetaSuchmaschine ist, ist Grokker (www.groxis. com) ein Programm des kalifornischen Softwareunternehmens Groxis, schon optisch eine Innovation. Es sortiert die Suchergebnisse nicht nur, sondern visualisiert-die Kategorien als Karte mit bunten Kreisen. Innerhalb eines solchen Kreises gibt es Unterkategorien, also kleinere Kreise, die angeklickt werden können. Allerdings dauert es ein wenig, bis man sich damit zurechtfindet. Ein einfaches Beispiel verdeutlicht den Unterschied zu herkömmlichen Suchmaschinen. Bei den Schlagworten "Paris Hilton" erhält man etwa bei Google einerseits Treffer aus der Kategorie Reisen und Unterkünfte andererseits aber auch jede Menge Seiten, auf denen die Hotelerbin Paris Hilton erwähnt ist. Denn Google sortiert die Fundstellen danach wie viele Links zur jeweiligen Seite führen. Dem Nutzer bleibt die Arbeit, die lange Liste zu durchforsten: Nicht so bei Grokker oder Vivisimo: Hier werden die Ergebnisse nach Themengebieten gruppiert. Grokker selbst ist aber keine Suchmaschine, sondern kombiniert die Resultate von Yahoo, MSN, AltaVista, Wisenut, Teoma und FAST. Das Programm kann auch Dateien auf der Festplatte kategorisieren. Wir sind jetzt in der Lage, alles zu 'grokken'" sagt Groxis-Chef R. J. Pittman. Auch mit Google stehe man in Verhandlungen. Anders als bei Vivisimo gibt es von Grokker keine deutsche Version. Und außerdem ist das Programm nicht gratis: Die Vollversion kostet 49,95 Dollar, eine kostenlose Testversion für 30 Tage kann nach Anmeldung heruntergeladen werden. Eine andere Form der Visualisierung von Suchergebnissen hat www.touchgraph.com entwickelt. Die Firma bietet mit dem TouchGraph Google Browser ein Applet an, das die Fundstellen als Netzstruktur, als Beziehungsgeflecht veranschaulicht. Basis dafür ist die GoogleFunktion "Ähnliche Seiten". Die dokumentierten Verknüpfungen zwischen den verschiedenen Internetseiten werden grafisch dargestellt."
    Date
    3. 5.1997 8:44:22
  13. JAK: Klick-Wissen : Digitales Lexikon (2002) 0.03
    0.025414472 = product of:
      0.20331578 = sum of:
        0.20331578 = weight(_text_:diagramm in 970) [ClassicSimilarity], result of:
          0.20331578 = score(doc=970,freq=2.0), product of:
            0.32982147 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.03546852 = queryNorm
            0.6164419 = fieldWeight in 970, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.046875 = fieldNorm(doc=970)
      0.125 = coord(1/8)
    
    Content
    Das Microsoft Lexikon glänzte schon immer durch ordentliche Artikel, die schön gemachte Oberfläche und eine lange Feature-Liste. In Encarta 2003 Professional sind ein Deutsch-Englisch-Lexikon sowie Lern- und Recherche-Tools hinzugekommen. Uns lag zum Test die ProfessionalVersion (DVD, auch auf vier CDs) vor. Eine Standard-Version ohne Wörterbuch und Recherche-Tools und weniger Einträgen gibt es für 59,95 Euro. Wenig attraktiv ist das neue DeutschEnglisch/Englisch-Deutsch-Wörterbuch. Der von Langenscheidt lizenzierte Wortschatz enthält zwar 40000 Einträge, die Informationen sind aber knapp. Weiterführende Grammatikhinweise und Beispielsätze fehlen ebenso wie eine sinnvolle Anbindung an eine Textverarbeitung. Neu ist ein ziemlich unflexibler Diagramm-Assistent, der nach Mustervorlagen Balken- und Kreisdiagramme erzeugt. Nett sind die neu hinzugekommenen Tipps und Anleitungen, wie man Referate und Hausarbeiten recherchiert. Die neue Encarta enthält laut Hersteller knapp 47000 Einträge, 5500 WebLinks, 15 Stunden Audio- und VideoClips, sowie 19000 Fotos und Abbildungen zum Anklicken. Nervig ist, dass die Registrierung von Encarta nur über ein Microsoft-Passport möglich ist. Die Web-Suche findet zwangsweise über MSN statt.
  14. Pasquinelli, M.: Googles PageRank : Diagramm des kognitiven Kapitalismus und Rentier des gemeinsamen Wissens (2009) 0.03
    0.025414472 = product of:
      0.20331578 = sum of:
        0.20331578 = weight(_text_:diagramm in 25) [ClassicSimilarity], result of:
          0.20331578 = score(doc=25,freq=2.0), product of:
            0.32982147 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.03546852 = queryNorm
            0.6164419 = fieldWeight in 25, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.046875 = fieldNorm(doc=25)
      0.125 = coord(1/8)
    
  15. Kaps, G.; Nohr, H.: Erfolgsmessung im Wissensmanagement mit Balanced Scorecards : Teil 1 (2001) 0.03
    0.025267975 = product of:
      0.1010719 = sum of:
        0.08425267 = weight(_text_:darstellung in 5675) [ClassicSimilarity], result of:
          0.08425267 = score(doc=5675,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.4286194 = fieldWeight in 5675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5675)
        0.016819231 = product of:
          0.033638462 = sum of:
            0.033638462 = weight(_text_:22 in 5675) [ClassicSimilarity], result of:
              0.033638462 = score(doc=5675,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.2708308 = fieldWeight in 5675, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5675)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Erfolgsmessung im Wissensmanagement unter Anwendung der Balanced Scorecard. In Teil 1 werden verschiedene Methoden der Erfolgsmessung im Wissensmanagement verglichen, insbesondere wird gezeigt, wie sich die Balanced Scorecard einsetzen und gestalten lässt. In diesem Zusammenhang wird die Darstellung durch die klassischen Perspektiven erläutert und dann ein Ausblick auf Wissensperspektiven gegeben. In Teil 2 wird der Erarbeitungsprozess einer Scorecard erläutert und es werden Messgrößen entwickelt. Außerdem wird der Einfluss der Scorecard auf das organisationale Lernverhalten geschildert. Am Schluss wird Software vorgestellt, die das Konzept der Balanced Scorecard unterstützt
    Date
    22. 3.2001 13:20:44
  16. Schmitz-Esser, W.: Gedankenraumreisen : neue Thesaurusstrukturen, multimedial präsentiert, machen Anregung, Spielen, Lernen, Finden möglich für jedermann (2000) 0.02
    0.023871593 = product of:
      0.09548637 = sum of:
        0.060180478 = weight(_text_:darstellung in 6645) [ClassicSimilarity], result of:
          0.060180478 = score(doc=6645,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 6645, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6645)
        0.035305895 = product of:
          0.07061179 = sum of:
            0.07061179 = weight(_text_:visualisierung in 6645) [ClassicSimilarity], result of:
              0.07061179 = score(doc=6645,freq=2.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.3316306 = fieldWeight in 6645, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6645)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Zahlreich sind die Versuche, Strukturen begrifflicher Relationen, wie sie in Thesauren niedergelegt sind, durch Visualisierung verständlicher zu machen, doch nirgends ist das bisher in überzeugender Weise gelungen. Damit blieb der Gebrauch von Thesauri durchweg auf Fachleute (Dokumentare) verwiesen und eine Anwendung in der Breite fand nicht statt. Mit den neuen Möglichkeiten visueller und auditiver Darstellung, wie sie nun die Informationstechnologie bietet, läßt sich das ändern. Berichtet wird über ein Projekt im Zusammenhang mit der EXP02000, bei dem versucht wird, bisher weitgehend ungenutzte Potentiale von Thesauri für die Interaktion am Computer zu nutzen. Akteur am Point of Information ist dabei jeder Interessierte, gleich ob Laie oder Fachmann, Gegenstand der Strukturierung die Welt im Jahre 2000, Zugangssprache die Sprache der allgemeinen Kommunikation. Einsicht in die begrifflichen Strukturen in dem Sinne, daß man sie versteht, ist nicht erforderlich, die multimediale Präsentation ermöglicht sensitives Erfassen und nähert sich gewohntem intuitiven Umgang mit Begrifflichkeiten. Jedermann kann so durch den Gedankenraum "reisen", sinnvollen Verknüpfungen und Wirkketten nachspüren, begriffliche Klärung und Einsichten gewinnen, für den Begriff das richtige Wort finden. Bei solch einer Reise wird er zugleich auch auf überraschende Zusammenhänge stoßen. Der Sprung in die Quellen wird von jedem angesteuerten Punkt aus möglich. Die Grenzen des herkömmlichen Information Retrieval zerfließen damit und öffnen sich hin zu neuen, bisher vernachlässigten Räumen: dem Erleben, der Anregung, dem sinnvollen Spiel, der Überraschung, dem unterhaltsamen Lernen
  17. Molloy, C.G.; Wollschläger, T.: Imagebildung in der Bibliothek : Konzeption eines Leit- und Orientierungssystems (2000) 0.02
    0.023648748 = product of:
      0.18918999 = sum of:
        0.18918999 = weight(_text_:graphische in 5525) [ClassicSimilarity], result of:
          0.18918999 = score(doc=5525,freq=4.0), product of:
            0.29307285 = queryWeight, product of:
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.03546852 = queryNorm
            0.6455391 = fieldWeight in 5525, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.2629 = idf(docFreq=30, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5525)
      0.125 = coord(1/8)
    
    Abstract
    Obwohl das Thema Imagebildung an Bibliotheken in den letzten Jahren immer mehr an Bedeutung gewonnen hat, wird die Gestaltung von Leit- und Orientierungssystemen dabei kaum in die Überlegungen einbezogen. Man spricht oft von einer "virtuellen Bibliothek", konzentriert sich darauf, den Benutzern die Mediensuche und -bestellung über das Internet - nicht zuletzt durch gute graphische Gestaltung der Benutzerführung auf der Homepage - so komfortabel wie möglich zu gestalten. Dabei vergisst man jedoch zumeist, dass die Benutzer zum Abholen und Zurückgeben der Medien, zur Nutzung von Freihand-, Lesesaal- und Sonderbeständen sowie zum Besuch von Ausstellungen und Veranstaltungen, die im Rahmen der Öffentlichkeitsarbeit stattfinden, immer noch die Bibliothek als Gebäude aufsuchen und sich dort zurechtfinden müssen. Eine gute inhaltliche und graphische Konzeption und Gestaltung des Leit- und Orientierungssystems ist hierbei ein prägnanter Teil der benutzerorientierten Öffentlichkeitsarbeit einer wissenschaftlichen Bibliothek. Das Leit- und Orientierungssystern kann das Image der Bibliothek nachhaltig verbessern und die Bindung der Benutzer an die Bibliothek verstärken. Zu Beginn soll zur Verdeutlichung eine Definition der Begriffe "Leit- und Orientierungssystem" stehen
  18. Reichmann, G.: Leistungsvergleiche zwischen wissenschaftlichen Bibliotheken : eine betriebswirtschaftliche Untersuchung von Universitätsbibliotheken im deutsch- und im englischsprachigen Raum (2000) 0.02
    0.021658264 = product of:
      0.08663306 = sum of:
        0.07221657 = weight(_text_:darstellung in 5491) [ClassicSimilarity], result of:
          0.07221657 = score(doc=5491,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.36738807 = fieldWeight in 5491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=5491)
        0.014416483 = product of:
          0.028832966 = sum of:
            0.028832966 = weight(_text_:22 in 5491) [ClassicSimilarity], result of:
              0.028832966 = score(doc=5491,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.23214069 = fieldWeight in 5491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5491)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Gegenstand des vorliegenden Beitrages ist die Durchführung von Leistungsvergleichen zwischen verschiedenen Gruppen von Universitätsbibliotheken. Im Rahmen dieser Untersuchung, die sich auf Universitätsbibliotheken in Österreich, Deutschland, der Schweiz, den USA, Australien und Kanada bezieht, werden Leistungskennzahlen unterschiedlicher Komplexität als Vergleichsbasis herangezogen, wobei unter anderem eine Spitzenkennzahl zur Darstellung der Gesamtleistung einer Bibliothek zum Einsatz kommt. Während in einzelnen Teilleistungsbereichen durchaus signifikante Leistungsunterschiede zwischen Universitätsbibliotheken im deutschsprachigen und im englischsprachigen Raum, zwischen kleinen und großen Universitätsbibliotheken, zwischen Bibliotheken an renommierten und an weniger renommierten Universitäten sowie zwischen Bibliotheken an staatlichen und an privaten Universitäten auftreten, ergeben Vergleiche auf Basis der Spitzenkennzahl keine signifikanten Leistungsdifferenzen zwischen diesen betrachteten Gruppen von Bibliotheken
    Date
    10.12.2000 18:47:22
  19. Graumann, S.; Bredemeier, W.; Köhne, B.: Aktualisierte Grundlagenstudie zur Informationswirtschaft : Im Auftrag des Bundeswirtschaftsministeriums (2002) 0.02
    0.021658264 = product of:
      0.08663306 = sum of:
        0.07221657 = weight(_text_:darstellung in 616) [ClassicSimilarity], result of:
          0.07221657 = score(doc=616,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.36738807 = fieldWeight in 616, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=616)
        0.014416483 = product of:
          0.028832966 = sum of:
            0.028832966 = weight(_text_:22 in 616) [ClassicSimilarity], result of:
              0.028832966 = score(doc=616,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.23214069 = fieldWeight in 616, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=616)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Mit insgesamt sechs halbjährlichen Faktenberichten, ergänzt durch jährliche Trendberichte, analysieren NFO Infratest Bereich Information und Dokumentation, München und das Institute for Information Economics, Hattingen, im Auftrag des Bundesministeriums für Wirtschaft und Technologie bis zum Jahr 2003 den Entwicklungsstand der Informationswirtschaft und seiner Teilmärkte in Deutschland im weltweiten Vergleich. Der vierte Faktenbericht ist eine internationale Benchmarking-Studie, die die deutsche Informationswirtschaft im Vergleich zu Europa, USA und Japan beschreibt. Es werden verlässliche und aktuelle Daten zurMarktentwicklung ermittelt und über mehrere Jahre fortgeschrieben. 26 Prozent der Daten enthalten Prognosen bis 2010, 41 Prozent werden zusätzlich in Zeitreihen (1999 bis 2005) dargestellt die wichtigsten Daten werden in Form von 436 Charts visualisiert. Der Trendbericht ergänzt diese Darstellung durch eine Befragung deutscher Experten, die ein differenziertes und umfassendes Meinungs- und Stimmungsbild der Informationswirtschaft zu den für sie zentralen Fragen ergeben und auf bevorstehende Entwicklungen in der Informationswirtschaft aufmerksam machen. DerArtikel fasst die wesentlichen Ergebnisse des 4. Faktenberichts und 2. Trendberichts zusammen. Alle Berichte sowie Charts können unentgeltlich unter http://www.infrasearch.de/bmwi heruntergeladen werden.
    Date
    28.11.2004 13:03:22
  20. Gödert, W.: Aufbereitung und Rezeption von Information (2003) 0.02
    0.021658264 = product of:
      0.08663306 = sum of:
        0.07221657 = weight(_text_:darstellung in 1506) [ClassicSimilarity], result of:
          0.07221657 = score(doc=1506,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.36738807 = fieldWeight in 1506, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=1506)
        0.014416483 = product of:
          0.028832966 = sum of:
            0.028832966 = weight(_text_:22 in 1506) [ClassicSimilarity], result of:
              0.028832966 = score(doc=1506,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.23214069 = fieldWeight in 1506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1506)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Die Informations- oder Wissensgesellschaft ist in aller Munde, das Verständnis derselben ist gleichwohl unklar. Unscharf ist auch das Verständnis der zugrunde liegenden Begriffe Information und Wissen sowie des Erwerbs von Information aus den verschiedenen medialen Repräsentationsformen. Allenfalls lässt sich eine gewisse Einseitigkeit bemerken, die durch den informationstechnischen Primat und an der Nachrichtentechnik orientierten Übertragungsformen geprägt ist. Ausgangspunkt der Erörterung ist die Beobachtung, dass Menschen Informationsbedürfnisse besitzen, die sie durch Inanspruchnahme verschiedenster externer Quellen und Hilfsmittel befriedigen wollen. Die neuartigen Speicher- und Findeformen führen zu übersteigerten Erwartungen, wenn man an all die Formulierungen mit virtuell, cyber, Hyper, Multimedia, Information Superhighway etc. denkt. Häufig wird dabei suggeriert, die veränderte mediale Präsentation habe neuartige und bessere Qualitäten für die Rezeption von Information, ohne dass die dabei beteiligten Prozesse völlig verstanden sind. Innerhalb eines konstruktivistischen Modells der kognitiven Informationsverarbeitung und der Rezeption medial gespeicherter Information werden Fragen der Darstellung und Rezeption von Information untersucht.
    Date
    22. 4.2003 11:45:29

Languages

Types

Themes