Search (2517 results, page 1 of 126)

  • × year_i:[2000 TO 2010}
  1. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.20
    0.1967636 = product of:
      0.26235148 = sum of:
        0.062881485 = product of:
          0.18864444 = sum of:
            0.18864444 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.18864444 = score(doc=2918,freq=2.0), product of:
                0.33565548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0395913 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.18864444 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.18864444 = score(doc=2918,freq=2.0), product of:
            0.33565548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0395913 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.0108255325 = product of:
          0.032476597 = sum of:
            0.032476597 = weight(_text_:29 in 2918) [ClassicSimilarity], result of:
              0.032476597 = score(doc=2918,freq=2.0), product of:
                0.13926981 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0395913 = queryNorm
                0.23319192 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
      0.75 = coord(3/4)
    
    Date
    29. 8.2009 21:15:48
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.20
    0.19669056 = product of:
      0.2622541 = sum of:
        0.062881485 = product of:
          0.18864444 = sum of:
            0.18864444 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.18864444 = score(doc=562,freq=2.0), product of:
                0.33565548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0395913 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.18864444 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.18864444 = score(doc=562,freq=2.0), product of:
            0.33565548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0395913 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.01072815 = product of:
          0.032184448 = sum of:
            0.032184448 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.032184448 = score(doc=562,freq=2.0), product of:
                0.138642 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0395913 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.75 = coord(3/4)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  3. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.17
    0.16768394 = product of:
      0.3353679 = sum of:
        0.08384197 = product of:
          0.2515259 = sum of:
            0.2515259 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.2515259 = score(doc=140,freq=2.0), product of:
                0.33565548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0395913 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
        0.2515259 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.2515259 = score(doc=140,freq=2.0), product of:
            0.33565548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0395913 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.5 = coord(2/4)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  4. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.15
    0.14672346 = product of:
      0.29344693 = sum of:
        0.07336173 = product of:
          0.22008519 = sum of:
            0.22008519 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.22008519 = score(doc=306,freq=2.0), product of:
                0.33565548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0395913 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.22008519 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.22008519 = score(doc=306,freq=2.0), product of:
            0.33565548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0395913 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  5. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.10
    0.104802474 = product of:
      0.20960495 = sum of:
        0.052401237 = product of:
          0.1572037 = sum of:
            0.1572037 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.1572037 = score(doc=5895,freq=2.0), product of:
                0.33565548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0395913 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
        0.1572037 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.1572037 = score(doc=5895,freq=2.0), product of:
            0.33565548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0395913 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
      0.5 = coord(2/4)
    
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  6. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.08
    0.08384197 = product of:
      0.16768394 = sum of:
        0.041920986 = product of:
          0.12576295 = sum of:
            0.12576295 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.12576295 = score(doc=701,freq=2.0), product of:
                0.33565548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0395913 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.12576295 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.12576295 = score(doc=701,freq=2.0), product of:
            0.33565548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0395913 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  7. "Code of Ethics" verabschiedet (2007) 0.06
    0.060436677 = product of:
      0.120873354 = sum of:
        0.11461527 = weight(_text_:decken in 459) [ClassicSimilarity], result of:
          0.11461527 = score(doc=459,freq=2.0), product of:
            0.34255838 = queryWeight, product of:
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0395913 = queryNorm
            0.33458608 = fieldWeight in 459, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.02734375 = fieldNorm(doc=459)
        0.006258087 = product of:
          0.018774262 = sum of:
            0.018774262 = weight(_text_:22 in 459) [ClassicSimilarity], result of:
              0.018774262 = score(doc=459,freq=2.0), product of:
                0.138642 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0395913 = queryNorm
                0.1354154 = fieldWeight in 459, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=459)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen des 3. Leipziger Kongresses für Information und Bibliothek 19.-22. März 2007 hat Bibliothek & Information Deutschland (BID) die im folgenden wiedergegebenen "Ethischen Grundsätze der Bibliotheks- und Informationsberufe" verabschiedet und der Presse und Fachöffentlichkeit vorgestellt. Damit folgt Deutschland den rund 40 Ländern weltweit, die bereits einen "Code of Ethics" veröffentlicht haben. Diese ethischen Richtlinien sind auf der IFLA/FAIFE-Website gesammelt unter www.ifla.org/faife/ethics/codes.htm.
    Content
    1. Ethische Grundsätze im Umgang mit Kundinnen und Kunden - Wir begegnen unseren Kundinnen und Kunden im Rahmen unseres Auftrags und unserer rechtlichen Grundlagen ohne Unterschied. Wir stellen für alle Kundinnen und Kunden Dienstleistungen in hoher Qualität bereit. - Wir ermöglichen unseren Kundinnen und Kunden den Zugang zu unseren Beständen und zu den öffentlich verfügbaren Informationsquellen. - Wir informieren und beraten unsere Kundinnen und Kunden sachlich, unparteiisch und höflich und unterstützen sie dabei, ihren Informationsbedarf zu decken. - Wir behandeln unsere Kundinnen und Kunden gleich, unabhängig von ihrer Herkunft, ihrer Hautfarbe, ihrem Alter, ihrer sozialen Stellung, ihrer Religion, ihrem Geschlecht oder ihrer sexuellen Orientierung. - Wir beachten die Prinzipien der Barrierefreiheit. - Wir setzen uns auf der Grundlage des Jugendschutzgesetzes und weiterer gesetzlicher Regelungen für den Schutz von Kindern und Jugendlichen vor Inhalten ein, die nicht für sie geeignet sind. - Wir respektieren die Privatsphäre unserer Kundinnen und Kunden. Wir speichern personenbezogene Daten nur zur Erbringung unserer Dienstleistung und nur im gesetzlichen Rahmen. Anderen Behörden stellen wir Benutzerdaten nur im engen Rahmen der gesetzlichen Vorschriften zur Verfügung. - Wir erfüllen unsere beruflichen Aufgaben nach professionellen Gesichtspunkten unabhängig von unserer persönlichen Meinung und Einstellung.
  8. Kölle, R.; Langemeier, G.; Womser-Hacker, C.: Kollaboratives Lernen in virtuellen Teams am Beispiel der Java-Programmierung (2008) 0.06
    0.057307635 = product of:
      0.22923054 = sum of:
        0.22923054 = weight(_text_:decken in 1393) [ClassicSimilarity], result of:
          0.22923054 = score(doc=1393,freq=2.0), product of:
            0.34255838 = queryWeight, product of:
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0395913 = queryNorm
            0.66917217 = fieldWeight in 1393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1393)
      0.25 = coord(1/4)
    
    Abstract
    Komplexe Aufgaben und Probleme werden heute üblicherweise im Team bearbeitet und gelöst. Das gilt insbesondere für Softwareprojekte, denn die Entwicklung komplexer Softwaresysteme findet heutzutage meistens arbeitsteilig in - zunehmend räumlich verteilten - Teams statt. Vor diesem Hintergrund wird zum einen ein rollenbasiertes Konzept vorgestellt, das virtuellen Lernteams bei der Zusammenarbeit einen virtuellen Tutor zur Seite stellt, der dem Team im Rahmen von Rollendefiziten adaptierte Hilfestellung bietet und so die Lerneffektivität unterstützt. Zum anderen wird gezeigt, wie das Zusammenspiel zweier spezialisierter Systeme (VitaminL und K3) im Kontext des Blended Learning echte Mehrwerte in E-Learning-Szenarien bringen kann. Die in Benutzertests und einer Lehrveranstaltung ermittelten Evaluierungsergebnisse lassen auf die Tragfähigkeit des rollenbasierten, tutoriellen Konzepts schließen und decken gleichzeitig großes Weiterentwicklungpotenzial auf.
  9. "Code of Ethics" verabschiedet (2007) 0.05
    0.051802866 = product of:
      0.10360573 = sum of:
        0.09824166 = weight(_text_:decken in 462) [ClassicSimilarity], result of:
          0.09824166 = score(doc=462,freq=2.0), product of:
            0.34255838 = queryWeight, product of:
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0395913 = queryNorm
            0.28678808 = fieldWeight in 462, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0234375 = fieldNorm(doc=462)
        0.005364075 = product of:
          0.016092224 = sum of:
            0.016092224 = weight(_text_:22 in 462) [ClassicSimilarity], result of:
              0.016092224 = score(doc=462,freq=2.0), product of:
                0.138642 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0395913 = queryNorm
                0.116070345 = fieldWeight in 462, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=462)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen des 3. Leipziger Kongresses für Information und Bibliothek 19.-22. März 2007 hat Bibliothek & Information Deutschland (BID) die im folgenden wiedergegebenen "Ethischen Grundsätze der Bibliotheks- und Informationsberufe" verabschiedet und der Presse und Fachöffentlichkeit vorgestellt. Damit folgt Deutschland den rund 40 Ländern weltweit, die bereits einen "Code of Ethics" veröffentlicht haben. Diese ethischen Richtlinien sind auf der IFLA/FAIFE-Website gesammelt unter www.ifla.org/faife/ethics/codes.htm.
    Content
    1. Ethische Grundsätze im Umgang mit Kundinnen und Kunden - Wir begegnen unseren Kundinnen und Kunden im Rahmen unseres Auftrags und unserer rechtlichen Grundlagen ohne Unterschied. Wir stellen für alle Kundinnen und Kunden Dienstleistungen in hoher Qualität bereit. - Wir ermöglichen unseren Kundinnen und Kunden den Zugang zu unseren Beständen und zu den öffentlich verfügbaren Informationsquellen. - Wir informieren und beraten unsere Kundinnen und Kunden sachlich, unparteiisch und höflich und unterstützen sie dabei, ihren Informationsbedarf zu decken. - Wir behandeln unsere Kundinnen und Kunden gleich, unabhängig von ihrer Herkunft, ihrer Hautfarbe, ihrem Alter, ihrer sozialen Stellung, ihrer Religion, ihrem Geschlecht oder ihrer sexuellen Orientierung. - Wir beachten die Prinzipien der Barrierefreiheit. - Wir setzen uns auf der Grundlage des Jugendschutzgesetzes und weiterer gesetzlicher Regelungen für den Schutz von Kindern und Jugendlichen vor Inhalten ein, die nicht für sie geeignet sind. - Wir respektieren die Privatsphäre unserer Kundinnen und Kunden. Wir speichern personenbezogene Daten nur zur Erbringung unserer Dienstleistung und nur im gesetzlichen Rahmen. Anderen Behörden stellen wir Benutzerdaten nur im engen Rahmen der gesetzlichen Vorschriften zur Verfügung. - Wir erfüllen unsere beruflichen Aufgaben nach professionellen Gesichtspunkten unabhängig von unserer persönlichen Meinung und Einstellung.
  10. Sperber, W.; Dalitz, W.: Portale, Search Engines and Math-Net (2000) 0.05
    0.04912083 = product of:
      0.19648331 = sum of:
        0.19648331 = weight(_text_:decken in 5237) [ClassicSimilarity], result of:
          0.19648331 = score(doc=5237,freq=2.0), product of:
            0.34255838 = queryWeight, product of:
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0395913 = queryNorm
            0.57357615 = fieldWeight in 5237, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.046875 = fieldNorm(doc=5237)
      0.25 = coord(1/4)
    
    Abstract
    In Math-Net stellen Personen und Institutionen ihre für die Mathematik relevanten Informationen auf eigenen Web-Servern bereit, doch sollen die Informationen in einheitlicher Weise erschlossen werden. Dazu gibt es sowohl für Server als auch für die Dokumente Empfehlungen für deren Strukturierung. Die lokalen Informationen werden durch automatische Verfahren gesammelt, ausgewertet und indexiert. Diese Indexe sind die Basis für die Math-Net Dienste. Das sind Search Engines und Portale, die einen qualifizierten und effizienten Zugang zu den Informationen im Math-Net bieten. Die Dienste decken im Gegensatz zu den universellen Suchmaschinen nur den für die Mathematik relevanten Teil des Web ab. Math-Net ist auch ein Informations- und Kornmunikationssystem sowie ein Publikationsmedium für die Mathematik. Die Entwicklung des Math-Net wird von dem breiten Konsens der Mathematiker getragen, den Zugang zu der für die Mathematik relevanten Information zu erleichtern und zu verbessern
  11. Düro, M.; Zhang, Z.; Heuer, A.; Engel, T.; Meinel, C.: Aufbau einer Digitalen Bibliothek mit einem Online-Redaktionssystem (2000) 0.05
    0.04912083 = product of:
      0.19648331 = sum of:
        0.19648331 = weight(_text_:decken in 5507) [ClassicSimilarity], result of:
          0.19648331 = score(doc=5507,freq=2.0), product of:
            0.34255838 = queryWeight, product of:
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0395913 = queryNorm
            0.57357615 = fieldWeight in 5507, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.046875 = fieldNorm(doc=5507)
      0.25 = coord(1/4)
    
    Abstract
    Am Beispiel des Online-Redaktionssystems DAPHNE (Distributed Authoring, and Publishing of Hypertext in a Network Environment) lässt sich zeigen, dass ein Online-Redaktionssystem aufgrund seiner Funktionalitäten durchaus auch zum Aufbau und zur Pflege von Digitalen Bibliotheken geeignet ist. Das Redaktionssystem ermöglicht es, den Datenbestand nach unterschiedlichen Strukturen hierarchisch zu gliedern, Verwaltungsfunktion ebenso wie die Betreuung des Layout zu zentralisieren bzw. zu delegieren und den Bearbeitern und Nutzern sehr differenzierte Änderungs- und Zugriffsrechte einzuräumen. Dieser Funktionsumfang kann sich mit dem Anforderungsprofil an eine Plattform zur Erstellung und Pflege Digitaler Bibliotheken decken
  12. Polleres, A.; Mochol, M.: Expertise bewerben und finden im Social Semantic Web (2009) 0.04
    0.040934023 = product of:
      0.16373609 = sum of:
        0.16373609 = weight(_text_:decken in 4864) [ClassicSimilarity], result of:
          0.16373609 = score(doc=4864,freq=2.0), product of:
            0.34255838 = queryWeight, product of:
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0395913 = queryNorm
            0.4779801 = fieldWeight in 4864, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4864)
      0.25 = coord(1/4)
    
    Abstract
    Im vorliegenden Beitrag diskutieren wir Rahmenbedingungen zur Kombination, Wiederverwendung und Erweiterung bestehender RDF-Vokabulare im Social Semantic Web. Hierbei konzentrieren wir uns auf das Anwendungsszenario des Auffindens und Bewerbens von Experten im Web oder Intranet. Wir präsentieren, wie RDF-Vokabulare einerseits und de facto Standardformate andererseits, die von täglich verwendeten Applikationen benutzt werden (z. B. vCard, iCal oder Dublin Core), kombiniert werden können, um konkrete Anwendungsfälle der Expertensuche und zum Management von Expertise zu lösen. Unser Fokus liegt darauf aufzuzeigen, dass für praktische Anwendungsszenarien nicht notwendigerweise neue Ontologien entwickelt werden müssen, sondern der Schlüssel vielmehr in der Integration von bestehenden, weit verbreiteten und sich ergänzenden Formaten zu einem kohärenten Netzwerk von Ontologien liegt. Dieser Ansatz garantiert sowohl direkte Anwendbarkeit von als auch niedrige Einstiegsbarrieren in Semantic Web-Technologien sowie einfache Integrierbarkeit in bestehende Applikationen. Die im Web verfügbaren und verwendeten RDF-Formate decken zwar einen großen Bereich der Aspekte zur Beschreibung von Personen und Expertisen ab, zeigen aber auch signifikante Überlappungen. Bisher gibt es wenig systematische Ansätze, um diese Vokabulare zu verbinden, sei es in Form von allgemeingültigen Praktiken, die definieren, wann welches Format zu benutzen ist, oder in Form von Regeln, die Überlappungen zwischen einzelnen Formaten formalisieren. Der vorliegende Artikel analysiert, wie bestehende Formate zur Beschreibung von Personen, Organisationen und deren Expertise kombiniert und, wo nötig, erweitert werden können. Darüber hinaus diskutieren wir Regelsprachen zur Beschreibung von Formatüberlappungen sowie deren praktische Verwendbarkeit zur Erstellung eines Ontologie-Netzwerks zur Beschreibung von Experten.
  13. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.03
    0.03274722 = product of:
      0.13098888 = sum of:
        0.13098888 = weight(_text_:decken in 1076) [ClassicSimilarity], result of:
          0.13098888 = score(doc=1076,freq=2.0), product of:
            0.34255838 = queryWeight, product of:
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0395913 = queryNorm
            0.3823841 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.25 = coord(1/4)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
  14. Harvey, D.R.: Preserving digital materials (2005) 0.03
    0.03274722 = product of:
      0.13098888 = sum of:
        0.13098888 = weight(_text_:decken in 643) [ClassicSimilarity], result of:
          0.13098888 = score(doc=643,freq=2.0), product of:
            0.34255838 = queryWeight, product of:
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0395913 = queryNorm
            0.3823841 = fieldWeight in 643, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.03125 = fieldNorm(doc=643)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt VÖB 60(2007) H.3, S.86-89 (C. Müller): "Ross Harvey widmet sich im vorliegenden Buch den aktuellen Methoden und Praktiken im Bereich der Langzeitarchivierung wie sie einerseits in Bibliotheken aber auch in anderen Institutionen, die sich mit der langfristigen Aufbewahrung digitaler Objekte beschäftigen müssen, angewandt werden. Langzeitarchivierung gehört in den letzten Jahren zu den am meisten diskutierten Themen in der Bibliothekswelt. Die Fülle an Materialien, Meinungen und Positionspapieren im Internet ist nahezu unüberschaubar. Den Bedarf an einem praktischen, überschaubaren Band, der sich den komplexen Belangen rund um das Thema digitale Archivierung widmet, möchte der Autor mit diesem Werk decken. Das Buch ist nicht als Gebrauchsanweisung für jene, die technische Maßnahmen zur Langzeitarchivierung durchführen müssen, konzipiert. Es will vielmehr eine Einführung in die Prinzipien, Strategien und Verfahren der Langzeitarchivierung sein, wie sie derzeit in Bibliotheken schon zum Einsatz kommen. Ross Harvey tut dies vor dem Hintergrund der Ergebnisse schon abgeschlossener und noch laufender Forschungen und praktischer Anwendungen in diesem Bereich. Dabei stützt er sich nicht nur auf Erfahrungen aus Bibliotheken, sondern auch auf Erfahrungen anderer Communities, für welche Langzeitarchivierung ein kritischer Punkt ist, wie zum Beispiel die Geowissenschaften. Der Autor beschreibt, dass die Archivierung digitalen Materials viele Herausforderungen birgt, für die vordigitale Modelle der Konservierung nur wenig Unterstützung bieten.
  15. Tochtermann, K.; Granitzer, M.: Wissenserschließung : Pfade durch den digitalen Informationsdschungel (2005) 0.03
    0.028738242 = product of:
      0.11495297 = sum of:
        0.11495297 = product of:
          0.17242944 = sum of:
            0.08660425 = weight(_text_:29 in 4390) [ClassicSimilarity], result of:
              0.08660425 = score(doc=4390,freq=2.0), product of:
                0.13926981 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0395913 = queryNorm
                0.6218451 = fieldWeight in 4390, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=4390)
            0.0858252 = weight(_text_:22 in 4390) [ClassicSimilarity], result of:
              0.0858252 = score(doc=4390,freq=2.0), product of:
                0.138642 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0395913 = queryNorm
                0.61904186 = fieldWeight in 4390, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4390)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    5.11.2005 19:18:22
    Source
    Wissensmanagement. 7(2005) H.5, S.26-29
  16. Meyer, R.: Allein, es wär' so schön gewesen : Der Copernic Summarzier kann Internettexte leider nicht befriedigend und sinnvoll zusammenfassen (2002) 0.03
    0.028653817 = product of:
      0.11461527 = sum of:
        0.11461527 = weight(_text_:decken in 648) [ClassicSimilarity], result of:
          0.11461527 = score(doc=648,freq=2.0), product of:
            0.34255838 = queryWeight, product of:
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.0395913 = queryNorm
            0.33458608 = fieldWeight in 648, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.652365 = idf(docFreq=20, maxDocs=44218)
              0.02734375 = fieldNorm(doc=648)
      0.25 = coord(1/4)
    
    Abstract
    Das Netz hat die Jagd nach textlichen Inhalten erheblich erleichtert. Es ist so ein-fach, irgendeinen Beitrag über ein bestimmtes Thema zu finden, daß man eher über Fülle als über Mangel klagt. Suchmaschinen und Kataloge helfen beim Sichten, indem sie eine Vorauswahl von Links treffen. Das Programm "Copernic Summarizer" geht einen anderen Weg: Es erstellt Exzerpte beliebiger Texte und will damit die Lesezeit verkürzen. Decken wir über die lästige Zwangsregistrierung (unter Pflichtangabe einer Mailadresse) das Mäntelchen des Schweigens. Was folgt, geht rasch, nicht nur die ersten Schritte sind schnell vollzogen. Die Software läßt sich in verschiedenen Umgebungen einsetzen. Unterstützt werden Microsoft Office, einige Mailprogramme sowie der Acrobat Reader für PDF-Dateien. Besonders eignet sich das Verfahren freilich für Internetseiten. Der "Summarizer" nistet sich im Browser als Symbol ein. Und mit einem Klick faßt er einen Online Text in einem Extrafenster zusammen. Es handelt sich dabei nicht im eigentlichen Sinne um eine Zusammenfassung mit eigenen Worten, die in Kürze den Gesamtgehalt wiedergibt. Das Ergebnis ist schlichtes Kürzen, das sich noch dazu ziemlich brutal vollzieht, da grundsätzlich vollständige Sätze gestrichen werden. Die Software erfaßt den Text, versucht Schlüsselwörter zu ermitteln und entscheidet danach, welche Sätze wichtig sind und welche nicht. Das Verfahren mag den Entwicklungsaufwand verringert haben, dem Anwender hingegen bereitet es Probleme. Oftmals beziehen sich Sätze auf frühere Aussagen, etwa in Formulierungen wie "Diese Methode wird . . ." oder "Ein Jahr später . . ." In der Zusammenfassung fehlt entweder der Kontext dazu oder man kann nicht darauf vertrauen, daß der Bezug sich tatsächlich im voranstehenden Satz findet. Die Liste der Schlüsselwörter, die links eingeblendet wird, wirkt nicht immer glücklich. Teilweise finden sich unauffällige Begriffe wie "Anlaß" oder "zudem". Wenigstens lassen sich einzelne Begriffe entfernen, um das Ergebnis zu verfeinern. Hilfreich ist das mögliche Markieren der Schlüsselbegriffe im Text. Unverständlich bleibt hingegen, weshalb man nicht selbst relevante Wörter festlegen darf, die als Basis für die Zusammenfassung dienen. Das Kürzen des Textes ist in mehreren Stufen möglich, von fünf bis fünfzig Prozent. Fünf Prozent sind unbrauchbar; ein guter Kompromiß sind fünfundzwanzig. Allerdings nimmt es die Software nicht genau mit den eigenen Vorgaben. Bei kürzeren Texten ist die Zusammenfassung von angeblich einem Viertel fast genauso lang wie das Original; noch bei zwei Seiten eng bedrucktem Text (8 Kilobyte) entspricht das Exzerpt einem Drittel des Originals. Für gewöhnlich sind Webseiten geschmückt mit einem Menü, mit Werbung, mit Hinweiskästen und allerlei mehr. Sehr zuverlässig erkennt die Software, was überhaupt Fließtext ist; alles andere wird ausgefiltert. Da bedauert man es zuweilen, daß der Summarizer nicht den kompletten Text listet, damit er in einer angenehmen Umgebung schwarz auf weiß gelesen oder gedruckt wird. Wahlweise zum manuellen Auslösen der Zusammenfassung wird der "LiveSummarizer" aktiviert. Er verdichtet Text zeitgleich mit dem Aufrufen einer Seite, nimmt dafür aber ein Drittel der Bildschirmfläche ein - ein zu hoher Preis. Insgesamt fragen wir uns, wie man das Programm sinnvoll nutzen soll. Beim Verdichten von Nachrichten ist unsicher, ob Summarizer nicht wichtige Details unterschlägt. Bei langen Texten sorgen Fragen zum Kontext für Verwirrung. Sucht man nach der Antwort auf eine Detailfrage, hilft die Suchfunktion des Browsers oft schneller. Eine Zusammenfassung hätte auch dem Preis gutgetan: 100 Euro verlangt der deutsche Verleger Softline. Das scheint deutlich zu hoch gegriffen. Zumal das Zusammenfassen der einzige Zweck des Summarizers ist. Das Verwalten von Bookmarks und das Archivieren von Texten wären sinnvolle Ergänzungen gewesen.
  17. Herrmann, C.: Partikulare Konkretion universal zugänglicher Information : Beobachtungen zur Konzeptionierung fachlicher Internet-Seiten am Beispiel der Theologie (2000) 0.03
    0.025145963 = product of:
      0.10058385 = sum of:
        0.10058385 = product of:
          0.15087578 = sum of:
            0.07577872 = weight(_text_:29 in 4364) [ClassicSimilarity], result of:
              0.07577872 = score(doc=4364,freq=2.0), product of:
                0.13926981 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0395913 = queryNorm
                0.5441145 = fieldWeight in 4364, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4364)
            0.07509705 = weight(_text_:22 in 4364) [ClassicSimilarity], result of:
              0.07509705 = score(doc=4364,freq=2.0), product of:
                0.138642 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0395913 = queryNorm
                0.5416616 = fieldWeight in 4364, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4364)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    22. 1.2000 19:29:08
  18. Weinberg, B.H.: Book indexes in France : medieval specimens and modern practices (2000) 0.03
    0.025145963 = product of:
      0.10058385 = sum of:
        0.10058385 = product of:
          0.15087578 = sum of:
            0.07577872 = weight(_text_:29 in 486) [ClassicSimilarity], result of:
              0.07577872 = score(doc=486,freq=2.0), product of:
                0.13926981 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0395913 = queryNorm
                0.5441145 = fieldWeight in 486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=486)
            0.07509705 = weight(_text_:22 in 486) [ClassicSimilarity], result of:
              0.07509705 = score(doc=486,freq=2.0), product of:
                0.138642 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0395913 = queryNorm
                0.5416616 = fieldWeight in 486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=486)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    20. 4.2002 19:29:54
    Source
    Indexer. 22(2000) no.1, S.2-13
  19. Mauer, P.: Embedded indexing : pros and cons for the indexer (2000) 0.03
    0.025145963 = product of:
      0.10058385 = sum of:
        0.10058385 = product of:
          0.15087578 = sum of:
            0.07577872 = weight(_text_:29 in 488) [ClassicSimilarity], result of:
              0.07577872 = score(doc=488,freq=2.0), product of:
                0.13926981 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0395913 = queryNorm
                0.5441145 = fieldWeight in 488, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=488)
            0.07509705 = weight(_text_:22 in 488) [ClassicSimilarity], result of:
              0.07509705 = score(doc=488,freq=2.0), product of:
                0.138642 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0395913 = queryNorm
                0.5416616 = fieldWeight in 488, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=488)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    21. 4.2002 9:29:38
    Source
    Indexer. 22(2000) no.1, S.27-28
  20. Sauer, D.: Alles schneller finden (2001) 0.02
    0.021698138 = product of:
      0.08679255 = sum of:
        0.08679255 = product of:
          0.13018882 = sum of:
            0.07654807 = weight(_text_:29 in 6835) [ClassicSimilarity], result of:
              0.07654807 = score(doc=6835,freq=4.0), product of:
                0.13926981 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0395913 = queryNorm
                0.5496386 = fieldWeight in 6835, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
            0.053640753 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.053640753 = score(doc=6835,freq=2.0), product of:
                0.138642 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0395913 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    1. 8.1997 14:03:29
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29

Languages

Types

  • a 2155
  • m 239
  • el 117
  • s 85
  • b 28
  • x 23
  • i 11
  • r 6
  • n 2
  • p 1
  • More… Less…

Themes

Subjects

Classifications