Search (3200 results, page 1 of 160)

  • × theme_ss:"Internet"
  1. Goodman, J.; Heckerman, D.; Rounthwaite, R.: Schutzwälle gegen Spam (2005) 0.20
    0.19520657 = product of:
      0.22774099 = sum of:
        0.054263975 = weight(_text_:methoden in 3696) [ClassicSimilarity], result of:
          0.054263975 = score(doc=3696,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.22902192 = fieldWeight in 3696, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=3696)
        0.019851845 = weight(_text_:und in 3696) [ClassicSimilarity], result of:
          0.019851845 = score(doc=3696,freq=8.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.19590102 = fieldWeight in 3696, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3696)
        0.107868515 = weight(_text_:techniken in 3696) [ClassicSimilarity], result of:
          0.107868515 = score(doc=3696,freq=4.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.38399547 = fieldWeight in 3696, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.03125 = fieldNorm(doc=3696)
        0.009891836 = weight(_text_:in in 3696) [ClassicSimilarity], result of:
          0.009891836 = score(doc=3696,freq=14.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15905021 = fieldWeight in 3696, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3696)
        0.023475504 = weight(_text_:den in 3696) [ClassicSimilarity], result of:
          0.023475504 = score(doc=3696,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.17913738 = fieldWeight in 3696, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=3696)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 3696) [ClassicSimilarity], result of:
              0.024778644 = score(doc=3696,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 3696, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3696)
          0.5 = coord(1/2)
      0.85714287 = coord(6/7)
    
    Abstract
    Die erste Spam wurde 1978 an 400 Empfänger im Arpanet geschickt. Absender war ein Mitarbeiter der PR-Abtei lung von Digital Equipment Corporation (Dec), der darin für den damals neuen Decsystem-20-Rechner der Firma warb. Heute macht Spam mehr als zwei Drittel der über das Internet versandten E-Mails aus; täglich werden mehrere Milliarden solcher unverlangten Werbebotschaften versandt. Ein Drittel aller EMail-Nutzer hat mehr als 80 Prozent Spam in der elektronischen Post. Seit einiger Zeit sorgt Spam zudem durch so genannte Phishing-Attacken für Ärger: Dabei werden gefälschte E-Mails, die Fake-E-Mails, verschickt, die scheinbar von Mitarbeitern großer, Vertrauen erweckender Institutionen stammen, tatsächlich aber von Betrügern kommen - um damit Kreditkartennummern oder andere persönliche Informationen auszuspionieren. Nach einer Studie von Gartner Research von 2004 verursachen Phishing-Attacken in den USA Schäden in Höhe von jährlich 1,2 Milliarden Dollar. Spammer nutzen nicht nur E-Mail. In Chatrooms warten »Roboter«, die sich als Menschen ausgeben und Leute zu Klicks auf pornografische Webseiten verleiten sollen. Nutzer von Instant-Messaging-Systemen (IM) bekommen es mit so genannten splMs zu tun, engen »Verwandten« des Spams. In Web-Blogs (Web-Tagebüchern) lauern »Link-Spammer«, welche die Arbeit von Internetsuchmaschinen manipulieren, indem sie unerwünschte Links hinzufügen - was die Nutzung von Webseiten und Links erschwert. Spam steht teilweise in dem Ruf, die Internetkommunikation zu behindern oder gar zum Erliegen zu bringen. Die Wirklichkeit sieht indes nicht ganz so schwarz aus. Softwareentwickler haben verschiedene Techniken ersonnen, Spam auszufiltern und Spammern das Handwerk zu erschweren - weitere werden in Labors erprobt. Die hier vorgestellten Methoden richten sich gegen Junk-EMail, könnten aber auch zur Eindämmung anderer Spamvarianten verwendet werden. Keine dieser Techniken vermag Wunder zu vollbringen, doch ihre Kombination - sofern möglichst viele User sie anwenden - verspricht zumindest deutliche Verbesserungen. Es ist nicht unrealistisch zu hoffen, dass unsere E-MailPostfächer eines Tages wieder nahezu frei von Spam sein werden.
    Date
    18. 7.2005 11:07:22
    Footnote
    Mit einer Grafik zum Prinzip des Spamming und der Spam-Abwehr
  2. Schweibenz, W.; Thissen, F.: Qualität im Web : Benutzerfreundliche Webseiten durch Usability Evaluation (2003) 0.16
    0.1640974 = product of:
      0.22973634 = sum of:
        0.13565995 = weight(_text_:methoden in 767) [ClassicSimilarity], result of:
          0.13565995 = score(doc=767,freq=8.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.5725548 = fieldWeight in 767, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=767)
        0.041150704 = weight(_text_:und in 767) [ClassicSimilarity], result of:
          0.041150704 = score(doc=767,freq=22.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.40608138 = fieldWeight in 767, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=767)
        0.008094659 = weight(_text_:in in 767) [ClassicSimilarity], result of:
          0.008094659 = score(doc=767,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1301535 = fieldWeight in 767, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=767)
        0.029344378 = weight(_text_:den in 767) [ClassicSimilarity], result of:
          0.029344378 = score(doc=767,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.22392172 = fieldWeight in 767, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=767)
        0.015486653 = product of:
          0.030973306 = sum of:
            0.030973306 = weight(_text_:22 in 767) [ClassicSimilarity], result of:
              0.030973306 = score(doc=767,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.19345059 = fieldWeight in 767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=767)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    Für Webseiten ist, wie für alle interaktiven Anwendungen vom einfachen Automaten bis zur komplexen Software, die Benutzerfreundlichkeit von zentraler Bedeutung. Allerdings wird eine sinnvolle Benutzung von Informationsangeboten im World Wide Web häufig durch "cooles Design" unnötig erschwert, weil zentrale Punkte der Benutzerfreundlichkeit (Usability) vernachlässigt werden. Durch Usability Evaluation kann die Benutzerfreundlichkeit von Webseiten und damit auch die Akzeptanz bei den Benutzern verbessert werden. Ziel ist die Gestaltung von ansprechenden benutzerfreundlichen Webangeboten, die den Benutzern einen effektiven und effizienten Dialog ermöglichen. Das Buch bietet eine praxisorientierte Einführung in die Web Usability Evaluation und beschreibt die Anwendung ihrer verschiedenen Methoden.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    AP 15860 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Kommunikationsdesign in elektronischen Medien
    Content
    Einführung.- Grundlagen des Web-Designs.- Usability und Usability Engineering.- Usability Engineering und das Web.- Methodenfragen zur Usability Evaluation.Expertenorientierte Methoden.- Benutzerorientierte Methoden.- Suchmaschinenorientierte Methoden.- Literatur.Glossar.- Index.- Checklisten.
    Date
    22. 3.2008 14:24:08
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    AP 15860 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Kommunikationsdesign in elektronischen Medien
  3. Sharing knowledge: scientific communication : 9. Kongress der IuK-Initiative der wissenschaftlichen Fachgesellschaft in Deutschland (2004) 0.16
    0.1621332 = product of:
      0.2837331 = sum of:
        0.04254853 = weight(_text_:und in 1450) [ClassicSimilarity], result of:
          0.04254853 = score(doc=1450,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41987535 = fieldWeight in 1450, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1450)
        0.1887699 = weight(_text_:techniken in 1450) [ClassicSimilarity], result of:
          0.1887699 = score(doc=1450,freq=4.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.67199206 = fieldWeight in 1450, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1450)
        0.011332521 = weight(_text_:in in 1450) [ClassicSimilarity], result of:
          0.011332521 = score(doc=1450,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1822149 = fieldWeight in 1450, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1450)
        0.041082133 = weight(_text_:den in 1450) [ClassicSimilarity], result of:
          0.041082133 = score(doc=1450,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31349042 = fieldWeight in 1450, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1450)
      0.5714286 = coord(4/7)
    
    Abstract
    Diese erstmals zur Frühjahrstagung der IuK-Initiative herausgegebenen Proceedings bieten zum einen eine Momentaufnahme des Entwicklungsstandes digitaler Bibliotheken in der Bundesrepublik. Zum anderen geben sie den intensiven Diskurs über internetgestützte Techniken in der Kommunikation wissenschaftlicher Gruppen und Gemeinschaften wider; dabei geht es vor allem um die Entwicklung bei den Techniken als solchen, um die Entfaltung neuer Materialtypen, um eine nachhaltige Sicherung des Betriebs von Installationen ("Geschäftsmodelle"), um fachliche Spezifität und Expressivität sowie um Skalierbarkeit im inter- und überdisziplinären Rahmen. Dieser Tagungsband vertieft die Webproceedings, die eine Dokumentation aller Vorträge enthalten und unter www. iwi-iuk. org/iuk2003/ zugänglich sind.
    Editor
    IuK-Initiative Information und Kommunikation, Deutsche Mathematiker Vereinigung (DMV), Berlin, und Institut für Wissenschaftliche Information (IWI), Osnabrück
  4. Döring, N.: Multimedia in globalen Datennetzen (1995) 0.15
    0.15418157 = product of:
      0.35975698 = sum of:
        0.03970369 = weight(_text_:und in 4926) [ClassicSimilarity], result of:
          0.03970369 = score(doc=4926,freq=2.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.39180204 = fieldWeight in 4926, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=4926)
        0.30509824 = weight(_text_:techniken in 4926) [ClassicSimilarity], result of:
          0.30509824 = score(doc=4926,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            1.0861032 = fieldWeight in 4926, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.125 = fieldNorm(doc=4926)
        0.014955049 = weight(_text_:in in 4926) [ClassicSimilarity], result of:
          0.014955049 = score(doc=4926,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.24046129 = fieldWeight in 4926, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.125 = fieldNorm(doc=4926)
      0.42857143 = coord(3/7)
    
    Source
    Klimsa, P.: Multimedia: Anwendungen, Tools und Techniken
  5. Ecker, R.: ¬Das digitale Buch im Internet : Methoden der Erfassung, Aufbereitung und Bereitstellung (1998) 0.15
    0.15283759 = product of:
      0.26746577 = sum of:
        0.1534817 = weight(_text_:methoden in 1511) [ClassicSimilarity], result of:
          0.1534817 = score(doc=1511,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.64777184 = fieldWeight in 1511, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=1511)
        0.059555534 = weight(_text_:und in 1511) [ClassicSimilarity], result of:
          0.059555534 = score(doc=1511,freq=18.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.58770305 = fieldWeight in 1511, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1511)
        0.0074775247 = weight(_text_:in in 1511) [ClassicSimilarity], result of:
          0.0074775247 = score(doc=1511,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.120230645 = fieldWeight in 1511, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=1511)
        0.046951007 = weight(_text_:den in 1511) [ClassicSimilarity], result of:
          0.046951007 = score(doc=1511,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.35827476 = fieldWeight in 1511, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=1511)
      0.5714286 = coord(4/7)
    
    Abstract
    Die elektronische Erfassung aller bedeutenden gedruckten Informationen und ihre Verbreitung über die weltweiten Datennetze in digitalisierter Form oder als Volltext stellt eine der zur Zeit größten Herausforderungen und Chancen für unsere Informationsgesellschaft dar. Der nachstehende Artikel widmet sich der oft gestellten Frage nach den technischen Methoden für die elektronische Erfassung, Erschließung und Bereitstellung gedruckter Vorlagen und beschreibt die wichtigsten Schritte der Digitalisierung und Datenaufbereitung und ihrer technischen und organisatorischen Parameter
    Content
    Beschreibt den Prozeß der digitalisierten Aufbereitung von Text und Bild etc. über Scannen
  6. Internet und Intranet : Betriebliche Anwendungen und Auswirkungen (1998) 0.15
    0.14523363 = product of:
      0.25415885 = sum of:
        0.03970369 = weight(_text_:und in 965) [ClassicSimilarity], result of:
          0.03970369 = score(doc=965,freq=8.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.39180204 = fieldWeight in 965, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=965)
        0.15254912 = weight(_text_:techniken in 965) [ClassicSimilarity], result of:
          0.15254912 = score(doc=965,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.5430516 = fieldWeight in 965, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=965)
        0.014955049 = weight(_text_:in in 965) [ClassicSimilarity], result of:
          0.014955049 = score(doc=965,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.24046129 = fieldWeight in 965, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=965)
        0.046951007 = weight(_text_:den in 965) [ClassicSimilarity], result of:
          0.046951007 = score(doc=965,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.35827476 = fieldWeight in 965, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=965)
      0.5714286 = coord(4/7)
    
    Abstract
    Internet und Intranet eröffnen völlig neue Perspektiven in der Informationsverarbeitung. Bereiche, in denen die Gestaltung der Außenbeziehungen eine hohe strategische Bedeutung hat, stehen vor der Herausforderung, sich mit den neuen Techniken des Internet beschäftigen zu müssen. Auch wenn die kurzfristigen wirtschaftlichen Erfolge nicht unmittelbar in monetären Größen bewertet werden können, droht bei Ignorieren dieser Technologie ein Imageverlust gegenüber der Konkurrenz. Es spricht vieles dafür, daß die Erfolgspotentiale von Internet und Intranet in den nächsten Jahren nur dann realisiert werden können, wenn die dafür notwendigen Lernprozesse bereits jetzt eingeleitet werden
  7. Wawra, S.: ¬Das Internet - Ansätze einer bibliothekarischen Reflexion (1995) 0.13
    0.13204448 = product of:
      0.30810377 = sum of:
        0.042112123 = weight(_text_:und in 2309) [ClassicSimilarity], result of:
          0.042112123 = score(doc=2309,freq=4.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41556883 = fieldWeight in 2309, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2309)
        0.22882368 = weight(_text_:techniken in 2309) [ClassicSimilarity], result of:
          0.22882368 = score(doc=2309,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.8145774 = fieldWeight in 2309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.09375 = fieldNorm(doc=2309)
        0.037167966 = product of:
          0.07433593 = sum of:
            0.07433593 = weight(_text_:22 in 2309) [ClassicSimilarity], result of:
              0.07433593 = score(doc=2309,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.46428138 = fieldWeight in 2309, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2309)
          0.5 = coord(1/2)
      0.42857143 = coord(3/7)
    
    Footnote
    Es handelt sich um einen Kurzbericht und ausgewählte Literatur zu neuen Technologien/Medien der VdDB-Kommission Neue Technologien und VDB-Arbeitsgruppe Neue Techniken/Medien
    Source
    VdDB/VDB Rundschreiben. 1995, H.3, S.22-23
  8. Sauer, C.S.: Analyse von Webcommunities und Extraktion von Wissen aus Communitydaten für Case-Based Reasoning Systeme (2010) 0.13
    0.12733783 = product of:
      0.22284119 = sum of:
        0.024814807 = weight(_text_:und in 2231) [ClassicSimilarity], result of:
          0.024814807 = score(doc=2231,freq=8.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.24487628 = fieldWeight in 2231, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
        0.13483565 = weight(_text_:techniken in 2231) [ClassicSimilarity], result of:
          0.13483565 = score(doc=2231,freq=4.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.47999436 = fieldWeight in 2231, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
        0.012364795 = weight(_text_:in in 2231) [ClassicSimilarity], result of:
          0.012364795 = score(doc=2231,freq=14.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.19881277 = fieldWeight in 2231, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
        0.050825957 = weight(_text_:den in 2231) [ClassicSimilarity], result of:
          0.050825957 = score(doc=2231,freq=12.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.38784382 = fieldWeight in 2231, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
      0.5714286 = coord(4/7)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit den Möglichkeiten der Informationsextraktion aus den Daten von Webcommunities und der Verwendung der extrahierten Informationen in Case-Based Reasoning- (CBR) Systemen. Im Rahmen der Arbeit wird auf die Entwicklung der Webcommunities im Zeitraum der letzten 30 Jahre eingegangen. Es wird eine Klassifikation der derzeitig anzutreffenden Webcommunities in verschiedene Kategorien von Webcommunities vorgenommen. Diese Klassifikation erfolgt hinsichtlich der Struktur, der technischen Mittel sowie der Interessen der Nutzer dieser Webcommunities. Aufbauend auf die vorgenommene Klassifikation von Webcommunities erfolgt eine Untersuchung der Eignung dieser Kategorien von Webcommunities zur Informationsextraktion im Kontext der Verwendung der extrahierten Informationen in CBR-Systemen. Im selben Kontext werden verschiedene Ansätze und Techniken der Informationsextraktion auf ihre Eignung zur Extraktion von Wissen speziell für die Wissenscontainer von CBR -Systeme geprüft. Aufbauend auf den dadurch gewonnenen Erkenntnissen wird, angelehnt an den Prozess der Knowledge Discovery in Databases, ein eigenes Prozessmodell der Wissensextraktion aus Webcommunities für CBR-Systeme entworfen. Im Zuge der näheren Betrachtung dieses Prozessmodells wird auf verschiedene, durch die beabsichtigte Verwendung der extrahierten Informationen in den vier Wissenscontainern des CBR bedingte, Anforderungen an NLP- sowie IE-Techniken, die zur Extraktion dieser Daten verwendet werden, eingegangen. Die in den theoretischen Betrachtungen erlangten Erkenntnisse werden dann dazu eingesetzt, eine Anwendung zur Informationsextraktion aus einer Webcommunity für ein CBR-System, in Form der Knowledge Extraction Workbench zu implementieren. Diese IEAnwendung arbeitet im Kontext des auf der SEASALT-Architektur aufbauenden Projektes docQuery. Die Realisierung dieser IE-Anwendung wird dokumentiert sowie die Extraktionsergebnisse der Anwendung hinsichtlich ihres Umfanges und ihrer Qualität evaluiert.
  9. Walther, R.: Möglichkeiten und Grenzen automatischer Klassifikationen von Web-Dokumenten (2001) 0.13
    0.1260778 = product of:
      0.22063614 = sum of:
        0.13429649 = weight(_text_:methoden in 1562) [ClassicSimilarity], result of:
          0.13429649 = score(doc=1562,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.56680036 = fieldWeight in 1562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.045957662 = weight(_text_:und in 1562) [ClassicSimilarity], result of:
          0.045957662 = score(doc=1562,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4535172 = fieldWeight in 1562, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.011332521 = weight(_text_:in in 1562) [ClassicSimilarity], result of:
          0.011332521 = score(doc=1562,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1822149 = fieldWeight in 1562, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.029049452 = weight(_text_:den in 1562) [ClassicSimilarity], result of:
          0.029049452 = score(doc=1562,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 1562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
      0.5714286 = coord(4/7)
    
    Abstract
    Automatische Klassifikationen von Web- und andern Textdokumenten ermöglichen es, betriebsinterne und externe Informationen geordnet zugänglich zu machen. Die Forschung zur automatischen Klassifikation hat sich in den letzten Jahren intensiviert. Das Resultat sind verschiedenen Methoden, die heute in der Praxis einzeln oder kombiniert für die Klassifikation im Einsatz sind. In der vorliegenden Lizenziatsarbeit werden neben allgemeinen Grundsätzen einige Methoden zur automatischen Klassifikation genauer betrachtet und ihre Möglichkeiten und Grenzen erörtert. Daneben erfolgt die Präsentation der Resultate aus einer Umfrage bei Anbieterrfirmen von Softwarelösungen zur automatische Klassifikation von Text-Dokumenten. Die Ausführungen dienen der myax internet AG als Basis, ein eigenes Klassifikations-Produkt zu entwickeln
    Footnote
    Lizenziatsarbeit an der Rechts- und Wirtschaftswissenschaftlichen Fakultät der Universität Bern, Institut für Wirtschaftsinformatik (Prof. G. Knolmayer)
    Imprint
    Bern : Rechts- und Wirtschaftswissenschaftlichen Fakultät
  10. Kleinsteuber, H.J.: ¬Die Verheißung der Kabeldemokratie : von der amerikanischen Datenautobahn und dem deutschen digitalen Fernsehen (1994) 0.13
    0.12568387 = product of:
      0.21994676 = sum of:
        0.03884132 = weight(_text_:und in 8519) [ClassicSimilarity], result of:
          0.03884132 = score(doc=8519,freq=10.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.38329202 = fieldWeight in 8519, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8519)
        0.13348047 = weight(_text_:techniken in 8519) [ClassicSimilarity], result of:
          0.13348047 = score(doc=8519,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.47517014 = fieldWeight in 8519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8519)
        0.0065428335 = weight(_text_:in in 8519) [ClassicSimilarity], result of:
          0.0065428335 = score(doc=8519,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10520181 = fieldWeight in 8519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8519)
        0.041082133 = weight(_text_:den in 8519) [ClassicSimilarity], result of:
          0.041082133 = score(doc=8519,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31349042 = fieldWeight in 8519, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8519)
      0.5714286 = coord(4/7)
    
    Abstract
    Die Einbahnstraßen-Kommunikation der Medien durch technologische Entwicklungen aufzuheben - das ist ein Traum, der schon in den 70er Jahren gesponnen wurde. Damals sollte mit Hilfe der Verkabelung das analoge Fernsehen mit einem Rückkanal zum Sender ausgestattet und somit eine Zweiwege-Kommunikation etabliert werden. Der Rückkanal erwies sich ebenso als Flop, wie das ihm angedichtet demokratische Potential. Heute hat mit dem Einzug der digitalen Techniken auch der Mythos von interaktiven und somit demokratischen Medien ein Comeback. Ein Vergleich zwischen den USA und Deutschland zeigt, wie unterschiedlich die technologischen Pfade, ökonomische Hintergründe und ihre 'demokratisierenden' Folgen sein können
  11. Kaeser, E.: Trost der Langeweile : die Entdeckung menschlicher Lebensformen in digitalen Welten (2014) 0.12
    0.11840974 = product of:
      0.20721704 = sum of:
        0.033292558 = weight(_text_:und in 2588) [ClassicSimilarity], result of:
          0.033292558 = score(doc=2588,freq=10.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.328536 = fieldWeight in 2588, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2588)
        0.11441184 = weight(_text_:techniken in 2588) [ClassicSimilarity], result of:
          0.11441184 = score(doc=2588,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.4072887 = fieldWeight in 2588, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=2588)
        0.00971359 = weight(_text_:in in 2588) [ClassicSimilarity], result of:
          0.00971359 = score(doc=2588,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1561842 = fieldWeight in 2588, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2588)
        0.049799062 = weight(_text_:den in 2588) [ClassicSimilarity], result of:
          0.049799062 = score(doc=2588,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.38000777 = fieldWeight in 2588, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=2588)
      0.5714286 = coord(4/7)
    
    Abstract
    Unaufgeregt und ohne die technischen Fortentwicklungen zu verteufeln richtet Kaeser den Fokus auf Lebensqualität, schält heraus, wo die Technik dem Durchschnittsbürger aufgedrängt wird, Gefahr läuft, ihn in den Griff zu kriegen und seine Lebenswelt zu verändern, und stellt ihr alltägliche, bewusste oder unbewusste Gewohnheiten gegenüber, die unhinterfragt zu einem Durchschnittsalltag gehören, aber oft zu wenig bewusst gepflegt zu werden. So sind seine Themen, unter vielen anderen, die Aufmerksamkeit, das Erinnern, das Lesen, das Schreiben - alles immer betrachtet unter den Aspekten des Handelns und auch der Infragestellung durch oft überproportioniert hereinbrechende, neue Techniken. Eine humorvolle und äusserst geistreiche Annäherung an das, was die echte Lebensqualität ausmacht.
    Content
    Vgl. auch den Beitrag: Kaeser, E.: Das postfaktische Zeitalter. In: http://www.nzz.ch/meinung/kommentare/googeln-statt-wissen-das-postfaktische-zeitalter-ld.111900.
  12. Hedden, H.: Indexing specialities : Web Sites (2007) 0.12
    0.115306266 = product of:
      0.16142876 = sum of:
        0.040697984 = weight(_text_:methoden in 1146) [ClassicSimilarity], result of:
          0.040697984 = score(doc=1146,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.17176645 = fieldWeight in 1146, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.030694216 = weight(_text_:und in 1146) [ClassicSimilarity], result of:
          0.030694216 = score(doc=1146,freq=34.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3028952 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.05720592 = weight(_text_:techniken in 1146) [ClassicSimilarity], result of:
          0.05720592 = score(doc=1146,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.20364435 = fieldWeight in 1146, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.007931113 = weight(_text_:in in 1146) [ClassicSimilarity], result of:
          0.007931113 = score(doc=1146,freq=16.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.12752387 = fieldWeight in 1146, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.024899531 = weight(_text_:den in 1146) [ClassicSimilarity], result of:
          0.024899531 = score(doc=1146,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 1146, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
      0.71428573 = coord(5/7)
    
    Footnote
    Rez. in: IWP 60(2009) H.4, S.245 (J. Fassbender): "Heather Heddens Buch über Website-Indexing gehört zur Indexing Specialties-Serie, die vom Information Today-Verlag in Zusammenarbeit mit der American Society of Indexers herausgegeben wird. Der Bereich Website-Indexing befasst sich mit der Index-Erstellung und -Pflege für Websites und Intranets - ähnlich zu Registern für Printpublikationen. Ein Website-Index hat oft die Bezeichnung Site Index oder A-Z Index und sollte zudem nicht mit Site Maps verwechselt werden. Das Buch füllt gerade auch hierzulande eine Riesenlücke aus: Nach Einschätzung des Deutschen Netzwerks der Indexer (DNI) ist das Wissensdefizit über Website-Indexing in der deutschen Web- und IT-Szene enorm. Die Autorin beginnt in diesem Sinne auch gleich mit zwei Kernaussagen des Buches: 1. Website-Indexing sei deshalb in der Web-Szene nicht so verbreitet, weil die Kenntnisse der Methoden zur Index-Erstellung fehlen und/oder die nötigen Tools unbekannt sind. 2. Ein guter Index stelle für viele Sites die effektivste Suchmethode dar - trotz der Konkurrenz zu Navigationsmenüs und Sucheingabe. Verdeutlicht werden sodann die Unterschiede zu Print-Registern, der bedeutendste betrifft die Locators (Fundstellen), die in der Regel keine Seitenangaben, sondern Links sind.
    Ein Kapitel über HTML-Grundlagen ist für diejenigen Indexer gedacht, die sich in diesem Bereich bisher nicht oder wenig auskennen. Ein weiteres Kapitel verdeutlicht die HTML-Tags, die speziell für die Website-Index-Erstellung von Bedeutung sind. Die Erläuterungen zu Cascading Style Sheets (CSS) ist ausreichend, aber etwas knapp; hier wären einige CSS-Techniken für Fortgeschrittene von Interesse gewesen. Auf die Möglichkeiten von Konvertierungs-Tools (wie HTML/Prep), mit denen Dokumente ins HTML-Format umgewandelt werden können, sowie von Online Help Authoring Tools wird ebenfalls eingegangen. Sie bilden eine gute Ergänzung zu den indexspezifischen HTML-Erläuterungen. Das Thema XML ist bewusst ausgeschlossen worden, um sich vom Fokus des Buches nicht zu weit zu entfernen. Dennoch hätte man sich als Leser zumindest ein paar grundsätzliche Erläuterungen im Kontext zum Website-Indexing gewünscht. Ein Kapitel über Dedicated-IndexingSoftware behandelt deren Möglichkeiten einer Index-Erstellung für Websites. Die Autorin argumentiert überzeugend, dass die großen Vorteile dieser von Indexern weltweit am meisten eingesetzten Software deren mächtige Möglichkeiten zur Erstellung, Bearbeitung, Veränderung und Kontrolle von Index-Einträgen sind, was einer hohen Index-Qualität zugute kommt. Die HTML-Ausgabe-Optionen dieser Software-Art sind allerdings etwas eingeschränkter, so dass der Output oft einer Nachbearbeitung bedarf. Es folgen zwei Kapitel über spezielle Website-Indexing-Software. XRefHT (gesprochen: Shreft) ist eine Freeware, die von Prof. Timothy Craven (University of Western Ontario) entwickelt wurde. HTML Indexer ist eine kommerziell erhältliche Software. Detailliert erläutert werden, welche Elemente von Web-Seiten von den beiden Programmen für Index-Einträge berücksichtigt werden, wie Index-Einträge und Querverweise erstellt und bearbeitet und wie die Register aktualisiert werden können.
    Zwei Kapitel behandeln die Vorgehensweise bei der Index-Erstellung sowie die vielfältigen Aspekte der Index-Gestaltung. Anhand vieler Beispiele werden die Besonderheiten, aber auch Parallelen zu Printregistern beleuchtet, z. B. bestehende und neu einzufügende Anker, Berücksichtigung verschiedener Seiten-Arten und -Formate, Umgang mit mehreren Locatorn pro Eintrag, Navigation innerhalb des Site Indexes. Das Schlusskapitel widmet sich den Business-Aspekten des Website-Indexing, auch aus Freelancer-Sicht. Erläutert werden z. B., welche Arten von Websites in Frage kommen und wie die Fortführung der Indexierung berücksichtigt wird. Der Index des Buches ist insgesamt von guter Qualität, wie man es von den Indexing-Büchern des Information Today-Verlages gewöhnt ist - ja sogar von exzellenter Qualität im Vergleich zu vielen unzureichenden Registern deutschsprachiger Fachbücher. Mit fünf Prozent Umfang im Verhältnis zur Anzahl der inhaltlichen Seiten hat der Index eine gute Standardlänge. Wesentliche Indexierungstechniken, wie Untereinträge, siehe- und siehe auch-Querverweise, vollständige Seitenbereichsangaben (d. h. ohne die wenig hilfreichen ff.-Angaben) kommen zum Einsatz. Einige Untereinträge tauchen allerdings nicht auch als Haupteintrag auf; so findet man z. B. "indexing rates" nur als Untereintrag des Haupteintrages "Business and index market". Die typographische und satztechnische Qualität des Registers ist ebenfalls gut, z. B. unterschiedliche Einrückungen von Untereinträgen und deren Zeilenumbrüchen. Insgesamt gesehen ist Indexing Specialties: Web Sites ein sehr empfehlenswertes Buch, das ein wichtiges (und bisher vernachlässigtes) Thema abdeckt."
  13. Zeitz, G.: Wissenschaftliche Informationen per Mausklick : Bibliotheken und Forschungsinstitute eröffnen fächerübergreifendes Internetportal - Hessische Einrichtungen sind beteiligt (2003) 0.11
    0.11063786 = product of:
      0.19361624 = sum of:
        0.03970369 = weight(_text_:und in 1800) [ClassicSimilarity], result of:
          0.03970369 = score(doc=1800,freq=32.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.39180204 = fieldWeight in 1800, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1800)
        0.00915806 = weight(_text_:in in 1800) [ClassicSimilarity], result of:
          0.00915806 = score(doc=1800,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.14725187 = fieldWeight in 1800, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1800)
        0.03711803 = weight(_text_:den in 1800) [ClassicSimilarity], result of:
          0.03711803 = score(doc=1800,freq=10.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.28324106 = fieldWeight in 1800, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=1800)
        0.10763647 = sum of:
          0.082857825 = weight(_text_:naturwissenschaften in 1800) [ClassicSimilarity], result of:
            0.082857825 = score(doc=1800,freq=2.0), product of:
              0.29278275 = queryWeight, product of:
                6.4035826 = idf(docFreq=198, maxDocs=44218)
                0.045721713 = queryNorm
              0.28300104 = fieldWeight in 1800, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.4035826 = idf(docFreq=198, maxDocs=44218)
                0.03125 = fieldNorm(doc=1800)
          0.024778644 = weight(_text_:22 in 1800) [ClassicSimilarity], result of:
            0.024778644 = score(doc=1800,freq=2.0), product of:
              0.16010965 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045721713 = queryNorm
              0.15476047 = fieldWeight in 1800, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1800)
      0.5714286 = coord(4/7)
    
    Abstract
    Wer schnell wissenschaftliche Informationen zu Hause. auf seinem PC benötigt, kann, künftig bei www.vascoda.de fündig werden: Unter dieser Internet-Adresse. haben 37 deutsche Bibliotheken, Forschungsinstitute und Informationseinrichtungen ein fächerübergreifendes Internetportal eingerichtet. Angeschlossen sind auch das Deutsche Institut für Internationale Pädagogische Forschung in Frankfurt und das Institut für Soziologie der TU Darmstadt.
    Content
    "Wissenschaftler brauchen fundierte Informationen aus Quellen, auf die man sich verlassen kann. Die Suche nach solchen Quellen, wissenschaftlichen Aufsätzen, Dissertationen, Büchern, Datenbanken und Linklisten gestaltete sich bislang schwierig: Bibliotheken oder Verlage von Fachzeitschriften mussten einzeln angesteuert werden, einen zentralen, einheitlichen und einfachen Zugang gab es bislang, nicht. Das soll sich jetzt ändern: Das vom Bundesministerium für Bildung und Forschung (BMBF) und von der Deutschen; Forschungsgemeinsehaft (DFG) geförderte Internetportal "vascoda", das nach dem Willen seiner Initiatoren auch Grundbaustein für die "Digitale Bibliothek Deutschland" sein soll, will Forschern Zugang zu wissenschaftlicher Information unterschiedlichster Fachrichtungen und unterschiedlichster Formate bieten. Das ist bundesweit in dieser Form ebenso einzigartig wie die Tatsache, dass die an vascoda angeschlossenen Datenbanken ausschließlich ;,geprüfte" Informationen liefern sollen: "Fachbibliothekare und Fachwissenschaftler der Anbieter, die sich unter dem vascoda-Dach zusammengeschlossen haben, prüfen, welche Texte vdrfügbar gemacht werden", sagt Christine Burblies von der vascoda-Geschäftsstelle in Hannover. "So können wir gewährleisten, dass die Informationen wissenschaftlichen Ansprüchen genügen." Das macht dann auch den wesentlichen Unterschied zu anderen Suchmaschinen aus: Die Suchmaske des Wissenschaftsportals ist zwar ähnlich einfach zu handhaben wie die Internet-Suchmaschine Google - vascoda verirrt sich aber nicht im World Wide Web. Und während andere Internet-Suchmaschinen nicht den Zugriff auf das so genannte "invisible web" bieten, also beispielsweise auf Bibliothekskataloge, ermöglicht vascoda auch den Zugriff auf dieses unsichtbare Netz. Das Wissenschaftsportal ist unentgeltlich nutzbar, und auch ein Großteil der Informationen ist kostenlos zu beziehen. Es sind aber auch kostenpflichtige Informationen verfügbar - zum Beispiel aus Verlagsangeboten und kommerziellen Datenbanken. Wer Informationen etwa zu soziologischen Fragen sucht, landet sicher auch auf den Internetseiten des Instituts für Soziologie in Darmstadt (www.ifs.tu-darmstadt.de/forsch.htm), das ebenso zu den vascoda-Anbietern gehört wie das Deutsche Institut für Internationale Pädagogik (DIPF) in Frankfurt (www.dipfde/index_1024.htm). In vascoda eingebunden sind zur Zeit 23 virtuelle Fachbibliotheken (ViFas), die vier großen Informationsverbünde EconDoc (Wirtschaft), GetInfo (Naturwissenschaften und Technik), infoconnex (Pädagogik, Sozialwissenschaften, Psychologie) und Medizin sowie die Elektronische Zeitschriftenbibliothek (EZB), ein kooperativer Service von 209 Bibliotheken zur Bereitstellung von elektronischen Zeitschriften, -die im Internet publiziert werden. "Wir planen überdies die Erweiterung um das Fach Germanistik, und wenn es soweit ist, wird die Stadt- und Universitätsbibliothek Frankfurt diesen Service bereitstellen", sagt Burblies."
    Date
    17. 7.1996 9:33:22
  14. Lepsky, K.: Im Heuhaufen suchen - und finden : Automatische Erschließung von Internetquellen: Möglichkeiten und Grenzen (1998) 0.11
    0.10664844 = product of:
      0.18663476 = sum of:
        0.039392285 = weight(_text_:und in 4655) [ClassicSimilarity], result of:
          0.039392285 = score(doc=4655,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.38872904 = fieldWeight in 4655, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4655)
        0.11441184 = weight(_text_:techniken in 4655) [ClassicSimilarity], result of:
          0.11441184 = score(doc=4655,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.4072887 = fieldWeight in 4655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=4655)
        0.007931113 = weight(_text_:in in 4655) [ClassicSimilarity], result of:
          0.007931113 = score(doc=4655,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.12752387 = fieldWeight in 4655, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4655)
        0.024899531 = weight(_text_:den in 4655) [ClassicSimilarity], result of:
          0.024899531 = score(doc=4655,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 4655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=4655)
      0.5714286 = coord(4/7)
    
    Abstract
    Das Internet wird immer unübersichtlicher - auch eine Binsenweisheit, aber wohl mehr ein handfestes Problem. Abhilfe versprechen die diversen Suchmaschinen und Verzeichnisse der kommerziellen Anbieter, zu denen sich thematische Link-Sammlungen anderer Institutionen - etwas Bibliotheken - gesellen. Während die Suchmaschinen mit dem Anspruch arbeiten, das gesamte Netz zu erschließen (und diesen damit einlösen, daß sie ihre Kundschaft teilweise mit mehreren hundert Treffern nach einer Anfrage konfrontieren), haben die Anbieter ausgewählter und intellektuelle erschlossener Quellen häufig mit dem Problem mangelnder Aktualität und der Beschränktheit ihres Angebots zu kämpfen. - Der folgende Beitrag diskutiert verschiedene Verfahren, die in erheblich stärkerem Maße sowohl die Vollständigkeit als auch die Relevanz der durchsuchten beziehungsweise gefundenen Internetquellen sicherstellen sollen. In diesem Zusammenhang wird auch die Frage erörtert, welche Rolle den Bibliotheken bei der Entwicklung und Anwendung solcher Techniken zukommen könnte
  15. Friedrich, J.: Kritik der vernetzten Vernunft : Philosophie für Netzbewohner (2012) 0.11
    0.10658757 = product of:
      0.18652824 = sum of:
        0.039235655 = weight(_text_:und in 4024) [ClassicSimilarity], result of:
          0.039235655 = score(doc=4024,freq=20.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3871834 = fieldWeight in 4024, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4024)
        0.0953432 = weight(_text_:techniken in 4024) [ClassicSimilarity], result of:
          0.0953432 = score(doc=4024,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.33940727 = fieldWeight in 4024, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4024)
        0.010450159 = weight(_text_:in in 4024) [ClassicSimilarity], result of:
          0.010450159 = score(doc=4024,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.16802745 = fieldWeight in 4024, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4024)
        0.041499224 = weight(_text_:den in 4024) [ClassicSimilarity], result of:
          0.041499224 = score(doc=4024,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31667316 = fieldWeight in 4024, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4024)
      0.5714286 = coord(4/7)
    
    Abstract
    Das Buch wendet sich an Menschen, die im Netz zu Hause sind, die nicht mehr zwischen online und offline unterscheiden, die in Blogs Kommentare posten und mit dem Kollegen über Fußball diskutieren, die Online-Zeitungen lesen und dabei mit dem Lebenspartner über das Wetter reden. Sie sind Netzwerker - nicht nur, wenn sie im Internet unterwegs sind. Ihr soziales Netz ist dicht geknüpft, die Online-Welt wird darin immer fester eingewoben. Sie ziehen ihr Wissen aus dem Netz, handeln in Netzwerken und indem sie sich vernetzen und sie hoffen auf Problemlösungen durch technische Vernetzungen. Netzwerke sind die Basis unserer modernen Welt, aber Netze machen diese Welt auch immer komplexer und undurchschaubarer. Das Buch widmet sich den Herausforderungen der Vernunft in der vernetzten Welt. Es sucht die Antworten auf die großen philosophischen Fragen von Immanuel Kant, die in die Welt der vernetzten Vernunft passen: - Wie hängt unser Wissen von den Techniken der Vernetzung ab, und warum glauben wir dem Netz oft mehr als den eigenen Erfahrungen? - Ist Handeln in einem richtungslosen Netz noch möglich, und kann man auch daraus ausbrechen, sich aus Knoten und Schlingen befreien? - Gibt das Netz uns Grund zur Hoffnung und wird eine Welt technischer Vernetzungen unsere Wünsche erfüllen? - Was macht den vernetzten Menschen aus, ändert er sein Wesen?
  16. Böhm, P.; Rittberger, M.: Einsatz von Webanalyse in überregionalen Informationsinfrastruktureinrichtungen (2016) 0.11
    0.10579168 = product of:
      0.18513544 = sum of:
        0.094961956 = weight(_text_:methoden in 3239) [ClassicSimilarity], result of:
          0.094961956 = score(doc=3239,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.40078837 = fieldWeight in 3239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3239)
        0.04254853 = weight(_text_:und in 3239) [ClassicSimilarity], result of:
          0.04254853 = score(doc=3239,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41987535 = fieldWeight in 3239, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3239)
        0.0065428335 = weight(_text_:in in 3239) [ClassicSimilarity], result of:
          0.0065428335 = score(doc=3239,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10520181 = fieldWeight in 3239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3239)
        0.041082133 = weight(_text_:den in 3239) [ClassicSimilarity], result of:
          0.041082133 = score(doc=3239,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31349042 = fieldWeight in 3239, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3239)
      0.5714286 = coord(4/7)
    
    Abstract
    Um die Nutzung ihrer Informationsdienste und -angebote beurteilen zu können, setzen Informationsinfrastruktureinrichtungen der Leibniz-Gemeinschaft die Webanalyse ein. Sieben Leibniz-Informationsinfrastruktureinrichtungen wurden mit einem Online-Fragebogen und einem teilstandardisierten Interview zur Nutzung der Webanalyse befragt. Es werden die verwendeten Methoden, Werkzeuge und Metriken sowie die verfügbaren Ressourcen als auch die Zukunftsperspektive der Webanalyse an den Einrichtungen beschrieben. Insgesamt wird der Stellenwert der Webanalyse an den Instituten als hoch angesehen. Die bisher wenig ausgeprägte Standardisierung und die fehlende Einheitlichkeit der Metriken und Erhebungsmethoden erschweren einen möglichen Vergleich von Nutzungsdaten allerdings erheblich.
    Source
    Information - Wissenschaft und Praxis. 67(2016) H.4, S.241-251
  17. Janowitz, K.M.: Netnographie : Ethnographische Methoden im Internet und posttradtionale Vergemeinschaftungen (2013) 0.10
    0.10484042 = product of:
      0.18347073 = sum of:
        0.09592607 = weight(_text_:methoden in 931) [ClassicSimilarity], result of:
          0.09592607 = score(doc=931,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.4048574 = fieldWeight in 931, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=931)
        0.0328269 = weight(_text_:und in 931) [ClassicSimilarity], result of:
          0.0328269 = score(doc=931,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.32394084 = fieldWeight in 931, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=931)
        0.013218521 = weight(_text_:in in 931) [ClassicSimilarity], result of:
          0.013218521 = score(doc=931,freq=16.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.21253976 = fieldWeight in 931, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=931)
        0.041499224 = weight(_text_:den in 931) [ClassicSimilarity], result of:
          0.041499224 = score(doc=931,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31667316 = fieldWeight in 931, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=931)
      0.5714286 = coord(4/7)
    
    Abstract
    Geht es um qualitative Forschung im Internet, gelangt man schnell zu den Methoden der Ethnographie. Während in den frühen Jahren des internets (als die "Neuen Medien" noch "neu" waren) das forschende Interesse v.a. dem Internet als einer eigenen - virtuellen - Welt ,in its own terms' galt, steht in den neueren Arbeiten der kulturelle Kontext, in dem Online-Interaktionen stattfinden und Sinn machen, im Vordergrund. Unabhängig voneinander wurden mehrfach auf das Internet anwendbare ethnographische Ansätze entwickelt. Die bekanntesten stammen von der britischen Soziologin Christine Hine ("Virtual Ethnography") und dem kanadischen Marketer Robert Kozinets ("Netnography"). Die Ansätze unterscheiden sich wenig in ihren Konzepten, mehr in ihren Anwendungsfeldern, die den unterschiedlichen Herkunftsfeldern ihrer Protagonisten entsprechen. Eng verbunden ist das Thema posttraditionaler Vergemeinschaftungen, die über das Internet entstehen, bzw. vorangetrieben werden. Die Teilhabe an Kommunikationsnetzwerken ermöglicht mehr und mehr deterritoriale Vergemeinschaftungen, wenn auch Vergemeinschaftung und soziale Bezüge nie ganz von räumlicher Nähe losgelöst sind. Posttraditionale Vergemeinschaftungen beruhen oft auf ästhetischen Präferenzen, einem als gemeinsam empfundenen Arbeits- und Lebensstil. ALs Prototypen im Internet können Fan-Communities gelten, aber auch translokale Arbeits- und Wissensgemeinschaften. Theoretischer Bezugsrahmen ist u.a. das Konzept des Neotribalismus von Michel Maffesoli ("Le temps des tribus"). In der Marktforschung wurden einzelne Spezikationen zur Netnographie entwickelt.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
  18. Kaluza, H.: Methoden und Verfahren bei der Archivierung von Internetressourcen : "The Internet Archive" und PANDORA (2002) 0.10
    0.10373633 = product of:
      0.18153858 = sum of:
        0.09398797 = weight(_text_:methoden in 973) [ClassicSimilarity], result of:
          0.09398797 = score(doc=973,freq=6.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.39667764 = fieldWeight in 973, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
        0.050612472 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.050612472 = score(doc=973,freq=52.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.49945155 = fieldWeight in 973, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
        0.0037387623 = weight(_text_:in in 973) [ClassicSimilarity], result of:
          0.0037387623 = score(doc=973,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.060115322 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
        0.033199377 = weight(_text_:den in 973) [ClassicSimilarity], result of:
          0.033199377 = score(doc=973,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 973, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
      0.5714286 = coord(4/7)
    
    Content
    "Die vorliegende Arbeit befasst sich mit den Methoden und Verfahren bei der Archivierung von Internetressourcen. Ziel ist es, anhand einer vergleichenden Beschreibung zweier zur Zeit aktiver, bzw. im Aufbau befindlicher Projekte, die Grundprobleme dieser speziellen Art der Archivierung darzustellen und deren unterschiedliche Vorgehensweisen beim Aufbau des Archivs zu beschreiben und zu vergleichen. Daraus erfolgt eine Diskussion über grundsätzliche Fragestellungen zu diesem Thema. Hierzu ist es vonnöten, zuerst auf das besondere Medium Internet, insbesondere auf das World Wide Web (WWW), einzugehen, sowie dessen Geschichte und Entstehung zu betrachten. Weiterhin soll ein besonderes Augenmerk auf die Datenmenge, die Datenstruktur und die Datentypen (hier vor allem im World Wide Web) gelegt werden. Da die daraus entstehenden Probleme für Erschließung und Retrieval, die Qualität und die Fluktuation der Angebote im Web eine wichtige Rolle im Rahmen der Archivierung von Internetressourcen darstellen, werden diese gesondert mittels kurzer Beschreibungen bestimmter Instrumente und Projekte zur Lösung derselben beschrieben. Hier finden insbesondere Suchmaschinen und Webkataloge, deren Arbeitsweise und Aufbau besondere Beachtung. Weiterhin sollen die "Virtuelle Bibliothek" und das "Dublin Core"- Projekt erläutert werden. Auf dieser Basis wird dann speziell auf das allgemeine Thema der Archivierung von Internetressourcen eingegangen. Ihre Grundgedanken und ihre Ziele sollen beschrieben und erste Diskussionsfragen und Diskrepanzen aufgezeigt werden. Ein besonderes Augenmerk gilt hier vor allem den technischen und rechtlichen Problemen, sowie Fragen des Jugendschutzes und der Zugänglichkeit zu mittlerweile verbotenen Inhalten. Einzelne Methoden der Archivierung, die vor allem im folgenden Teil anhand von Beispielen Beachtung finden, werden kurz vorgestellt. Im darauf folgenden Teil werden zwei Archivierungsprojekte detailliert beschrieben und analysiert. Einem einführenden Überblick über das jeweilige Projekt, folgen detaillierte Beschreibungen zu Projektverlauf, Philosophie und Vorgehensweise. Die Datenbasis und das Angebot, sowie die Funktionalitäten werden einer genauen Untersuchung unterzogen. Stärken und Schwächen werden genannt, und wenn möglich, untereinander verglichen. Hier ist vor allem auch die Frage von Bedeutung, ob das Angebot a) den Ansprüchen und Zielsetzungen des Anbieters genügt, und ob es b) den allgemeinen Grundfragen der Archivierung von Internetressourcen gleichkommt, die in Kapitel 3 genannt worden sind. Auf Basis aller Teile soll dann abschließend der derzeitige Stand im Themengebiet diskutiert werden. Die Arbeit schließt mit einer endgültigen Bewertung und alternativen Lösungen."
  19. Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001) 0.10
    0.10268488 = product of:
      0.17969853 = sum of:
        0.09592607 = weight(_text_:methoden in 5808) [ClassicSimilarity], result of:
          0.09592607 = score(doc=5808,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.4048574 = fieldWeight in 5808, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.042980507 = weight(_text_:und in 5808) [ClassicSimilarity], result of:
          0.042980507 = score(doc=5808,freq=24.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.42413816 = fieldWeight in 5808, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.011447575 = weight(_text_:in in 5808) [ClassicSimilarity], result of:
          0.011447575 = score(doc=5808,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.18406484 = fieldWeight in 5808, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.029344378 = weight(_text_:den in 5808) [ClassicSimilarity], result of:
          0.029344378 = score(doc=5808,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.22392172 = fieldWeight in 5808, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
      0.5714286 = coord(4/7)
    
    Abstract
    Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  20. E-Learning weltweit : Lernen und Lehren (2005) 0.10
    0.09947317 = product of:
      0.13926244 = sum of:
        0.036701594 = weight(_text_:und in 3224) [ClassicSimilarity], result of:
          0.036701594 = score(doc=3224,freq=70.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3621769 = fieldWeight in 3224, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3224)
        0.0476716 = weight(_text_:techniken in 3224) [ClassicSimilarity], result of:
          0.0476716 = score(doc=3224,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.16970363 = fieldWeight in 3224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3224)
        0.011206546 = weight(_text_:in in 3224) [ClassicSimilarity], result of:
          0.011206546 = score(doc=3224,freq=46.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.18018934 = fieldWeight in 3224, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3224)
        0.03593938 = weight(_text_:den in 3224) [ClassicSimilarity], result of:
          0.03593938 = score(doc=3224,freq=24.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.274247 = fieldWeight in 3224, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3224)
        0.0077433265 = product of:
          0.015486653 = sum of:
            0.015486653 = weight(_text_:22 in 3224) [ClassicSimilarity], result of:
              0.015486653 = score(doc=3224,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.09672529 = fieldWeight in 3224, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3224)
          0.5 = coord(1/2)
      0.71428573 = coord(5/7)
    
    Abstract
    E-Learning gilt als Wundermittel in der mobilen Informationssgesellschaft: Wissenszuwachs wann, wo und so oft man will - egal ob Uni-Vorlesung via Handy oder Urlaub mit dem virtuellen Reiseführer. Soweit die Theorie. In der Praxis mangelt es jedoch an Didaktik. Beim Lernen im Netz geht es oft ums Geld, weniger um Bildungserfolge
    Content
    "Im vergangenen Jahr veröffentlichten die Economist Intelligence Unit - der Wirtschaftsinformationsdienst von der Economist Group - und IBM eine weltweite Vergleichsstudie unter, dem Titel "The -2003 e-learning readiness rankings": In dieser bewerteten sie, in welchem Umfang die 60 grössten Volkswirtschaften E-Learning-Strategien und -Lösungen verfolgen und einsetzen. Die Studie basiert auf Daten der Economist Intelligence Unit, der UNESCO, der Weltbank sowie anderer öffentlicher und privater Organisationen. Beurteilt wurden die Länder dabei nach vier verschiedenen Kategorien. Ermittelt wurde zum einen der Grad der Konnektivität, also in welcher Weise die einzelnen Länder technologische Voraussetzungen wie Breitbandvernetzung und Nutzungsmöglichkeiten zur mobilen Kommunikation beim 'E-Learning zur Verfügung stellen. Zum anderen evaluierten die Verfasser die Leistungsfähigkeit der verschiedenen Länder und warfen dabei etwa einen Blick auf deren Ausbildungssysteme und Angebote des betrieblichen Lernens. In einer dritten Kategorie erfassten die Autoren ferner die Bereitstellung und den Zugang zu Online-Inhalten etwa in Form öffentlicher Datenbanken und Bibliotheken. Schließlich wurde die kulturelle Einstellung zum Thema E-Learning in der Studie erfasst. Die Autoren gingen dabei folgenden Fragen nach: In welcher Weise unterstützen und fördern nationale Einrichtungen E-Learning? In welchen Ländern besitzen Lernprozesse insgesamt einen hohen Stellenwert für die Allgemeinheit? Und wo finden progressive Ideen besonderen Zuspruch? Ausgewertet wurden die Ergebnisse für die vier Einzelbereiche Ausbildung, Unternehmen, staatliche Einrichtungen und Gesellschaft. Deutschland konnte sich innerhalb der Studie mit seinem 17. Rang insgesamt im oberen Mittelfeld platzieren. In den Bereichen Staat und Gesellschaft landete es an 11. Stelle, im Ausbildungsbereich auf dem 16. und in der betrieblichen Ausbildung auf dem 24. Platz. An der Spitze der Studie finden sich neben Schweden Kanada und die USA. Gerade hier sind die technologischen Voraussetzungen für den Einsatz von E-Learning gegeben. Zudem schnitten alle drei' Länder aufgrund ihres allgemein starken Ausbildungssystems, in dem, sie etwa lebenslanges Lernen unterstützen und sich durch ein hohes Ausbildungsniveau auszeichnen, beim Ranking besonders gut ab. Die Studie -legt den Schluss nahe, dass Europa und hier insbesondere die skandinavischen Länder sich im E-Learning-Bereich positiv entwickeln. Die südeuröpäischen Länder widmen sich dem Thema dagegen nur zögerlich und rangieren im europäischen Vergleich eher auf hinteren Plätzen. Aus dem asiatischen Raum haben sich vor allem Süd-Korea (Rang 5) und Singapur (Rang 6) gut aufgestellt.
    Bundesweite Förderprogramme und Landesinitiativen zur Verbreitung des computergestützten Lernens in der Aus- und Weiterbildung gaben den Ausschlag für eine Untersuchung des Einsatzes von E-Learning an deutschen Hochschulen. Durchgeführt wurde sie vom Institut für Medien- und Kompetenzforschung und dem Multimedia Kontor Hamburg. Gegründet wurde das Kontor von den staatlichen Hochschulen in Hamburg, die sich in einem gemeinsamen E-Learning-Consortium . zusammengeschlossen hallen. Das Kernergebnis der Studie, an der sich vor allem Hochschulen beteiligt haben, die diese neue Lernform tatsächlich einsetzen, lautet: E-LearnIng ist Bestandteil, aber nicht Alltag in der Hochschule. Danach setzt die Mehrheit von 86 der 95 befragten Hochschulen Computer in Lehrveranstal- tungen ein. Vor allem an großen und staatlichen Einrichtungen werden computergestützte Lernformen angeboten. Bei den Lernangeboten handelt es sich an 63 Hochschulen um Präsenzveranstaltungen mit Online-Unterstützung. Blended-Learning-Arrangements, also allgemein netzgestützte Angebote, und reine Online-Studiengänge werden nur an 40 beziehungsweise 22 Lehrstätten angeboten. Durchschnittlich setzen neun von zehn befragten Hochschulen aktuell E-Learning in ihren Lehrveranstaltungen ein. Ziel der Untersuchung war es auch, zu ermitteln, wie E-Learning-Angebote innerhalb verschiedener Studiengänge genutzt werden. Die Verfasser kommen zu dem Schluss, dass die Differenzierung der E-Learning-Angebote nach Fächergruppen deutliche Schwerpunkte erkennen lässt. So sind Disziplinen mit ausgeprägter Computeraffinität wie Informatik und Ingenieurwissenschaften neben Fächern mit hohen Studierendenzahlen wie etwa Wirtschafts- und Sozialwissenschaften klare Vorreiter in der neuen computergestützten Hochschullehre. Im Mittelfeld finden sich dagegen kreativ-gestalterische Studiengänge wie Kunst, Design und Mediengestaltung sowie Sprach- und Kulturwissenschaften, aber auch Natur- und Umweltwissenschaften. Für diese lässt sich vermuten, dass aufgrund ihres hohen Praxisanteils der Computer hier nur bedingt zum Einsatz kommen kann. Dass Rechtswissenschaften und Technikstudiengänge auf den hinteren Plätzen rangieren, kann kaum überraschen. Denn hier wird der Computer nur selten als LehrLern-Medium eingesetzt. Anders sieht es aus in den medizinisch-pharmazeutischen Disziplinen. Denn in der Medizinerausbildung und -praxis kommen Computer häufig zum Einsatz. Die niedrigen Einsatzzahlen müssen daher erstaunen. Neben der Ermittlung des Umfangs und der Verteilung auf unterschiedliche Studiengänge analysierten die Autoren die Akzeptanzwerte von E-Learning-Angeboten. Befragt wurden, Hochschulvertreter. Die waren selbst weniger im Hochschulbetrieb eingebunden, sondern bekleideten Leitungspositionen. Rund die Hälfte von ihnen denkt, dass Lehrende gegenüber dem Einsatz von E-Learning-Angeboten positiv eingestellt sind. Jeder Neunte glaubt hingegen an eine Befürwortung klassischer Präsenzveranstaltungen. Eine höhere Akzeptanz vermuten die Befragten dabei bei den Lehrenden von Fachhochschulen. Auch den Studierenden insgesamt werden höhere Akzeptanzwerte bescheinigt. Die Befragten schätzen dabei aber, dass nur bis zu fünf Prozent aller Studierenden gegenwärtig mit E-Learning arbeiten. Die Befragten geben ferner Auskunft darüber, wie sie die Lernergebnisse unter Einsatz neuer Techniken einschätzen. Nur ein Viertel schätzt dabei die Qualität von Prüfungsergebnissen beim E-Learning im Vergleich zu Präsenzveranstaltungen als besser ein. Jeder Zweite kann keinen Qualitätsunterschied ausmachen. Allerdings geht die Hälfte der befragten Hochschulmitarbeiter davon aus, dass die Nutzer den neuen Technologie bis 2007 bessere Eregbnisse in Tests erzielen werden. Entsprechend prognostizieren die Befragten einen Anstieg der studentischen E-Learning-Nutzer innerhalb der nächsten Jahre: Drei von vier Hochschulvertretern kommen zu dem Schluss, dass künftig mehr Studierende mit Hilfe des Computers lernen werden."

Years

Languages

Types

  • a 2596
  • m 405
  • s 132
  • el 107
  • x 34
  • r 18
  • i 13
  • b 9
  • ? 2
  • h 2
  • l 1
  • More… Less…

Themes

Subjects

Classifications