Search (555 results, page 1 of 28)

  • × theme_ss:"Internet"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Hehl, H.: Ein Linksystem zur Integration von Literatursuche und Literaturbeschaffung : Medline-LINK (2000) 0.06
    0.058316424 = product of:
      0.11663285 = sum of:
        0.07960926 = weight(_text_:einzelne in 4832) [ClassicSimilarity], result of:
          0.07960926 = score(doc=4832,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.3251446 = fieldWeight in 4832, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4832)
        0.02293328 = weight(_text_:der in 4832) [ClassicSimilarity], result of:
          0.02293328 = score(doc=4832,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.2467987 = fieldWeight in 4832, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4832)
        0.01409031 = product of:
          0.02818062 = sum of:
            0.02818062 = weight(_text_:22 in 4832) [ClassicSimilarity], result of:
              0.02818062 = score(doc=4832,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.19345059 = fieldWeight in 4832, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4832)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Die durch das WWW gegebenen Möglichkeiten, von den Suchergebnissen einer Datenbank über Hyperlinks auf elektronische Volltexte zuzugreifen, einzelne Titel online zu bestellen oder mit anderen Datenbanken oder Katalogen zu verknüpfen, werden mittlerweile von vielen Datenbankanbietern genutzt oder standardmässig angeboten. Das hier besprochene Linksystem weist dieselben Möglichkeiten auf und verbindet Suchergebnisse mit lokal verfügbaren elektronischen Zeitschriften bzw. mit Bibliotheks-Katalogen. Auch eine automatische Bestellfunktion ist vorhanden. Dieses auf Javascript basierende Linksystem verwendet ein einfaches, bisher aber noch wenig bekanntes Verfahren, bei dem jeweils die gesamte Ergebnisliste einer Datenbank (50 bis 200 Titel) in das Texteingabefeld eines Formulars eingefügt und dann weiter mit Javascript bearbeitet wird. Vorteilhaft ist die gross Anpassungsfähigkeit des Programms an die speziellen oder sogar individuellen Bedürfnisse. Medline-LINK wendet dieses Linkverfahren auf die besonders effiziente und zudem entgeltfreie Datenbank PubMed an. In dieser Testversion bilden die von der UB Regensburg abonnierten E-Zeitschriften zusätzlich eines großen Teils von elsevier-Zeitschriften den Grundbestand der zu verknüpfenden Zeitschriften. Über die dynamisch ermittelte ISSN kann die Verbindung von der Ergebnisanzeige zu den Bestandsanzeigen des BVB und GBV hergestellt werden. Die automatische Bestellfunktion wird am Beispiel des Fernleihbestellformulars der UB Regensburg demonstriert
    Date
    22. 6.2000 13:23:51
  2. Mayer, M.: Kontextvisualisierung : BrowsingIcons and BrowsingGraphs zur Verbesserung der Orientierung und Navigation im World Wide Web (2000) 0.05
    0.050768703 = product of:
      0.15230611 = sum of:
        0.112584494 = weight(_text_:einzelne in 6651) [ClassicSimilarity], result of:
          0.112584494 = score(doc=6651,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.4598239 = fieldWeight in 6651, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6651)
        0.03972161 = weight(_text_:der in 6651) [ClassicSimilarity], result of:
          0.03972161 = score(doc=6651,freq=24.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.42746788 = fieldWeight in 6651, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6651)
      0.33333334 = coord(2/6)
    
    Abstract
    Zunächst werden neun unterschiedliche Umgebungen bzw. Kontexte von Webseiten eingeführt. Jeder Kontext soll die Orientierung und Navigation bezüglich eines bestimmten Aspekts ermöglichen. Der Linkkontext einer bestimmten Webseite besteht beispielsweise aus den Webseiten und Links, die von dieser Seite aus über eine definierte Anzahl von Links erreichbar sind. Die Darstellung dieses Kontexts soll die Orientierung und Navigation unter dem Aspekt der Links, des assoziativen Umfelds dieser Seite verbessern. Die Aspekte, unter denen die Kontexte die WWW-Benutzung verbessern sollen, betreffen entweder die Struktur, die Benutzung oder den Inhalt der Webseiten. Damit die Kontexte die gewünschte Wirkung erzielen können, muß ein Benutzer sie wahrnehmen können. Dazu wird eine neue Visualisierungstechnik vorgestellt: das Verfahren der BrowsingIcons und BrowsingGraphs. Während der Navigation im WWW entstehen wiedererkennbare, visuelle Zeichen für einzelne Sessions (Benutzersitzungen). Man kann schnell erkennen, wo man sich gerade innerhalb des jeweiligen Kontexts befindet (Orientierung). Ferner kann man direkt über mehrere Links hinweg einzelne Webseiten ansteuern (Navigation). Frühere Sitzungen können an der charakteristischen Form der BrowsingIcons erkannt werden. Die Metapher biologischer Kulturen wird auf BrowsingGraphs übertragen. Durch "Impfen" von "Nährlösungen" können Suchanfragen intuitiv gestellt werden. Die Ergebnisse kann man später "ernten"
    Series
    Fortschritte in der Wissensorganisation; Bd.6
    Source
    Globalisierung und Wissensorganisation: Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999. Hrsg.: H.P. Ohly, G. Rahmstorf u. A. Sigel
  3. Zschunke, P.: "Mehr Informationen als die Stasi je hatte" : Soziale Netzwerke (2008) 0.05
    0.049622037 = product of:
      0.09924407 = sum of:
        0.047765557 = weight(_text_:einzelne in 1308) [ClassicSimilarity], result of:
          0.047765557 = score(doc=1308,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.19508676 = fieldWeight in 1308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1308)
        0.0395225 = weight(_text_:der in 1308) [ClassicSimilarity], result of:
          0.0395225 = score(doc=1308,freq=66.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.42532516 = fieldWeight in 1308, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1308)
        0.011956025 = product of:
          0.02391205 = sum of:
            0.02391205 = weight(_text_:22 in 1308) [ClassicSimilarity], result of:
              0.02391205 = score(doc=1308,freq=4.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.16414827 = fieldWeight in 1308, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1308)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    "Millionen von Internet-Nutzern drängen in soziale Netze wie StudiVZ und Facebook. Diese Online-Plattformen für die Vernetzung von persönlichen Web-Auftritten entwickeln sich zu einer neuen Art von Massenmedium, wie der Digitale-Medien-Experte Hendrik Speck sagt. Völlig offen sei aber bislang die Frage nach der gesellschaftlichen Verantwortung der "Social Networks". "Die haben mehr Informationen, als die Stasi je hatte", sagt der Informatik-Professor der Fachhochschule Kaiserslautern im Gespräch mit der Nachrichtenagentur AP. Bei den drei Plattformen Facebook, MySpace und Xing hat Speck insgesamt 120 persönliche Attribute gezählt, die auf den persönlichen Seiten der Mitglieder angegeben werden können - angefangen bei Alter und Wohnort über Lieblingsfilme und -musik bis hin zu politischer Neigung und sexueller Ausrichtung. "Wir sehen da einen völlig irrationalen Zugang zu den eigenen Daten", kritisiert der Social-Networks-Forscher. Was aber treibt die Internet-Nutzer zu dieser Art von "digitalem Exhibitionismus"? Speck und seine Studenten haben die Kommunikation in den Netzen mit Hilfe von Software-Agenten und "Crawlern" zu erfassen versucht - das sind Programme, die auf die Seiten dieser Communities vordringen und die Inhalte auswerten. "Wir stellen fest, dass da unheimlich viel offen liegt", sagt Speck. Suche nach Anerkennung und Aufmerksamkeit Als wichtige Antriebskraft hat der Wissenschaftler das Motiv ausgemacht, über den stetig wachsenden Kreis von registrierten "Freunden" Anerkennung und Aufmerksamkeit zu erringen. Bei MySpace oder im SchülerVZ kann sich jeder auf eine Weise präsentieren, wie es in den klassischen Medien kaum möglich ist. Und weil die persönlichen Profile mit wenigen Mausklicks schnell erstellt sind, ist die Eintrittsschwelle sehr viel geringer als bei den Netz-Communities der ersten Stunde, etwa der schon 1985 gegründeten virtuellen Gemeinschaft "The WELL".
    Bislang sind es meist Jugendliche und junge Erwachsene bis etwa 35, die die Mehrheit der Community-Mitglieder ausmachen. Es gebe aber Bestrebungen, die Altersgruppe nach oben zu erweitern, sagt Speck. Die soziale Interaktion in den Social Networks kreist nach seinen Erkenntnissen immer wieder um die gleichen Dinge: 1) Unterhaltung - von Musik bis zu Stars und Sternchen 2) die gesellschaftlich geteilte Schadenfreude nach dem Motto "Pleiten, Pech und Pannen" 3) Flirten und sexuelle Beziehungen. Dabei kommen Männer direkter auf den Punkt als Frauen, die dies hinter anderen Interessen verstecken. Auf der anderen Seite stehen die Betreiber der Netze. Diese erzielen mit der Bereitstellung der Plattform zwar bislang meist noch keine Gewinne, haben aber wegen der gigantischen Zuwachsraten das Interesse von Internet- und Medienunternehmen geweckt, die wie Microsoft oder die Verlagsgruppe Holtzbrinck in Social Networks investieren. Der einzelne Nutzer ist 20 bis 22 Dollar wert Da die Technik der Webseiten nicht besonders aufwendig sei, liege der eigentliche Reichtum in den Nutzern und ihren Daten, erklärt Speck. Bei den großen Plattformen in den USA lasse sich aus den getätigten Investitionen für die Social Networks der Wert eines einzelnen Nutzers auf einen Betrag von 20 bis 22 Dollar (14 bis 15 Euro) schätzen. Der Gegenwert, den die Nutzer liefern sollen, wird vor allem in der Werbung gesehen. Neben der klassischen Bannerwerbung auf den eigenen Seiten versuchen die Betreiber der sozialen Netzwerke nach Darstellung Specks, in andere Dienste wie SMS-Werbung oder E-Mail vorzudringen. Um die Werbe-Zielgruppen immer feiner zu erfassen, werde auch untersucht, wer mit welchem Profil mit wem kommuniziere. "Je tiefer die Vernetzung, desto dichter werden die Informationen", erklärt Speck.
    Der Wissenschaftler kritisiert, dass die Daten so behandelt würden, als gehörten sie nicht dem Nutzer, sondern den sozialen Netzwerken. Selbst wenn es die Möglichkeit gebe, einen Account zu löschen, blieben die Daten vielfach weiter bestehen. Und über die beliebten Mini-Anwendungen zur Integration in die eigene Profilseite erhielten auch die Entwickler dieser Applikationen einen Zugang zu den persönlichen Daten. "Da weiß man dann gar nicht, wer dahinter steckt." Weder "open" noch "social" Google hat Anfang November vergangenen Jahres unter der Bezeichung OpenSocial eine Initiative gestartet, um solche Anwendungen und Schnittstellen nach einheitlichen Standards programmieren zu können. Das Projekt sei aber weder "open" noch "social", weil nicht vorgesehen sei, den Nutzern eine transparente Kontrolle über ihre eigenen Daten zu geben, bemängelt der FH-Professor. Das Projekt bemühe sich um die "Datenportabilität" zwischen den kommerziellen Projektpartnern und unterstütze die Interaktionen zwischen einzelnen Communities, versage jedoch komplett bei der Interessenswahrnehmung der Nutzer in Hinblick auf informationelle Selbstbestimmung und einem verbesserten Schutz der Privatssphäre. Um die zahlreichen offenen Fragen nach der Verantwortung für die Millionen von persönlichen Daten zu klären, schlägt Speck einen Verhaltenskodex für soziale Netzwerke vor. Für die gemeinsame Entwicklung von ethischen Grundsätzen will er neben Datenschützern auch die Betreiber der Communities gewinnen und hofft, schon in wenigen Monaten eine entsprechende Initiative vorstellen zu können. http://www.hendrikspeck.com"
  4. Glotz, P.: ¬Das World Wide Web hat alles verändert : Professor Peter Glotz über das Internet, Cybersex und den digitalen Kapitalismus (2003) 0.04
    0.041432906 = product of:
      0.08286581 = sum of:
        0.047765557 = weight(_text_:einzelne in 1520) [ClassicSimilarity], result of:
          0.047765557 = score(doc=1520,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.19508676 = fieldWeight in 1520, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1520)
        0.026646066 = weight(_text_:der in 1520) [ClassicSimilarity], result of:
          0.026646066 = score(doc=1520,freq=30.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.2867542 = fieldWeight in 1520, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1520)
        0.008454186 = product of:
          0.016908372 = sum of:
            0.016908372 = weight(_text_:22 in 1520) [ClassicSimilarity], result of:
              0.016908372 = score(doc=1520,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.116070345 = fieldWeight in 1520, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1520)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Vor gerade einmal 10 Jahren, am 30.4.1993, wurde die am Kernforschungszentrum CERN in Genf entwickelte WWW-Software der Öffentlichkeit zugänglich gemacht, unbeschränkt und kostenlos: Auftakt zu einer Technik-Revolution, die inzwischen kaum einen Lebensbereich unberührt lässt
    Content
    "Frage: Herr Glotz, wissen Sie noch, wann Sie das erste Mal online gegangen sind? Glotz: Das war erst 1996 oder 1997. Ich bin eher ein Spätzünder in solchen Dingen. Frage: An welchem Punkt haben Sie erstmals gedacht, dass sich mit dem World Wide Web Politik, Wirtschaft und Gesellschaft fundamental verändern werden? Glotz. Etwa um diese Zeit, Mitte der 90er Jahre. Man hat ja sehr schnell gesehen, welch große Wirkung das auf die Finanzmärkte hat. Frage: Nun bleibt kaum ein Lebensbereich bis hin zur Freizeitgestaltung und menschlichen Beziehungen, Stichwort: Cybersex, unberührt. Was halten Sie für die herausragende Änderung, die das WWW bewirkt hat? Glotz: Mit Sicherheit die Wirkung, die die Vernetzung von. Hunderttausenden von Computern auf die Wirtschaft hat: also Globalisierung und Deregulierung. Ich nenne das, was wir heute hanen, deshalb nicht mehr Industrie-Kapitalismus, sondern digitalen Kapitalismus. Frage: Sehen Sie die Gefahr einer Zweiteilung der Welt in diejenigen, die einen Zugang zum WWW haben und jene, die davon ausgeschlossen bleiben? Glotz: Das ist der berühmte "digital divide". Den gibt es natürlich. Innerhalb eines Landes wie international. Man, muss nur sehen: Das hat es am Anfang neuer Kommunikations-Technologien immer gegeben. Als Gutenberg die Drucktechnik erfunden hat gab es Millionen Menschen, die nicht lesen konnten. Das hat sich dann mit den Jahrhunderten entwickelt - das wird diesmal schneller gehen. Frage: Die Geburt neuer Medien ist immer schon von Warnern begleitet worden: Der Roman im 18. Jahrhundert, das Fernsehen im 20. - immer fürchten die Mahner eine Verdummung und Ablenkung vom Wesentlichen. Glotz: Das.ist Unsinn. Das entspringt einer kulturkritischen Grundhaltung. Aber Gottseidank haben wir die Zeiten hinter uns, da alle Studenten hysterisch mit dem Kapitel "Kulturindustrie" aus der "Dialektik der Aufklärung" von Adorno und Horkheimer herumgelaufen sind. Natürlich gibt es Menschen, die acht Stunden am Tag vorm Computer sitzen und spielen. Da kann man sagen, das ist abnorm - aber Pathologie gibt es immer und überall. Für die normale Gesellschaft ist das Internet ein sinnvolles und hilfreiches Kommunikationsmittel neben anderen. Frage: Sehen Sie die immer wieder beschworene Gefahr einer Verwechslung von Medium und Realität? Glotz: Das sind auch so Thesen von Baudrillard und Virilio und anderen Daten-Dichtern. Natürlich gibt es heutzutage die Möglichkeit, etwa Fotografien viel leichter und perfekter zu manipulieren. Dasselbe gilt für Filme und Videos und Tonbandaufnahmen zum Beispiel von Osama bin Laden, die Geheimdienste viel leichter fälschen können und das ja auch tun. Aber die Idee, dass alle Leute Wirklichkeit und Schein-Wirklichkeit nicht mehr unterscheiden können, ist schlechtes Feuilleton. Frage: Auf der anderen Seite gab und gibt es die Fraktion der Propheten, die sich vom Internet freien Zugang zu Informationen und mehr Demokratie erhoffen. Der Erfinder des WWW, Tim Berners-Lee, wirbt nach wie vor für die Idee, das Internet könne helfen, Frieden zu schaffen...
    Glotz: Das ist in begrenztem Maß ja durchaus richtig: Denken Sie an die Studenten in Belgrad, die ihre Demonstrationen, die der gerade er mordete Zoran Djindjic organisiert hat, blitzschnell in die ganze Welt transportiert haben, während die Demonstration der Charta 77 noch mühsam von einer Telefonzelle am Prager Wenzelsplatz an Radio Free Europe übermittelt werden musste. Nur: Die Vorstellung, dass die Hausfrau morgens ins Internet geht, sich über die neueste Rede von US-Präsident George Bush informiert und anschließend an irgendeiner Volksabstimmung teilnimmt, ist Quatsch. Frage: Werfen wir einen Blick in die Zukunft: Wie werden sich nach Ihrem Dafürhalten das Internet und die Welt durch das Internet künftig entwickeln? Glotz: Das Internet ist eine Plattform, auf der sich gleichzeitig vieles abspielt: das WWW, das Usenet, Email-Verkehr. Die Zahl dieser Funktionen wird sich weiter vergrößern. Aber der entscheidende Effekt dieses Kommunikationsmittels ist eine rasch voranschreitende Internationalisierung. Sie sind eben mit einem Tipp Ihres Fingers von Köln aus in Los Angeles und können mit einem zweiten Tipp Hunderte Kopien Ihrer Äußerungen in die Welt hinausschicken. Die These, der einzelne Mensch werde deshalb bald so mächtig sein wie die FAZ oder Microsoft ist natürlich Unsinn - aber dass das langfristig Emanzipationswirkungen hat, daran habe ich keinen Zweifel."
    Date
    3. 5.1997 8:44:22
  5. Sixtus, M.: ¬Das Gemeinschaftsnetz : Im Wiki-Web können alle Surfer Seiten umschreiben und hinzufügen - so entstehen ganze Enzyklopädien (2003) 0.04
    0.040981144 = product of:
      0.08196229 = sum of:
        0.047765557 = weight(_text_:einzelne in 1739) [ClassicSimilarity], result of:
          0.047765557 = score(doc=1739,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.19508676 = fieldWeight in 1739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
        0.025742542 = weight(_text_:der in 1739) [ClassicSimilarity], result of:
          0.025742542 = score(doc=1739,freq=28.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27703083 = fieldWeight in 1739, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
        0.008454186 = product of:
          0.016908372 = sum of:
            0.016908372 = weight(_text_:22 in 1739) [ClassicSimilarity], result of:
              0.016908372 = score(doc=1739,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.116070345 = fieldWeight in 1739, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1739)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    "Wissen ist in. Allerorten wird es zum Rohstoffdes 21. Jahrhunderts ausgerufen. Doch je mehr man weiß, desto wichtiger ist es, die Informationen professionell zu verwalten, zu organisieren und zu pflegen. Manche Unternehmen bauen dazu teure, komplexe Knowledge-Management-Systeme ins Firmennetz ein. Doch das Wissensmanagement geht einfacher - mit Wikis. Ein Wiki ist eine Sammlung dynamischer Webseiten, die über Verweise verbunden sind und alle über eine Besonderheit verfügen: Ganz unten fordert ein Button alle Surfer dazu auf, die aktuelle Seite zu verändern. Prinzipiell kann jeder jede Seite ändern, ergänzen, verbessern oder sogar löschen. Rechte-Hierarchien existieren schlicht nicht. Jeder User ist gleichzeitig Leser, Lektor, Redakteur und Autor. Seiten anlegen und verlinken geschieht in einem Arbeitsgang. Einige rudimentäre Möglichkeiten zur Textformatierung und zur Einbindung von Grafiken sowie eine Volltextsuche runden den bescheidenen Funktionsumfang eines Standard-Wikis ab - und machen es verblüffenderweise doch zu einem mächtigen Werkzeug. Geübte User erzeugen mit dem virtuellen Zettelkasten in Windeseile Strukturen, die Hunderte oder Tausende von Einzelseiten umfassen. Die Einsatzmöglichkeiten sind vielfältig: Wikis fungieren als Wissensspeicher, als Basis für gemeinsame Projektdokumentationen, als Materialanforderungsformular oder als Brainstorminghilfe in Kreativberufen. Und selbst bei der Planung von Betriebsfeiern oder als Datenbank für Kochrezepte sollen sie schon zum Einsatz kommen. Wenn jeder Nutzer jedes einzelne Dokument ändern oder löschen kann, herrscht dann nicht das Chaos? Was passiert, wenn Fehler sich einschleichen oder wichtige Passagen verschwinden? Dagegen sind die Wikis gewappnet: Mit der HistoryFunktion und über Differenzberechnungen lässt sich überblicken, wer wann was geändert hat. Bei Bedarf lassen sich alle Anderungen rückgängig machen. Jeder historische Zustand ist so mit wenigen Mausklicks wiederhergestellt. Seit 1999 setzen Teams des Mobilfunkherstellers Motorola auf Wikis als Werkzeuge für das kollaborative Arbeiten, die Lufthansa verwendet sie zur Verwaltung technischer Dokumentationen, und die Konzerne SAP und Disney experimentieren mit den wenigen hundert Kilobyte kleinen Systemen in ihren Firmennetzen. Das erste Wiki hat der Software-Entwickler Ward Cunningham im Jahr 1995 unter der Adresse c2.com/cgi/wiki ins Netz gestellt - und dort steht es heute noch. Der Begriff "Wiki" ist das hawaiianische Wort für "schnell", und genau darum ging es Cunningham: flottes, unkompliziertes Arbeiten, ohne von einem unübersichtlichen Funktionsumfang gebremst zu werden. Mittlerweile existieren etliche Klons und Weiterentwicklungen des UrWikis, in mehreren Programmiersprachen und für fast alle Computerplattformen. Die meisten stehen gratis und unter der Open-Source-Lizenz im Netz.
    Die Idee des editierbaren Internets geht zurück auf den Erfinder des World Wide Web, Tim Berners-Lee, der in seinem Buch Weaving the Web die Grundideen der Wiki-Philosophie aussprach: "Das Web editieren zu können ist genauso wichtig, wie durch es zu browsen." Aber haben Sites, an denen jeder zufällig Vorbeisurfende herumdoktern kann, überhaupt eine Überlebenschance? Wer schon einmal beobachtet hat, wie schnell offene Systeme wie Gästebücher oder Foren im Chaos versinken können, mag berechtigte Zweifel anmelden. Erstaunlicherweise funktionieren offene Wikis aber hervorragend. Beispielsweise Wikipedia: Das seit 2001 laufende Enzyklopädie-Projekt umfasst in der englischsprachigen Variante mehr als 144 000 Artikel. Das Mammutvorhaben, das Wissen der Welt in einem Wiki festzuhalten, wird nicht von einer Hand voll Autoren und Redakteuren angegangen. Vielmehr kann jeder Surfer sein persönliches Know-how dazu beisteuern. Dank der globalen Teamarbeit haben die Wikipedia-Artikel eine beachtliche Qualität erreicht - und können sich bisweilen durchaus mit professionellen und kostspieligen Nachschlagewerken messen. Der Journalist und Bestseller-Autor Sheldon Rampton verfolgt mit seinem Wiki-Projekt Disinfopedia.org speziellere Ziele: Die Enzyklopädie der Propaganda soll dokumentieren, wie PR-Unternehmen, Lobbyisten und Thinktanks die öffentliche Meinung in den USA mit Hilfe von fragwürdigen wissenschaftlichen Studien, fingierten Graswurzelbewegungen oder schlichter Verbreitung von Falschinformationen beeinflussen. Auch Disinfopedia wächst und gedeiht unter Mitarbeit der Netzbewohner, und obwohl man annehmen müsste, dass gerade ein solches politisches Projekt besonders unter Störern und Angreifern leidet, hat sich die Wiki-Technologie bisher als resistent erwiesen. Wer sich mit dem Thema Wissensmanagement beschäftigt, sollte auf jeden Fall ernsthaft prüfen, ob die kleine Wiki-Teeküche für seine Belange ausreicht. Und für manche Netzphilosophen sind die erfolgreichen Experimente mit den offenen Websites dann auch mehr als nur ein gelungenes Beispiel für gemeinschaftliches Arbeiten: Sie seien auch Beweis dafür, dass die menschliche Konstruktivität größer ist als ihre zerstörerischen Kräfte. Ein digitaler Hoffnungsschimmer."
    Date
    17. 7.1996 9:33:22
  6. Schulte, B.: Zielgruppen für barrierefreies Internet (2005) 0.04
    0.03833022 = product of:
      0.11499065 = sum of:
        0.09553111 = weight(_text_:einzelne in 4828) [ClassicSimilarity], result of:
          0.09553111 = score(doc=4828,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.39017352 = fieldWeight in 4828, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=4828)
        0.019459534 = weight(_text_:der in 4828) [ClassicSimilarity], result of:
          0.019459534 = score(doc=4828,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.20941564 = fieldWeight in 4828, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4828)
      0.33333334 = coord(2/6)
    
    Abstract
    Die barrierefreie Gestaltung von Internet-Anwendungen hat durch das Behindertengleichstellungsgesetz starken Aufwind erhalten. Sie kann allerdings nur dann gelingen, wenn von dem Versuch der Klassifizierung des typischen Nutzers, mit oder ohne Behinderungen, Abschied genommen wird und stattdessen Nutzerinnen und Nutzer mit ihren vielfältigen Fähigkeiten und Eigenschaften in dieModellierung des Nutzerbildes einfließen. Der Beitrag möchte deshalb die Schwierigkeiten, die durch einzelne Behinderungen auftreten können, aufzeigen. Gleichzeitig soll im Sinne eines universellen Designs für einen Perspektivwechsel geworben werden: Nicht nurMenschen mit Behinderungen, sondern die gesamte Nutzergruppe mit ihrer Inhomogenität ist die Zielgruppe, die durch eine barrierefreie Gestaltung leichter erreicht werden kann. Vor diesem Hintergrund ist es zu verschmerzen, dass es bisher keine repräsentativen Erhebungen gibt die die Internetnutzung von Menschen mit Behinderungen umfassend untersucht oder die sich auf dieHindernisse, auf die Menschen mit Umgang mit dem Internet stoßen, konzentrieren.
  7. Schmidt, J.: Online-Forschung : Wissen über das Netz (2005) 0.04
    0.037347272 = product of:
      0.112041816 = sum of:
        0.07960926 = weight(_text_:einzelne in 3522) [ClassicSimilarity], result of:
          0.07960926 = score(doc=3522,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.3251446 = fieldWeight in 3522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3522)
        0.032432556 = weight(_text_:der in 3522) [ClassicSimilarity], result of:
          0.032432556 = score(doc=3522,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 3522, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3522)
      0.33333334 = coord(2/6)
    
    Abstract
    Parallel zur Verbreitung und Institutionalisierung des Internet hat sich die sozialwissenschaftliche Online-Forschung etabliert. Sie erzeugt in zweifacher Hinsicht »Wissen über das Netz«: Beim »Forschen mit dem Netz« nutzt sie das Medium als Instrument der Datenerhebung, beim »Forschen im Netz« betrachtet sie die Vielzahl sozialer Formen, die das Internet hervorbringt. Prominentes Beispiel für das »Forschen mit dem Netz« ist die regelmäßig durchgeführte Umfrage »Perspektive Deutschland«, bei der Bürger ihre Meinung zu aktuellen gesellschaftlichen Entwicklungen online abgeben können. Der Vorteil: Über das Internet kann schnell und vergleichsweise kostengünstig eine sehr große Anzahl von Antworten erhoben werden - die etwa 450.000 Teilnehmer bei der Umfrage von 2003 wären mit herkömmlichen schriftlichen oder telefonischen Untersuchungen nicht zu erreichen gewesen. In diesem Beitrag soll es jedoch weniger um die Diskussion gehen, welche Vor- und Nachteile das Internet als Instrument der Datenerhebung aufweist. Vielmehr werden anhand von drei Leitfragen Aspekte beleuchtet, die Online-Forschung als Mechanismus kennzeichnen, um Wissen über das Netz zu generieren: »Was wissen wir?« fragt nach, wie sich die Online-Forschung in den vergangenen Jahren entwickelt hat. - »Was können wir wissen?« zeigt die Pole auf, zwischen denen sich die Online-Forschung bewegt. - »Was wollen wir wissen?« stellt Fragen vor, die in Zukunft von der Online-Forschung bearbeitet werden sollten. Den Antworten liegt die Überlegung zu Grunde, dass die Differenzierung der Online-Forschung zu einer Fragmentierung von Wissen zu führen droht, wenn sich die Analysen auf einzelne Aspekte der Internet-Nutzung beschränken und den (Wechsel-)Wirkungen zwischen Nutzer, Technologie und sozialem Kontext nicht gerecht werden.
  8. Herb, U.: Wege zur psychologischen Fachinformation : Eine Bilanz aus der Virtuellen Fachbibliothek Psychologie (2002) 0.04
    0.035083152 = product of:
      0.10524945 = sum of:
        0.07960926 = weight(_text_:einzelne in 1177) [ClassicSimilarity], result of:
          0.07960926 = score(doc=1177,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.3251446 = fieldWeight in 1177, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1177)
        0.025640188 = weight(_text_:der in 1177) [ClassicSimilarity], result of:
          0.025640188 = score(doc=1177,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27592933 = fieldWeight in 1177, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1177)
      0.33333334 = coord(2/6)
    
    Abstract
    1998 regte die Deutsche Forschungsgesellschaft (DFG) im zweiten Teil des Memorandums zur "Weiterentwicklung der überregionalen Literaturversorgung" die Bildung Virtueller Fachbibliotheken an. So entstand für die Sondersammelgebietsbibliotheken "die Verpflichtung, zusätzlich zu den umfassend erworbenen Medien, wie Büchern und Mikroformen, auch (...) elektronische Informationen zu erschließen und den Benutzern in geeigneter Form zur Verfügung zu stellen." Da die Saarländische Universitäts- und Landesbibliothek (SULB) seit 1966 das Sondersammelgebiet (SSG) Psychologie betreut, ergab sich für sie die Chance, im Rahmen des Förderkonzeptes der DFG die Virtuelle Fachbibliothek Psychologie einzurichten. Die DFG fördert eine Reihe Virtueller Fachbibliotheken, die unter dem gemeinsamen Dach VIFANET zusammengeschlossen sind. Die klassischen Aufgaben des SSG, Sammlung und Erschließung wissenschaftlicher Literatur, wurden ergänzt durch die Einbeziehung von elektronischen Dokumenten. Dieses Vorhaben wurde am SSG Psychologie zum 1. Oktober 1998 in Angriff genommen. Am 31. August 2002 endete die Förderung des Projektes durch die DFG: Grund genug, im Rahmen der Artikelreihe des BIBLIOTHEKSDIENST über die Virtuellen Fachbibliotheken Bilanz zu ziehen. Dabei werden zunächst die Zielsetzungen des Projektes rekapituliert und seine Entwicklung skizziert. Vor allem sollen einzelne Arbeitsschritte und Methoden transparent gemacht werden, mit denen die Angebote der Virtuellen Fachbibliothek Psychologie entwickelt wurden. Nach einem Fazit wird schließlich ein Ausblick auf mögliche und nötige Weiterentwicklungen gegeben.
  9. Klaus, H.: ¬Das Internet als Recherchemethode im Medizin-Journalismus : Meinung und Akzeptanz der Wissenschaftsjournalisten (2000) 0.03
    0.034903906 = product of:
      0.10471171 = sum of:
        0.06368741 = weight(_text_:einzelne in 5523) [ClassicSimilarity], result of:
          0.06368741 = score(doc=5523,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 5523, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.0410243 = weight(_text_:der in 5523) [ClassicSimilarity], result of:
          0.0410243 = score(doc=5523,freq=40.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44148692 = fieldWeight in 5523, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
      0.33333334 = coord(2/6)
    
    Abstract
    "Medizin läuft immer", so der Titel eines Aufsatzes von Jochen Aumiller und dies in zweierlei Hinsicht. Zum einen erfreuen sich Beiträge zu den Themenbereichen Gesundheit und Medizin großer Beachtung bei den Rezipienten. Dies ist dadurch zu erklären, dass jeder Einzelne faktisch jederzeit betroffen sein kann. Zum Anderen gehen Themen in der Medizin nie aus. Egal wohin man schaut, ob in Tageszeitungen, Zeitschriften, Hörfunk oder Fernsehen, überall spielt die Medizin bei der Berichterstattung eine Rolle und ist in vielen Facetten präsent: egal ob Berichte über die Gesundheitsreform, ein Interview mit der Gesundheitsministerin, Aufdeckung von Dopingskandalen, die Erforschung und Entdeckung neuer Therapieformen, Krankheiten oder Krankheitserreger, alternative Behandlungsformen, Aufklärung über die Wirkung und Nebenwirkungen von Medikamenten, Tipps für die Gesundheit, Kranken- und Pflegeversicherung oder gar Krankheiten, von denen prominente Persönlichkeiten betroffen sind. Die Beispiele zeigen, dass die Thematisierung von Medizin und Gesundheit in den Medien in verschiedenen Formen und mit unterschiedlichen Intentionen stattfindet. Medizinische Themen belegen eine Spitzenposition auf der Beliebtheitsskala der Leser, daher finden sich Beiträge und Artikel der Journalisten zu Themen aus der Medizin und dem Gesundheitswesen nicht nur in Tages- und Wochenzeitungen, Nachrichtenmagazinen und Zeitschriften aller Art, sondern auch in den audiovisuellen Medien und nicht zuletzt im Internet wieder. Der Leser oder der Zuschauer kann aus einer großen Palette an Endprodukten der Wissenschaftsjournalisten wählen. Ein paar Beispiele: Pollen, Milben und Co. Allergisch? Das hilft! (Frauenzeitschrift Brigitte) - Abhilfe bei niedrigem Blutdruck (Fit for Fun) - Die schlaflose Gesellschaft, unser riskantes Leben gegen die Uhr (GEO) - Gesundheit! Thema: Heilende Viren (ZDF) - Die Sprechstunde: Neues aus der Krebsforschung (Bayerisches Fernsehen) - ARD Buffet: Der Teledoktor (ARD) Galileo (Pro 7)
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  10. Burblies, C; Pianos, T.: National, regional, lokal : Workshop in Der Deutschen Bibliothek (2003) 0.03
    0.03486685 = product of:
      0.10460055 = sum of:
        0.0675507 = weight(_text_:einzelne in 1801) [ClassicSimilarity], result of:
          0.0675507 = score(doc=1801,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.27589434 = fieldWeight in 1801, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1801)
        0.03704985 = weight(_text_:der in 1801) [ClassicSimilarity], result of:
          0.03704985 = score(doc=1801,freq=58.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3987155 = fieldWeight in 1801, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1801)
      0.33333334 = coord(2/6)
    
    Content
    "Anfang März fand in Der Deutschen Bibliothek in Frankfurt a.M. ein Workshop der nationalen Projekte im Bereich Digitale Bibliothek sowie der regionalen bzw. lokalen Projekte statt. Zunächst wurde vascoda, das gemeinsam von BMBF und DFG geförderte Portal, vorgestellt. Derzeit arbeiten die Virtuellen Fachbibliotheken, die Informationsverbünde und die Elektronische Zeitschriftenbibliothek (EZB) an der Realisierung von vascoda, einem zentralen Portal, das auf der IFLA in Berlin im August 2003 vorgestellt werden soll. Es wurde der momentane Stand der Entwicklung präsentiert und die Möglichkeiten der Kooperation aufgezeigt. Ferner stellten die Bibliotheksverbünde und jeweils eine Bibliothek jedes Verbundes sowie die Zeitschriftendatenbank (ZDB), Die Deutsche Bibliothek (DDB) und die Deutsche Internetbibliothek (DBV mit Bertelsmann Stiftung) ihre Tätigkeit in Hinblick auf eine digitale Bibliothek vor. Der Workshop war gemeinsam organisiert vom Deutschen Bibliotheksverband (DBV) für die regionalen Verbünde, Repräsentanten der Bibliotheken, Der Deutschen Bibliothek und ZDB einerseits sowie von der Koordinierungsstelle von vascoda für die Informationsverbünde und Virtuellen Fachbibliotheken andererseits. Er war als Informationsveranstaltung konzipiert, sollte also als Einstiegsveranstaltung für eine intensive Zusammenarbeit aller Beteiligten dienen. So sollte insbesondere der Austausch über die Aktivitäten aller Beteiligten im Hinblick auf laufende Projekte zur Informationsvermittlung im Zeitalter des Internet im Mittelpunkt stehen. Zu diesem Zweck wurde vascoda - in einem Überblicksvortrag und in Einzelvorträgen über die Tätigkeiten in einzelnen Arbeitsgruppen und Fachgebieten - vorgestellt. Die Sprecherinnen der Arbeitsgruppen erläuterten die Zielsetzungen und bereits zu verzeichnenden Erfolge in den Bereichen Content und Technik. In Überblicksvorträgen und kurzen Statements wurden die Angebote der Einzelprojekte in den Fachbereichen Geisteswissenschaften und Regionen, Ingenieur- und Naturwissenschaften, Wirtschaftswissenschaften, Sozialwissenschaften / Psychologie und im Bereich Medizin vorgestellt. Außerdem wurde erläutert, wie die EZB ihre Angebote in das gemeinsame Portal einbringen wird bzw. welche Erweiterungen es geben wird. Die Bibliotheksverbünde und die ZDB erläuterten jeweils ihre eigenen Vorhaben und bekundeten Interesse an einer Zusammenarbeit mit vascoda. Eine vollständige Übersicht über die gehaltenen Vorträge und die dazugehörigen Folien sind unter der folgenden Adresse abgelegt: http://www.dlforum.de/foren/vascoda/index.html. Insgesamt besteht bei den nationalen Projekten weiterhin ein großer Abstimmungsbedarf auch im Hinblick auf eine strategische Neuausrichtung nach der Vereinigung der durch BMBF und DFG geförderten Projekte. Vor allem in den Bereichen Contentakquise, Metadaten und Technik muss es weitere Absprachen und Vereinheitlichungen geben. Das durch das gemeinsame Angebot abgedeckte Fächerspektrum muss in Zukunft kontinuierlich erweitert werden. In allen Bibliotheksverbünden wird derzeit an Projekten im Bereich digitale Bibliothek gearbeitet, die meist auf eine lokale oder regionale Portallösung ausgerichtet sind. Bei dem Gemeinschaftsprojekt Verteilter Zeitschriftenserver (VZS) wird an einer überregionalen Lösung gearbeitet. Besonders in diesem Fall ist eine enge Abstimmung mit vascoda anzustreben. In allen Beiträgen wurde deutlich, dass die Bereitschaft und der Wille zur Kooperation vorhanden ist. Die Bereiche einer möglichen Zusammenarbeit und die Details werden in weiteren Sitzungen einzelner Beteiligter zu besprechen sein. Die organisatorische Struktur der Kooperation ist noch nicht absehbar. Vorschläge dazu werden in einem Gespräch von vascoda, der AG Verbundsysteme und des DBV erarbeitet werden. Insgesamt geht es darum, ein Kompetenznetzwerk zu organisieren und eine arbeitsteilige Struktur umzusetzen.
    Zu klären sind neben der Verfügbarkeitsrecherche und Fernleih- bzw. Dokumentlieferkomponente auch Fragen der Einkaufspolitik und der Lizenzpolitik. Es gilt eine Strategie zu finden, die die Relationen von kostenpflichtig vs. kostenlos beachtet aber auch die Eigenproduktion von Hochschulen berücksichtigt. Vascoda ist kein geschlossenes System und prinzipiell für weitere Partner offen. Die fachliche Modularisierung wird als sehr wichtig hervorgehoben. Man kann weder grundsätzlich von einem lokalen noch grundsätzlich von einem zentralen Einstieg ausgehen. Vielmehr werden die Nutzerinnen und Nutzer auf verschiedene Weise die Angebote von vascoda und der anderen Partner nutzen. Die Strukturen sollen nicht zentral sondern arbeitsteilig angelegt sein, so dass einzelne Institutionen einzelne Aufgaben erfüllen. Bei überregional zu lösenden Aufgaben soll der fachliche Ansatz im Mittelpunkt stehen. Vascoda soll prinzipiell in alle lokalen digitalen Bibliotheken integrierbar sein. Gleichzeitig müssen alle Nachweisinstrumente, die in Deutschland zur Verfügung stehen, für vascoda nutzbar sein. Abschließend ist festzuhalten, dass es weiterhin lokale Bibliotheksportale geben wird. Darüber hinaus wird es allerdings - gerade für die Bedienung des Spitzenbedarfs - auch ein nationales Portal geben. Der Workshop kann als Beginn einer deutlichen Verbesserung der Dienstleistungen für die Nutzerinnen und Nutzer gesehen werden."
  11. Hutzler, E.; Scheuplein, M.: Elektronische Zeitschriftenbibliothek : Neue Dienste im Rahmen von vascoda (2004) 0.03
    0.033836648 = product of:
      0.10150994 = sum of:
        0.06368741 = weight(_text_:einzelne in 2985) [ClassicSimilarity], result of:
          0.06368741 = score(doc=2985,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 2985, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2985)
        0.037822533 = weight(_text_:der in 2985) [ClassicSimilarity], result of:
          0.037822533 = score(doc=2985,freq=34.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.40703082 = fieldWeight in 2985, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2985)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Elektronische Zeitschriftenbibliothek (EZB) ist Partner von vascoda, einem vom Bundesministerium für Bildung und Forschung und der Deutschen Forschungsgemeinschaft geförderten Kooperationsprojekt zum Aufbau eines interdisziplinären Internetportals für wissenschaftliche Information in Deutschland. An diesem Gemeinschaftsunternehmen sind über 40 wissenschaftlichen Bibliotheken und Informationseinrichtungen beteiligt. Das gemeinsame Portal vascoda (www.vascoda.de) bietet einen zentralen Zugang zu den verschiedenen Diensten der Partner. Zu nennen sind hier etwa die Informationsdienste bzw. Fachportale der Virtuellen Fachbibliotheken oder der Informationsverbünde. Als ein im akademischen Bereich fest etabliertes Nutzungs- und Zugangssystem für elektronische Zeitschriften, das derzeit in 283 Bibliotheken bzw. Forschungseinrichtungen eingesetzt wird, erfüllt die EZB in vascoda zentrale Querschnittsaufgaben. Sie ist sowohl in das gemeinsame Portal als auch in einzelne Fachportale eingebunden. Eine besondere Rolle kommt ihr beim Nachweis lokaler Nutzungslizenzen als auch bei der Verknüpfung von der Recherche mit dem Zugriff auf den elektronischen Volltext zu.
    Verlinkung von vascoda über die EM auf den Zeitschriftenvolltext Seit April 2004 bietet die EZB in vascoda mit Förderung des Bundesministeriums für Bildung und Forschung einen neuen Service an. Auf der Basis der OpenURL-Technologie führt die EZB Benutzer von vascoda von einem Rechercheergebnis gezielt zu Volltexten in elektronischen Zeitschriften. Dazu werden dem Benutzer in vascoda nach einer Recherche in der Trefferliste Links zur Elektronischen Zeitschriftenbibliothek angeboten. Ein solcher Link erscheint jedoch nur, wenn es sich bei dem Suchergebnis um einen Nachweis für einen Artikel handelt, der in einer in der EZB nachgewiesenen Zeitschrift enthalten ist. Betätigt der Benutzer einen EZB-Link, gelangt er auf eine eigens für diese Verlinkung gestaltete Seite der EZB. Dort erhält der Nutzer die Information, ob er den in vascoda recherchierten Aufsatz im Volltext nutzen kann. Dabei werden auch die lokal von den EZB-Anwendereinrichtungen erworbenen Lizenzen berücksichtigt. Die EZB gibt nämlich Auskunft, ob der Aufsatz im Volltext kostenfrei zugänglich ist oder durch eine von einer EZB-Anwenderbibliothek bereit gestellten Lizenz genutzt werden kann. Schließlich führt die EZB den Nutzer weiter zum elektronischen Volltext bei dem Anbieter, bei dem Nutzungsrechte vor Ort bestehen. Um dem Nutzer den Zugang zum Volltext zu erleichtern, bietet die EZB in möglichst vielen Fällen einen direkten Link zum gesuchten Aufsatz an. Wo eine Artikelverlinkung nicht möglich ist, verweist die EZB auf die nächsthöhere Ebene, also zum Inhaltsverzeichnis des Heftes, zur Jahrgangsübersicht oder zur Zeitschriftenhomepage. In diesen Fällen erhält der Nutzer spezifische Hinweise, wie er den Volltext abrufen kann. Konkret heißt dies, dass ein Benutzer aus einer akademischen Einrichtung, die an der EZB beteiligt ist, nach einer Recherche in vascoda durch einen Link zur EZB möglichst direkt auf den lizenzierten Aufsatz geleitet wird. Sobald er den EZB-Link betätigt, erhält er die für ihn relevanten Zugangsinformationen zur Zeitschrift und wird auf möglichst kurzem Weg zum Volltext geführt. Im Idealfall kann er direkt auf den lizenzierten Aufsatz zugreifen, wie folgende Grafik veranschaulicht.
  12. Brauck, M.: Filter für jede Weltanschauung : Jugendschutz im Internet lässt sich nur undividuell umsetzen (2000) 0.03
    0.028937854 = product of:
      0.08681356 = sum of:
        0.055726483 = weight(_text_:einzelne in 5204) [ClassicSimilarity], result of:
          0.055726483 = score(doc=5204,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.22760123 = fieldWeight in 5204, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5204)
        0.031087076 = weight(_text_:der in 5204) [ClassicSimilarity], result of:
          0.031087076 = score(doc=5204,freq=30.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.33454654 = fieldWeight in 5204, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5204)
      0.33333334 = coord(2/6)
    
    Content
    "Es ist zunächst das gleiche Ziel, das Eltern und Internet-Industrie verfolgen. Beide wollen, dass sich Kinder im Web bewegen können, ohne auf Sex, Gewalt und rassistische Inhalte zu stoßen. Und doch haben beide dabei nicht immer die gleichen Interessen Das wurde bei einer Tagung der Bertelsmann-Stiftung über Jugendschutz und Internet-Filtersysteme deutlich, als die Rede auf Werbung und Online-Verkauf kam. Sollen Internet-Filter Kinder auch vor kommerziellen Angeboten fern halten? Die Kinderschützer wollen, dass Eltern solche Inhalte sperren können. Die Initiatoren des von der Bertelsmann-Stiftung und großen Internet-Firmen unterstützten Icra-Filtersystems halten das für überflüssig. Genauer: Sie glauben nicht, dass die Anbieter von Websites bei der angestrebten freiwilligen Selbstkontrolle mitmachen, wenn sie damit riskieren, sich selbst das Geschäft zu verderben. Und ohne die Mitarbeit der, Anbieter funktioniert das Filtersystern nicht. Ein klassisches Dilemma, das nicht ganz überrascht. Zwar ist die Internet Content Rating Association (Icra) eine unabhängige Non-Profit-Organisation, aber man merkt der von AOL, Microsoft, IBM, T-Online und der Bertelsmann-Stiftung gegründeten Institution ihre Wurzeln deutlich an. Den Firmen liegt vor allem daran, dass das Internet nicht in den Ruf gerät, eine Gefahr für Kinder zu sein. Das Icra-Filtersystern steht und fällt mit der Bereitschaft der Internet-Anbieter, die eigenen Seiten nach einem genormten Raster zu klassifizieren. Diese Beschreibung der Inhalte, die für Kinder und Jugendliche problematisch sein können, ist zunächst wertfrei. Die Betreiber beantworten nur Ja-Nein-Fragen zum faktischen Inhalt. In Bezug auf Sex beispielsweise: Sind nackte weibliche Brüste abgebildet? Wird Geschlechtsverkehr gezeigt? Sind Genitalien zu sehen? Die Betreiber beurteilen nicht, ob die Inhalte der Seiten jugendgefährdend sind. Diese ethische Aufgabe bleibt den Eltern überlassen, die jedes einzelne Element durch ihre Filter sperren lassen können. Je nach moralischem Empfinden können die Eltern ihre eigenen Filter-Schablonen bauen. Alle Seiten, die den ethischen Anforderungen nicht genügen oder kein IcraEtikett haben, werden blockiert. Bisher sind 150.000 Websites klassifiziert - von insgesamt etwa zwei Milliarden. Das ist zu wenig, um das Internet in den Griff zu bekommen. Daher arbeitet die Icra zusätzlich mit Negativ- und Positivlisten, die von unabhängigen Organisationen erstellt werden. Das Bundeskriminalamt stellt sein Verzeichnis rechtsextremer Websites zu Verfügung Die Deutsche Bischofskonferenz der katholischen Kirche und die Kinderrechtsorganisation Terre des hommes haben sich bereit erklärt, auf Positivlisten Websites zu empfehlen, die für Kinder geeignet sind. Weitere Organisationen sollen folgen. Zusätzlich erarbeiten solche unabhängige Organisationen Filter-Schablonen mit Anforderungen an die von den Anbietern klassifizierten Seiten. Das Ergebnis: ein flexibles System von Filtern, die von den Eltern exakt auf die Bedürfnisse ihre Kinder eingestellt werden können. Die Icra versteht sich selbst als Vermittler zwischen den Internet Anbietern und unabhängigen wertorientierten Organisationen. Das hat den Vorteil, dass Icra selbst neutral bleibt und so weltweit agieren kann. Das Internet verbindet viele Kulturen, und deshalb mussen wir kulturelle Unterschiede ernst nehmen", sagt Icra-Vorstandvorsitzender Jens Waltermann. Daher könne auch der Jugendschutz nicht weltweit der gleiche sein. Dazu unterscheidet sich das Empfinden, wovor Kinder geschützt werden sollen, zu stark. Beispielsweise stört 58 Prozent der Deutschen, dass das Internet ein Tummelplatz für Links- und Rechtsextreme ist. Bei den US-Amerikanern sind es nur 26 Prozent. Dafür sind die Amerikaner gegenüber Nacktheit empfindlicher. Die Schwierigkeiten des Icra-Filtersystems spiegeln die grundsätzlichen Probleme einer Kontrolle des Internets wider. Auf der einen Seite sollen Kinder und Jugendliche geschützt werden, andererseits darf die Meinungsfreiheit nicht eingeschränkt werden. Dieser grundsätzliche Widerspruch ist im Icra-System nur verschoben: Die Internet-Anbieter können sich jeder Bewertung enthalten und geben die ethische Einordnung an wertorientierte Organisationen weiter. Das Internet globalisiert die amerikanisch-extensive Meinungsfreiheit und individualisiert die ethische Orientierung."
  13. Effelsberg, H.: InetBib 2003 : 7. InetBib-Tagung vom 12.-14. November 2003 in Frankfurt am Main: digital & real oder: "Was ist heute schon noch wirklich virtuell?" (2004) 0.03
    0.02653642 = product of:
      0.15921852 = sum of:
        0.15921852 = weight(_text_:einzelne in 886) [ClassicSimilarity], result of:
          0.15921852 = score(doc=886,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.6502892 = fieldWeight in 886, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.078125 = fieldNorm(doc=886)
      0.16666667 = coord(1/6)
    
    Footnote
    Bericht über die Tagung und einzelne Beiträge
  14. Pawlak, A.: Durch das Internet mit Links (2002) 0.03
    0.026177928 = product of:
      0.07853378 = sum of:
        0.047765557 = weight(_text_:einzelne in 558) [ClassicSimilarity], result of:
          0.047765557 = score(doc=558,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.19508676 = fieldWeight in 558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=558)
        0.030768223 = weight(_text_:der in 558) [ClassicSimilarity], result of:
          0.030768223 = score(doc=558,freq=40.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3311152 = fieldWeight in 558, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=558)
      0.33333334 = coord(2/6)
    
    Content
    "Wie findet der einzelne Nutzer in der "allwissenden Müllhalde" Internet genau die verlässliche Information, die er sucht? Immerhin stehen dem wissbegierigen User auf über 36 Millionen Web-Angeboten (Sites) mehr als vier Milliarden Einzelseiten zur Verfügung. Deshalb gibt er meist in ein eigens dafür konzipiertes Internet-Programm, eine so genannte Suchmaschine, eine Kombination von Suchwörten ein und erhält eine Liste von Webseiten, in denen diese Wörter vorkommen. Nur allzuoft enthält diese Liste einen hohen Anteil Unbrauchbares, denn aus dem bloßen Vorhandensein eines Wortes geht nicht hervor, ob die Webseite zu dem zugehörigen Begriff etwas zu sagen hat. Mehr Sinn steckt schon in den in Hyperlinks, anklickbaren Verweisen, die der Autor der Webseite selbst in diese eingefügt hat. Das Web lässt sich als ein riesiges Netz aus Knoten auffassen, die durch die Hyperlinks miteinander verknüpft sind. Spezielle Computerprogramme sind in der Lage, in diesem unübersehbaren, zufällig erscheinenden Fadengewirr eine gewisse Ordnung zu finden (Spektrum der Wissenschaft 8/1999, S.44). Dabei erweist sich die Hyperlink-Struktur oftmals als ein deutlicheres Kennzeichen für die inhaltliche Verwandtschaft von Webseiten als noch so geschickt gewählte Suchbegriffe. Alle Verknüpfungen im gesamten Internet unter die Lupe zu nehmen scheitert jedoch an ihrer riesigen Menge. Deshalb haben Gary Flake und seine Kollegen vom Forschungsinstitut der amerikanischen Firma NEC in Princeton einen eiwas anderen Weg gewählt. Sie beschränken sich nicht auf eine vorgegebene Menge von Seiten, sondern wählen zunächst eine aus, die als Keimzelle für eine so genannte Commu nity (Gemeinschaft) dient. Kandidaten für die Community sind zunächst die Webseiten, die mit der Keimzelle direkt oder indirekt über (einoder ausgehende) Hyperlinks verknüpft sind. Durch einen raffinierten Algorithmus wird dann bestimmt, welche Webseiten endgültig zur Community gehören: Per Definition ist jedes Mitglied einer Community mit mehr Mitgliedern als Nicht-Mitgliedern verbunden. Das Computer-Programm der NEC-Forscher identifiziert somit ausgehend vom gewählten Startpunkt die Gemeinschaft, die sich selbstorganisiert über die Hyperlinks im Internet gebildet hat (IEEE Computer, Bd. 35, S. 66, 2002). Ein Beispiel für diese Methode findet sich unter http://webselforganization.corn/example.html. Dort hat der Algorithmus der NEC-Forscher einer Internetseite mit Themen zum 11. September eine Gemeinschaft von mehr als 6000 weiteren Seiten zugeordnet - nur auf grund der Verknüpfungen über Hyperlinks und ohne Zuhilfenahme von Textinformationen. Innerhalb dieser Community führt das Suchwort "why" nun sofort auf Seiten, die sich mit der Frage "Why did it happen and why did the buildings collapse?" beschäftigen. Auch die ansonsten mehrdeutigen Begriffe "bin" und "laden" führen nicht mehr in die Irre, sondern auf Informationen über Usama Bin Laden. Filtersoftware zur Abwehr pornografischer oder anderer anstößiger Web-Inhalte könnte mit dem Community-Algorithmus noch treffsicherer werden. Wie sich herausstellt, ist eine Pornografie-Seite nicht unbedingt am Vorhandensein gewisser Reizwörter zu erkennen, die von den Betreibern vielleicht mit Fleiß vermieden werden, sondern weit zuverlässiger daran, dass sie auf andere Pornografie-Seiten verweist oder auf sie von diesen verwiesen wird. Auch sind effektivere Suchmaschinen denkbar, bei denen sich text- und linkbasierte Methoden geschickt ergänzen.
    Allerdings läuft man im kurzlebigen Internet oft ins Leere. Was nützt der schönste Fund, wenn die zugehörige Internetseite nicht mehr existiert? John Markwell und David Brooks von der Universität von Nebraska in Lincoln haben das bei den von ihnen entwickelten Web-basierten Kursen zur Biochemie (http: //dwb.unl.edu/Teacher/NSF/C10/C10.html, -C11/C11.html und -C08/C08.html) schmerzlich zu spüren bekommen: Häufig fielen Hyperlinks aus - als würden aus einem Lehrbuch immer wieder Seiten ausgerissen. Einen vorläufigen Bericht dazu haben Markwell und Brooks unter http://www-eiass.unl.edu// biochem/url/broken_links.html veröffentlicht. Ihr Ergebnis: Hyperlinks haben eine Halbwertszeit von etwa 55 Monaten. Nach dieser Zeit sind somit die Hälfte von ihnen "zerbrochen", nach 13 Monaten schon 16,5 Prozent. Dabei erwiesen sich die Links von Regierungsstellen (Kürzel .gov) mit nur vier Prozent Verlust als einigermaßen robust, solche von Bildungsstätten (.edu) mit 17,5 Prozent als besonders kurzlebig. Diese Resultate haben die Begeisterung von Markwell und Brooks für die Verwendung von Hyperlinks erheblich gedämpft. Der Psychologe Ulf-Dietrich Reips von der Universität Zürich hat das Problem bereits seit längerem erkannt und für sich gelöst. Der Spezialist für psychologische Web-Experimente verweist nicht nur auf die Experimente seiner Kollegen, sondern archiviert sie gleich komplett unter der Adresse http://130.60. 239.96/wexlist/, um sie so langfristig verfügbar zu halten.
    Source
    Spektrum der Wissenschaft. 2002, H.5, S.111
  15. Schreiber, M.: Das Web ist eine Wolke (2009) 0.03
    0.026177928 = product of:
      0.07853378 = sum of:
        0.047765557 = weight(_text_:einzelne in 2620) [ClassicSimilarity], result of:
          0.047765557 = score(doc=2620,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.19508676 = fieldWeight in 2620, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2620)
        0.030768223 = weight(_text_:der in 2620) [ClassicSimilarity], result of:
          0.030768223 = score(doc=2620,freq=40.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3311152 = fieldWeight in 2620, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2620)
      0.33333334 = coord(2/6)
    
    Abstract
    Der klassische PC ist ein Auslaufmodell. Im Internet wird gerade die nächste Revolution der Computerbranche eingeläutet: CLOUD COMPUTING heißt die Zukunft. Es wird voraussichtlich deshalb erfolgreich sein, weil es bestehende Techniken nutzt, um neue Lösungen zu schaffen.
    Content
    "Auf einem Uralt-PC HD-Videos schneiden, Handys mit 500 GByte Speicherplatz ausstatten, Software und Daten auf jedem beliebigen Computer abrufen - das soll Cloud Computing ermöglichen. Und das alles nur über einen Browser sowie einen schnellen Internetanschluss. Was genau verbirgt sich aber hinter diesem Begriff, der seit Monaten durch die Medien wandert?. CHIP erklärt das Prinzip und verrät, ob Cloud Computing nur ein Hype oder die Zukunft ist. Hardware ade: Die Software läuft in jedem Browser Der Grundgedanke beim Cloud Computing ist, dass alle Anwendungen im Web laufen - von einfacher Software bis hin zu kompletten Betriebssystemen. Der User muss sich keine teure Hardware anschaffen, sich keine Gedanken um die Aktualisierung des Systems machen und auch keine Software mehr kaufen. Das klingt nach Zukunftsmusik, aber die Ansätze sind bereits vorhanden. Google zeigt, wie's geht: Office-Tools, E-Mail-Konten, RSS-Reader, ein Kalender und weitere Programme laufen plattformunabhängig im Webbrowser. Alle Programme und Daten lagern auf den Google-Servern und werden je nach Bedarf geladen. Möglich wird das durch riesige Serverparks von Unternehmen wie Microsoft, Google, Amazon oder IBM: Die Anlagen stellen viel mehr Leistung bereit, als sie verbrauchen können.
    Es entsteht Leerlauf, der Geld kostet, ohne Nutzen zu bringen. Um die Rechnerauslastung zu optimieren, bieten die Firmen ihre Rechenpower Privatkunden und Unternehmen an. Ein cleveres Geschäftsmodell, das sich für beide Seiten lohnt. Der einzelne Kunde zahlt nicht für Programmlizenzen oder Server, sondern nur die tatsächlich verbrauchte Leistung - zu Stoßzeiten, kann er flexibel Rechenpower hinzubuchen. Der User nutzt also skalierbare IT-Services. In diesem Netzwerk lassen sich auch diverse Anbieter miteinander verknüpfen. Beispielsweise Amazons virtuellen Speicher "Simple Storage Service" (S3), mit Googles Entwicklungsplattform "App Engine" (GAE). So bestehen die Dienstleistungen aus einer Bündelung verschiedener Angebote, die nach einem Baukastenprinzip funktionieren - eine Wolke (engl. "cloud") aus Servern und Services ensteht. Der Nutzer holt sich jeweils die Leistungen, die er braucht und kombiniert sie nach seinen persönlichen Bedürfnissen. Die Grundlagen: Mehr Leistung durch Zusammenarbeit So angesagt Cloud Computing auch ist - es ist keine neue Erfindung. Sondern vielmehr eine Zusammenführung längst bestehender Techniken. Zu den Voraussetzungen gehören Computercluster, Grid Computing und Utility Computing. Ein Cluster besteht aus einer Reihe von Computern, die untereinander vernetzt sind und somit die Rechenpower erhöhen (High Performance Computing). Außerdem können sie das Risiko eines Datencrashs minimieren, indem ein defekter Server seine Aufgaben auf einen anderen umleitet (High Availability Cluster). Cluster werden häufig auch als Serverparks oder Serverfarmen bezeichnet.
    Ein Grid dient hauptsächlich zur Bewältigung rechenintensiver Aufgaben. Der Unterschied zu Clustern: Grids bestehen aus einer losen Verkettung weltweit verstreuter Server, denen sich diverse Institutionen anschließen können. Standardisierte Bibliotheken und Middleware erleichtern die Zusammenarbeit: Die dritte Voraussetzung für das Cloud Computing ist das Utility Computing. Hier bieten Unternehmen Leistungen wie Onlinespeicher, virtuelle Server und Software als gebündelten Service an und rechnen nach verbrauchter Leistung ab. Neue Möglichkeiten: Software nach dem Baukastenprinzip Auf diesen Grundlagen aufbauend entsteht das Cloud Computing. Es verbindet die Komponenten und eröffnet dadurch diverse Möglichkeiten, etwa die "Infrastructure as a Service" (IaaS): Die Betreiber übernehmen die komplette Infrastruktur, etwa virtualisierte Hardware. Diese ist wie bei der"Amazon Elastic Compute Cloud" (EC2) je nach Anforderung skalierbar. Die "Platform as a Service" (PaaS) richtet sich hauptsächlich an Entwickler: Hier stellt der Betreiber kein Enduser-Programm, sondern eine komplette Arbeitsumgebung bereit. So können Software-Anbieter eigene Webapplikationen schreiben und vertreiben. Das wohl bekannteste Beispiel ist die "Google App Engine' die Python als Programmiersprache sowie das Python-Web-Framework "Django" einsetzt. Die fertige Software liegt auf den Servern des Betreibers und benötigt weder eine lokale Installation noch eigene Hardware. PaaS wird daher auch als "Cloudware" bezeichnet.
    Der dritte Ansatz des Cloud Computings ist die "Software as a Service" (SaaS): Im Gegensatz zum klassischen Modell, bei dem der Kunde eine Software kauft und sie auf seinem PC installiert, kann der Nutzer die Programme beim SaaS nur "mieten". Die Tools laufen im Browser und sind in der Regel plattformunabhängig. Während der User die Angebote lediglich nutzt, bietet die Verbindung aller Teilbereiche vor allem jungen Start-ups, wesentliche Vorteile: Da sie nicht mehr auf eigene Server angewiesen sind, sinkt der Kostendruck. So ist es möglich, eine Webseite ohne eigene Hardware aufzubauen und bei Bedarf mehr Rechenpower zu mieten. Zehn.de (www.zehn.de) etwa, ist das erste deutsche Portal, das die vernetzten Strukturen des Cloud Computings voll ausschöpft. Während die Entwickler für die gesamte Kommunikation der Seite wie Front- und Backend, Datensätze und -filter auf die Google App Engine setzen, liegt die Software zur semantischen Analyse der Inhalte bei Amazon EC2 und Bilder sowie Videos bei Amazon S3."
  16. Siemes, V.: Mittelstand muss die Scheu vorm Internet überwinden : Neue Medien schaffen neue, ungewohnte Berufe und verlangen von Unternehmen und Mitarbeitern neues Denken (2001) 0.03
    0.025918238 = product of:
      0.07775471 = sum of:
        0.047765557 = weight(_text_:einzelne in 5706) [ClassicSimilarity], result of:
          0.047765557 = score(doc=5706,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.19508676 = fieldWeight in 5706, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5706)
        0.029989155 = weight(_text_:der in 5706) [ClassicSimilarity], result of:
          0.029989155 = score(doc=5706,freq=38.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.32273117 = fieldWeight in 5706, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5706)
      0.33333334 = coord(2/6)
    
    Abstract
    "Bin ich etwa schon drin, oder was?" "Eher nein!" muss die Antwort lauten, wenn es im Mittelstand um den elektronischen Handel im Internet geht. Lange wurde das enorme Potenzial verkannt, dass hier liegt. Wohlgemerkt, es ist nicht die Rede davon, dass jeder Jante-EmmaLaden" jetzt einen Online-Shop anbieten soll. Vielmehr liegen die Chancen im so genannten B2B-Geschäft, dem elektronischen Geschäftsverkehr zwischen den Unternehmen. Noch bis vor kurzem zeigte sich der deutsche Mittelstand bei Themen wie E-Commerce eher verschlossen. Als Ursache sind unzureichende Kenntnisse der geschäftlichen Möglichkeiten zu nennen. Für den typischen Mittelständler war das Internet lange Zeit lediglich eine Modeerscheinung für eine begrenzte Gemeinschaft von Technikgläubigen. Doch mittlerweile hat es größtenteils die Kinderkrankheiten - langsame Ubertragungszeiten, teure Kommunikationskosten, mangelnde Verfügbarkeit, geringe Sicherheit, fehlende Rechtsverbindlichkeit - überstanden. In der Politik entsteht zunehmend ein Bewusstsein dafür, dass das Internetrecht zügig weiter entwickelt werden muss. Gerade das Thema Sicherheit ist bei vielen Mittelständlern noch ein Hemmnis auf dem Weg ins Netz. Die Unternehmer wollen aber in wachsendem Maße das Internet Effizienz bringend für sich zu nutzen. Viele Arbeitsoder Verwaltungsabläufe in den Betrieben werden sich in Zukunft wesentlich einfacher und schneller und damit kostengünstiger abwickeln lassen. Als weiteren Grund für die lange andauernde Abstinenz des deutschen Mittelstandes im Internet wird von vielen Unternehmern der Mangel an qualifizierten Mitarbeitern genannt. Offensichtlich gelingt es in Deutschland kaum, Interesse für Berufe wie "Online-Redakteur" oder "Webdesigner" zu wecken. Vielleicht ist es aber auch jene konservative, väterliche Empfehlung "lieber einen richtigen Beruf auszuüben". Selbstverständlich ist es für den ein oder anderen schwierig, seinen Nachwuchs in dem Wunsch zu unterstützen, einen Beruf zu erlernen den es vor zwei Jahren überhaupt noch nicht gab - ja sogar die bloße Vorstellung, dass eine solche Tätigkeit je mals gebraucht werden könnte, war nicht möglich.
    Oder hätten Sie jemals gedacht, dass es einen Beruf geben wird wie Internet-Trend-Scout? Durch die Neuen Medien entstehen völlig andersartige Bedarfsfelder und Anforderungsprofile. Die GenoTec GmbH, deren Kernaufgabe es ist, Volksbanken und Raiffeisenbanken sowie deren mittelständische Firmenkunden bei der Einführung und Optimierung von Internet, E-Commerce, Knowledge-Management oder Workflow zu unterstützen, stellt beispielsweise fest, dass sowohl der Einzelne als auch die Unternehmen in der wachsenden Informationsflut förmlich ertrinken. Die Hilflosigkeit wird verdrängt, indem leider auch die Informationen verdrängt werden. Hier wäre es Aufgabe eines so genannten "Wissens-Brokers" Informationen respektive Wissen zu analysieren, ordnen und zur rechten Zeit am rechten Ort zur Verfügung zu stellen. Gerade der Mittelständler wird verstärkt auf solche Lotsen angewiesen sein, die ihm den Weg durch den Informationsdschungel weisen. Auch die Funktion eines Content-Managers für die jeweiligen E-Commerce-Angebote wird in einer wachsenden Zahl von Unternehmen gebraucht. Denn es ist von größter Bedeutung, ständig interessante und aktuelle Inhalte, die obendrein den neuesten Design-Techniken entsprechen, im Rahmen des Internet-Auftritts bereitzustellen. Häufig ist den Unternehmern noch nicht klar, dass sie für diese neuen Funktionen auch in der Regel "neue Mitarbeiter" benötigen, die ein anderes Anforderungsprofil mitbringen als der klassische EDV-Administrator. Neben sehr guten IT-Kenntnissen, ist auch organisatorisches, betriebswirtschaftliches oder redaktionelles Know-how erforderlich.
    Spätestens hier wird klar, dass es sich um einen Teufelskreis handelt: wenn nicht transparent ist, dass anderes Know-how erforderlich ist, wird das auch nicht nachgefragt und zu wenige Berufsstarter interessieren sich für die neuen Berufe haben ihre Wurzeln in einer gewissen Trägheit unseres Bildungssystems. Insbesondere Medienkompetenz muss zu einem zentralen Bildungsziel werden. Medienkompetenz bedeutet, mit Hilfe von neuen Techniken Informationen suchen, selektieren, bewerten, sinnvoll anwenden und mit anderen Menschen elektronisch kommunizieren zu können. Selbstverständlich reicht es nicht aus, nur Jugendliche und Berufsstarter zu qualifizieren. Auch die Mitarbeiter in den Unternehmen müssen weitergebildet werden. Das Wissen der Mitarbeiter entscheidet immer stärker über den Erfolg eines Unternehmens am Markt. Eine der größten Herausforderungen wird es sein, das Wissen, das zumeist nur in den Köpfen der Mitarbeiter besteht - also nicht in-strukturierter oder dokumentierter Form vorliegt irgendwie nutzbar zu machen. Daher heißt das Schlüsselwort hierzu: Knowledge-Management. Zunächst gilt es aber, die Medienkompetenz der Mitarbeiter zu steigern: Es muss nach neuen Formen der Wissensvermittlung gesucht, neue Wege des Lernens müssen entwickelt und Konzepte für lebenslanges Lernen gefunden werden. Hier gilt es, Bewusstsein zu bilden und auch die bereits vorhandenen zukunftsweisenden Ansätze in den Unternehmen zu propagieren. Diese Ziele verfolgte im vergangenen Jahr der Förderpreis Innovativer Mittelstand der Volksbanken und Raiffeisenbanken. Der diesjährige Wettbewerb zum Thema "Qualifiziert für die Wissensgesellschaft" soll zeigen, welche beruflichen Perspektiven neue Medien im Mittelstand eröffnen und eine Plattform für neuartige Berufsbilder und Qualifizierungskonzepte bieten. Dieser Wettbewerb wird von der Hessischen Technologiestiftung GmbH unterstützt
  17. Sixtus, M.: Ohne Filter : Weblogs entwickeln sich zu einem Massenphänomen, doch die neue Internet-Publizistik ruft auch Kritiker auf den Plan (2005) 0.03
    0.025355112 = product of:
      0.07606533 = sum of:
        0.03980463 = weight(_text_:einzelne in 3343) [ClassicSimilarity], result of:
          0.03980463 = score(doc=3343,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.1625723 = fieldWeight in 3343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3343)
        0.0362607 = weight(_text_:der in 3343) [ClassicSimilarity], result of:
          0.0362607 = score(doc=3343,freq=80.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.390223 = fieldWeight in 3343, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3343)
      0.33333334 = coord(2/6)
    
    Abstract
    Ein neues Kommunikationsinstrument breitet sich im Internet aus, das Weblog: eine Plattform für Meinungs- und Informationsaustausch, deren Korrektiv die Gemeinde der Internet-Nutzer ist. Kritiker verunglimpfen Blogs als "Gerüchteschleudern", Befürworter feiern die kostengünstige Technik als revolutionär - Blogger schaffen eine neue Form der Öffentlichkeit und sie schauen Politikern und Journalisten auf die Finger. Weblogs sind Online-Tagebücher, die regelmäßig von ihren Autoren aktualisiert werden und dem Leser die Möglichkeit geben, den Einträgen eigene Kommentare beizufügen. Alle "Blogs" verweisen auf andere Internetseiten oder "Blogs". In Deutschland gibt es 36.000 Weblogs, in den USA sind es bereits 7,8 Millionen.
    Content
    ""Was ist ein Blog, wollte Günther Jauch neulich in seinem TV-Quiz "Wer wird Millionär" wissen. Immerhin: 16 000 Euro hätte die Beantwortung eingebracht. Doch auch der 50:50-Joker, der die möglichen Antworten auf "Tagebuch im Internet" und "Feind-, liehe Übernahme" reduzierte, half der jungen Kandidatin nicht weiter -,sie musste passen. Schämen muss sie sich deswegen nicht: Nach einer Studie . des Marktforschungsunternehmens Berlecon Research können 63 Prozent der deutschen Internet-Nutzer mit dem Begriff "Blog" nichts anfangen. Anders in den USA: Dort kürte der renommierte Wörterbuch-Verlag Merriam Webster diese Vokabel im vergangenen Dezember zum Wort des Jahres. 32 Millionen US-Amerikaner lesen regelmäßig Blogs, fand eine Studie des PEW Internet and American Life Project heraus: Doch von einer einheitlichen Einschätzung dieses Massenphänomens ist man jenseits des Atlantiks noch weit entfernt. "Revolution" und "Demokratisierung der Medienwelt" jubeln die einen, "Gerüchteschleudern" und "Lauffeuerklatsch" zetern die anderen. Klar ist: Irgendetwas passiert gerade. Aber was? Der Begriff Blog ist die Kurzform von Weblog, einem Kunstwort aus Web und Log(buch). Per Definition ist eine Weblog eine Internetseite, die regelmäßig aktualisiert wird und deren neuester Beitrag immer an erster Stelle steht. Revolutionär klingt das erst mal nicht. Schaut min, sich ein paar typische Weblogs an, hat man selten das Gefühl, etwas Spektakuläres zu entdecken. Ein wenig Text, ein paar Bilder, eine Hand voll Links: Deshalb die ganze Aufregung? Umwälzende Neuerungen kommen häufig ohne Trommelwirbel und Fanfaren auf die Welt. Ein Erfolgsgeheimnis des Blog-Booms findet sich unterhalb der schlichten Oberfläche. Kleine serverseitige Systeme sorgen dafür, dass es ungefähr so schwierig ist ein Weblog zuführen wie eine E-Mail zu verschicken. Diese Bonsai-Versionen der großen Content-Management-Systeme, welche im Hintergrund professioneller OnlineMagazine werkeln, befreien die Blogger von den technischen Mühen, die das Publizieren im Web bislang mit sich brachte.
    Für jedermann erschwinglich Bei den meisten Weblog-Diensten dauert es nur wenige Minuten, ein neues Blog zu eröffnen. Je nach Ausstattung zahlt man dafür gar nichts 'oder eine geringe monatliche Gebühr. Wer es individueller mag, kann auf Dutzende unterschiedliche Blog-Software in allen Leistungs- und Preisldassen zugreifen. Eintrittskarten in den vormals exklusiven Club der Publizisten sind somit schlagartig für jedermann erschwinglich. Der Medienberater Terry Heaton sagt: "WeblogTechnik senkt die Einstiegshürde in die Medienwelt signifikant. Früher benötigte man enormes Kapital, um mitspielen zu dürfen, heute reicht ein billiger Computer." Dieser Aspekt ist es nicht allein, der das wirklich Neue ausmacht an der Blogosphäre, wie man die Gesamtheit aller Weblogs nennt Die Suchmaschine "Technorati" verzeichnet derzeit 7,8 Millionen Blogs - und zählt darin 937 Millionen Hyperlinks. Zum Vergleich: "Blogstats.de" zählte voriges Jahr 36.000 deutschsprachige Weblogs, die 1,2 Millionen Verweise enthalten. Permanent "verlinken" Blogger amüsante Fundstücke und Artikel mit politischen Kommentaren, sie verweisen auf Filmkritiken und wissenschaftliche Analysen - und natürlich setzen sie besonders oft und gerne Links auf andere Blogs. Diese enge Vernetzung ist es, welche die Blogwelt so dynamisch und explosiv macht; Informationen verbreiten sich in ihr virusartig. Selbst wenn einzelne Weblogs nur über eine Hand voll regelmäßige Leser verfügen, Tausende von Blogs können schnell einen enormen Aufmerksamkeitsstrom erzeugen - und auf die klassischen Medien einwirken. In der heißen Phase des US-Präsidentschaftswahlkampfes präsentierte CBS-Anchorman Dan Rather in der Sendung "60 Minutes" Dokumente, die belegen sollten, dass George W. Bush seinen Militärdienst geschwänzt hatte. Nur neun Minuten später, noch während die Sendung lief, tauchten in Blogs erste Zweifel an der Echtheit dieser Papiere au£ Die Blogger betätigten sich daraufhin als Amateurdetektive: Einer kannte einen Spezialisten für alte Schreibmaschinen, ein anderer war Experte für Militärformulare, ein dritter machte vor, wie schnell man solche Dokumente mit Hilfe des Schreibprogramms Word nachbauen kann. Rather konnte diese Vorwürfe nie entkräften und nahm schließlich seinen Hut.
    Nicht nur an Politikern und Journalisten erproben Blogger ihre Kräfte: In einem Spezialforum für Biker publizierte ein Nutzer aus San Francisco ein kurzes Video, das demonstrierte, wie leicht man die teuren Bügelschlösser, der Marke "Kryptonite" mit Hilfe eines schlichten Kugelschreibers überlisten kann. Wochenlang verbreitete sich dieser Skandal in der Blogosphäre, bis auch die New York Times darüber berichtete und die Hersteller in Erklärungsnot brachte. In allen diesen Fällen reagierten die Beschuldigten zunächst hilflos auf die Vorwürfe. Auf E-Mail-Anfragen der Blogger reagierten sie meist gar nicht. Solcherlei Arroganz heizt die' Diskussionstemperatur noch an. "Kryptonite schien nicht recht erfasst zu haben, dass sie nicht nur ein kleines Problem, sondern eine handfeste Krise hatten", resümiert der Internet-Berater Martin Roell. Er prophezeit: "Künftig werden immer mehr Produktprobleme online entdeckt werden und Kommunikationskrisen online starten: Nur wenige Unternehmen sind darauf vorbereitet." Laien schaffen Gegenöffentlichkeit Nicht alle sind begeistert von der' neuen Je-dermann-Publizistik. "Ist also jeder Laie berufen, journalistisch eine Art Gegenöffentlichkeit zu schaffen?", fragte kürzlich der Medienjournalist Holger Wenk im Gewerkschaftsmagazin M, um sich kurz darauf selbst die Antwort zu geben: "Mitnichten!" Das Medienmagazin Insight will die Ursache des "Problems" im "Senfstau" entdeckt haben: "Jahrzehntelang unentdeckt und allenfalls vermutet, zeigt sich in Deutschland mehr und mehr die Existenz einer gewaltigen angestauten Menge nicht dazugegebenen Senfes." Auch in den USA beziehen Blogger Prügel von professionellen Publizisten. Beispielsweise von Jonathan Klein: Ein typischer Blogger sei "ein Typ, der in seinem Pyjama im Wohnzimmer sitzt und schreibt`; verkündet der einstige Fernsehjournalist seine Vorstellung über den prototypischen Weblog-Autoren und dessen bevorzugte Kleidung. Der Pyjama-Vorwurf ist seitdem zu einem geflügelten Wort in der Blogosphäre geworden. Der Journalist und Blogger Jon Carroll schrieb kürzlich: "Pyjamas beschädigen nicht zwangsläufig die Qualität der Informationen, die das Gehirn einer Person durchlaufen, die gerade einen Pyjama trägt." Der Journalist und Autor Dan Giltmor verweist auf die selbstkorrigierenden Kräfte im Internet: "Wenn du etwas Unwahres sagst, wird es nicht lange dauern bis jemand es richtig stellt." Tatsächlich unterscheiden sich Blogs in einem wichtigen Detail von herkömmlichen Netzpublikationen: Eine Kommentarfunktion 'erlaubt es jedem Leser, eine eigene Stellungnahme unter dem jeweiligen BlogEintragzu veröffentlichen. Der redaktionelle Prozess der Faktenprüfung und der Korrektur wird an die Öffentlichkeit verlagert. "Ich habe schon vor langer Zeit; begriffen, dass meine Leser immer mehr .wissen als ich sagt Gillmor, der das Manuskript seines Buches "We the Media" komplett im Internet veröffentlichte und von den Lesern seines Blogs korrigieren ließ. "Nachrichten müssen aufhören, ein Vortrag zu sein", sagt er, "stattdessen müssen sie eher einem Seminar oder einem Gespräch gleichen." Der Redakteur der US-Zeitschrift Business Week, Stephan Baker, sieht nur eine Möglichkeit, Unwahrheiten und Gerüchten in der. Blogosphäre zu begegnen: "Der beste Weg, ein gewisses Maß an Kontrolle über diesen Informationsfluss zu gewinnen ist" dazu beizutragen." Seinen Lesern empfiehlt er: "Lesen Sie ein Blog oder zwei und veröffentlichen Sie dort Kommentare. Besser noch: Beginnen Sie Ihr eigenes Blog.""
    Footnote
    Mit Abbildung zur Internetnutzung nach den Kriterien: Alter, Geschlecht, Art der Beschäftigung
  18. Heller, L.: Literatur- und Informationsversorgung in der Spitzenforschung (2009) 0.03
    0.025095657 = product of:
      0.07528697 = sum of:
        0.0583786 = weight(_text_:der in 3022) [ClassicSimilarity], result of:
          0.0583786 = score(doc=3022,freq=36.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.6282469 = fieldWeight in 3022, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3022)
        0.016908372 = product of:
          0.033816744 = sum of:
            0.033816744 = weight(_text_:22 in 3022) [ClassicSimilarity], result of:
              0.033816744 = score(doc=3022,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.23214069 = fieldWeight in 3022, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3022)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Zentrale Erwerbung von wissenschaftlichen Informationsressourcen im Netz der virtuellen Hybridbibliothek der Max-Planck-Gesellschaft »Excellent Information Services for Excellent Research« ist das Motto der Anfang 2007 gegründeten Max Planck Digital Library (MPDL). Diese ambitionierte Leitlinie würdigt die Relevanz eines modernen wissenschaftlichen Informationsmanagements für eine exzellente Spitzenforschung. Mit Gründung der MPDL wurde in der Max-Planck-Gesellschaft (MPG) ein entscheidender Schritt zur zentralen Unterstützung eines bisher weitgehend dezentralen Informationsversorgungsnetzes gegangen. Die Entscheidung zu einer Kombination aus zentraler und dezentraler Informationsversorgung trägt den Veränderungen Rechnung, die sich durch die Möglichkeiten der digitalen Welt ergeben haben. Intention der Neugründung ist jedoch nicht, ein unter der Prämisse der Institutsautonomie etabliertes, wohl durchdachtes Literatur- und Informationsversorgungssystem sukzessive durch eine zentrale Einheit abzulösen, sondern gemäß der Maxime der Subsidiarität Stärken von dezentralen und von zentralen Einheiten zu einem effizienten Gesamtsystem zu ergänzen. Der vorliegende Artikel skizziert das Netz der Informationsversorgung in der MPG mit dem Schwerpunkt auf der Versorgung mit elektronischen Medien des institutsübergreifenden Bedarfs. Dieser Schwerpunkt kennzeichnet eines der Hauptarbeitsfelder der MPDL, deren weitere Services und Arbeitsfelder kontextgebunden und ausgewählt vorgestellt werden sollen?
    Date
    22. 7.2009 13:40:29
  19. Thelwall, M.; Ruschenburg, T.: Grundlagen und Forschungsfelder der Webometrie (2006) 0.02
    0.024812197 = product of:
      0.07443659 = sum of:
        0.05189209 = weight(_text_:der in 77) [ClassicSimilarity], result of:
          0.05189209 = score(doc=77,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5584417 = fieldWeight in 77, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=77)
        0.022544496 = product of:
          0.04508899 = sum of:
            0.04508899 = weight(_text_:22 in 77) [ClassicSimilarity], result of:
              0.04508899 = score(doc=77,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.30952093 = fieldWeight in 77, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=77)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Webometrie ist ein Teilbereich der Informationswissenschaft der zur Zeit auf die Analyse von Linkstrukturen konzentriert ist. Er ist stark von der Zitationsanalyse geprägt, wie der empirische Schwerpunkt auf der Wissenschaftsanalyse zeigt. In diesem Beitrag diskutieren wir die Nutzung linkbasierter Maße in einem breiten informetrischen Kontext und bewerten verschiedene Verfahren, auch im Hinblick auf ihr generelles Potentialfür die Sozialwissenschaften. Dabei wird auch ein allgemeiner Rahmenfür Linkanalysen mit den erforderlichen Arbeitsschritten vorgestellt. Abschließend werden vielversprechende zukünftige Anwendungsfelder der Webometrie benannt, unter besonderer Berücksichtigung der Analyse von Blogs.
    Date
    4.12.2006 12:12:22
  20. Meyenburg, S.: ¬Der Aufbau Virtueller Fachbibliotheken in der Bundesrepublik Deutschland (2000) 0.02
    0.024682393 = product of:
      0.07404718 = sum of:
        0.04586656 = weight(_text_:der in 4979) [ClassicSimilarity], result of:
          0.04586656 = score(doc=4979,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4935974 = fieldWeight in 4979, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4979)
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 4979) [ClassicSimilarity], result of:
              0.05636124 = score(doc=4979,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 4979, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4979)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    26. 8.2000 19:22:17
    Footnote
    Vgl. auch: Memorandum zur Weiterentwicklung der überregionalen Literaturversorgung (DFG) in ZfBB 45(1998) S.135-164 u. Rutz, R.: Positionen und Pläne der DFG zum Thema Virtuelle Fachbibliothek. In: ABI-Technik 18(1998) H.4, S.402-409

Languages

  • d 515
  • e 39
  • f 1
  • More… Less…