Search (902 results, page 2 of 46)

  • × theme_ss:"Internet"
  1. Babik, W.: ¬The Internet as the present-day agora of information and knowledge (2017) 0.02
    0.022272889 = product of:
      0.06681866 = sum of:
        0.054691143 = weight(_text_:wissen in 3513) [ClassicSimilarity], result of:
          0.054691143 = score(doc=3513,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33355865 = fieldWeight in 3513, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3513)
        0.012127518 = product of:
          0.036382552 = sum of:
            0.036382552 = weight(_text_:29 in 3513) [ClassicSimilarity], result of:
              0.036382552 = score(doc=3513,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.27205724 = fieldWeight in 3513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3513)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  2. Lutz, H.: Back to business : was CompuServe Unternehmen bietet (1997) 0.02
    0.022189816 = product of:
      0.1331389 = sum of:
        0.1331389 = product of:
          0.19970834 = sum of:
            0.083160125 = weight(_text_:29 in 6569) [ClassicSimilarity], result of:
              0.083160125 = score(doc=6569,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.6218451 = fieldWeight in 6569, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=6569)
            0.116548225 = weight(_text_:22 in 6569) [ClassicSimilarity], result of:
              0.116548225 = score(doc=6569,freq=4.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.8754574 = fieldWeight in 6569, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=6569)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 2.1997 19:50:29
    Source
    Cogito. 1997, H.1, S.22-23
  3. Jünger, G.: ¬Ein neues Universum (2003) 0.02
    0.021373287 = product of:
      0.06411986 = sum of:
        0.031252082 = weight(_text_:wissen in 1553) [ClassicSimilarity], result of:
          0.031252082 = score(doc=1553,freq=8.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.19060494 = fieldWeight in 1553, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
        0.03286778 = weight(_text_:geschichte in 1553) [ClassicSimilarity], result of:
          0.03286778 = score(doc=1553,freq=6.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.18190524 = fieldWeight in 1553, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
      0.33333334 = coord(2/6)
    
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
    - Gutschriften für Autoren - Es geht aber noch weiter: Prinzipiell wird allen Xanadu-Teilnehmern garantiert, vorhandene Dokumentebestandteile durch so genannte Transclusions zitieren zu können. Ein Rechtemanagement für Lesezugriffe ist ja bereits integriert. Es ist also jederzeit möglich, dass jemand für ein Thema, das interessant erscheint, eine neue Anthologie erzeugt, ohne dass vorher Genehmigungen eingeholt werden müssen. Und anders als das WWW ist Xanadu ein Instrument für Autoren: An jede vorhandenen Seite können Kommentare angefügt werden. Um den Überblick zu behalten, werden sie anders dargestellt als ein Quellennachweis ("getypte Links"). Änderungen, die an einem Knoten vorgenommen werden, indem etwa ein Kommentar hinzukommt, können anderen Lesern vom System angezeigt werden, so dass man auf diese Weise lebendige Debatten und permanente Onlinekonferenzen führen kann. Ohne dass Administratoren regelnd eingreifen müssen, spiegelt das Xanadu-Netz damit die Interdependenz der realen Welt wider. Im Zeitalter der Fachidioten wird Wissen in einer Form repräsentiert, die die Verflechtung der Dinge untereinander hervorhebt und Kontroversen sichtbar macht. Das System schreibt dabei seine Geschichte selbst, da eine Versionskontrolle, verbunden mit direktem Dokumentenvergleich, die unterschiedlichen redaktionellen Bearbeitungsstufen eines Dokumentknotens nachvollziehbar macht.
    - Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
  4. Wissensprozesse in der Netzwerkgesellschaft (2005) 0.02
    0.021302972 = product of:
      0.06390891 = sum of:
        0.055246398 = weight(_text_:wissen in 4321) [ClassicSimilarity], result of:
          0.055246398 = score(doc=4321,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33694512 = fieldWeight in 4321, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.008662513 = product of:
          0.02598754 = sum of:
            0.02598754 = weight(_text_:29 in 4321) [ClassicSimilarity], result of:
              0.02598754 = score(doc=4321,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.19432661 = fieldWeight in 4321, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4321)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    24. 6.2018 11:29:52
    RSWK
    Wissen / Wissensgesellschaft / Netzwerkgesellschaft / Wahrnehmung (SBB)
    Subject
    Wissen / Wissensgesellschaft / Netzwerkgesellschaft / Wahrnehmung (SBB)
  5. Link, C.: Besserwisser : Am Online-Lexikon Wikipedia mit über 100 000 Artikeln kann jeder mitarbeiten (2004) 0.02
    0.021280851 = product of:
      0.06384255 = sum of:
        0.054130197 = weight(_text_:wissen in 5936) [ClassicSimilarity], result of:
          0.054130197 = score(doc=5936,freq=6.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.33013746 = fieldWeight in 5936, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=5936)
        0.009712352 = product of:
          0.029137056 = sum of:
            0.029137056 = weight(_text_:22 in 5936) [ClassicSimilarity], result of:
              0.029137056 = score(doc=5936,freq=4.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.21886435 = fieldWeight in 5936, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5936)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Der Musiker und Produzent Dieter Bohlen wurde als Dieter Günther Bohlen am 7. Februar 1954 in Oldenburg geboren. Die Ruine Steinschloss ist die höchstgelegene Burg-Ruine in der österreichischen Steiermark. Dieses und anderes Wissen bietet die Online-Enzyklopädie www.wikipedia.de. Das besondere daran: Die mehr als 100.000 deutschsprachigen Artikel stammen nicht aus einer Lexikon-Redaktion. Denn jeder kann bei Wikipedia mitarbeiten. Tausende Autoren schreiben und recherchieren an der Wissensdatenbank - ohne Lohn und mit dem Ziel, irgendwann einmal mit dem Brockhaus konkurrieren zu können. Dabei sind die Texte mit Quellenangabe frei verfügbar. Knapp 500 Artikel kommen nach Angaben des Projektsprechers Arne Klempert täglich neu hinzu. "Die Qualität ist dabei sehr unterschiedlich, sagt Klempert. Manchmal handelt es sich um Einzeiler, die gerade noch so als Artikel durchgehen." Andererseits gebe es aber auch eine Reihe exzellenter Beiträge. - Jeder kann jeden Text verbessern - Die Wikipedianer, so nennen sich die Aktiven bei Wikipedia selbst, verfahren mit den Texten anarchisch: Jeder kann jeden Text verbessern, Passagen hinzufügen oder löschen. Da ist Vandalismus Tür und Tor geöffnet, möchte man meinen. Doch die Störer verlieren bei der Online-Enzyklopädie schnell die Lust, sagt Klempert. Alle Versionen eines Artikels sind jederzeit abrufbar, nichts geht für immer verloren. Rund 4000 registrierte und ungezählte nicht-registrierte Autoren hüten den Wissensschatz Wikipedia und stellen ihre eigenen Kenntnisse zur Verfügung, um das Lexikon weiterzuentwickeln. Viele haben Spaß daran, ihr Wissen zu teilen und durch die Verbesserungen der anderen Autoren lernt man selbst wieder etwas dazu", beschreibt Klempert das Motiv, ein Wikipedianer zu sein. Die Idee zu Wikipedia hatte der US-Amerikaner Jimmy Wales. Im Januar 2001 startete zunächst eine englischsprachige Version der Online-Enzyklopädie, bereits im Mai des gleichen Jahres entstand die deutsche Ausgabe. Unterdessen List die Online-Enzyklopädie in rund 80 Sprachen verfügbar, darunter Esperanto und Plattdeutsch. Die englische Version ist derzeit die größte, gefolgt von der deutschen Wikipedia. Die Serverfarm in Florida wird von Wales' Stiftung Wikimedia getragen. Der Brockhaus-Verlag, der im kommenden Jahr 200 Jahre alt wird, sieht die Konkurrenz aus dem Internet gelassen. Brockhaus-Sprecher Klaus Holoch glaubt nicht, dass Wikipedia einmal den Brockhaus ersetzen kann. "Die Brockhaus-Enzyklopädie bietet geprüftes Wissen, auf das man sich hundertprozentig verlassen kann.""
    Date
    3. 5.1997 8:44:22
    22. 8.2004 10:07:39
  6. Becht, S.: ¬Das Linux des Wissens : Richard Stallmann plant eine frei zugängliche Enzyklopädie (2001) 0.02
    0.020537391 = product of:
      0.061612174 = sum of:
        0.03314784 = weight(_text_:wissen in 5635) [ClassicSimilarity], result of:
          0.03314784 = score(doc=5635,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.20216708 = fieldWeight in 5635, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5635)
        0.028464332 = weight(_text_:geschichte in 5635) [ClassicSimilarity], result of:
          0.028464332 = score(doc=5635,freq=2.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.15753455 = fieldWeight in 5635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5635)
      0.33333334 = coord(2/6)
    
    Abstract
    Er gilt als Gründungsvater der OpenSource-Bewegung: Der Programmierer Richard Stallmann kündigte 1984 seinen Angestellten-Vertrag und widmete sich frei verfügbarer Software. Damit legte er auch die Grundlage für das Erfolgsprojekt Linux. Nun startet Stallman ein weiteres ProJekt: eine Internet-basierte Enzyklopädie. GNUPedia ist die Bezeichnung für das elektronische Lexikon, das das Wissen der Welt im Internet zusammentragen möchte. Zur schreibenden Hilfe aufgerufen sind alle, die einen Beitrag leisten möchten besonders Akademiker, Lehrer, Studenten und Schüler. Was nicht heißt, jeder könnte beliebigen Unfug veröffentlichen: Die Artikel werden gegenseitig begutachtet oder von Zertifizierungsstellen beglaubigt. Unterschiedliche Beiträge oder Meinungen zu einem Thema stehen aber unzensiert nebeneinander. Die in Englisch verfassten Artikel sollen nach und nach in andere Sprachen übersetzt werden. In seiner Grundphilosophie ähnelt das GNUPedia-Projekt der Open-Source-Bewegung für Software. So unterliegt die Enzyklopädie keinerlei Zugangsbeschränkungen, auch nicht finanzieller Art. Sie wird dezentral verwaltet. Beiträge dürfenjederzeit zitiert und sogar ohne Einschränkung komplett kopiert werden - jedoch stets mit einem Herkunftsnachweis versehen. Und natürlich soll die freie Enzyklopädie eine Alternative zu den eingeschränkten Werken anbieten, die von Medien-Unternehmen geschrieben beziehungsweise herausgebracht werden", erklärt Stallman. Natürlich ist das Ganze ein Mammutprojekt. Doch der Initiator hat es nicht besonders eilig. ,Small steps will do the job", kleine Schritte tun es auch, sagt er. Und wenn es 20 Jahre dauere, sei das auch in Ordnung. Stallman weiß, was er tut. Denn zwei wesentliche Dinge könnten seine freie, universelle Enzyklopädie zum Linux des Wissens werden lassen. Erstens gibt er dem Weh zurück, was das Web in seinem Wesen ist. Denn die funktionale InternetOberfläche ist nicht nur geeignet, um Inhalte zu offerieren, wie es die meisten Anbieter mehr oder minder gut auf ihren Sites probieren. Das WWW ist auch ein idealer Marktplatz für Ideen, Inhalte und Beiträge. So entstanden nach und nach Communities. Die haben im Internet Tradition, etwa in Form der Diskussionsforen des Usenets, und werden derzeit mit so genannten Web-Logs wiederbelebt. Zweitens hat Stallman seit Jahrzehnten Erfahrung im vernetzten, weltweiten Arbeiten. Ähnlich einem Redakteur für Lexika oder Dokumentationen beim Schreiben und Prüfen eines Artikels, ist der Mann bei der Programmier-Arbeit zu korrektem, verifizierbarem und zertifizierbarem Handeln geradezu gezwungen. Noch dazu, wenn, wie bei ihm, nach der Methode der offenen Quellen gearbeitet wird. Wie so etwas praktisch zu handhaben ist, lässt sich auf www.nupedia.com von Lawrence M. Sanger und Jimmy Wales schon bewundern. Bei Nupedia sind 150 Artikel von etwa hundert Wissenschaftlern in Arbeit. Auch dort wird penibel auf Qualität geachtet: Die Autoren müssen ausgewiesene Fachleute auf ihrem Gebiet sein. Jede Geschichte lesen mindestens drei andere Koryphäen gegen, und dann begutachten die 3000 kostenlos registrierten Nupedia-Mitglieder die Einträge. Erste Texte lassen sich schon nachlesen - siehe da: Das Wir-helfen-und-achten-uns-gegenseitig-Prinzip funktioniert. Nach anfänglichen Ressentiments sieht es nun so aus, als würden GNU Pedia und Nupedia im Web zusammenwachsen. Die Abkürzung GNU steht für GNU's Not Unix". Sie stammt aus dem Jahre 1984, als Stallman, nach langer Arbeit mit freier Software, die meisten Kollegen an die langsam boomende PC-Industrie verlor. Der Programmierer begann, ohne zu wissen, ob es überhaupt möglich sein würde, ein neues, freies Betriebssystern für Computer zu programmieren: GNU. Alle Codes für das Unix-kompatible System lagen und liegen offen und werden von einer nun weltweit vernetzten Community ständig benutzt, verändert und verbessert. GNU umfasst heute eine Reihe von freier Software, die meist mit der Offene-Quellen-Methode entstanden ist. Das bekannteste Beispiel ist Linux von Linus Torvald - der Kern des alternativen Betriebssystems. Die im Web populärste GNU-Anwendung dürfte wohl Gnutella (www.gnutella.co.uk, www.gnutellanews.com) sein, die nach dem Peer-to-peer-Prinzip organisierte Musiktauschbörse. Im Gegensatz zu dem bekannteren und vereinnahmenden Napster ist Gnutella auf keinen zentralen Rechner angewiesen, der (Musik-) Dateien bereitstellt. Im Gnutella-Netz ist jeder eingeloggte Rechner Teil des Netzwerks, Geber und Nehmer in einem, und damit nicht mehr zentral, wie beim proprietären Napster, zu kontrollieren oder abzuschalten
  7. Schürmann, M.: 404 File Not Found : Immer mehr Wissen wird immer schneller vergessen (2002) 0.02
    0.02020576 = product of:
      0.06061728 = sum of:
        0.01953255 = weight(_text_:wissen in 1156) [ClassicSimilarity], result of:
          0.01953255 = score(doc=1156,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.119128086 = fieldWeight in 1156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1156)
        0.04108473 = weight(_text_:geschichte in 1156) [ClassicSimilarity], result of:
          0.04108473 = score(doc=1156,freq=6.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.22738156 = fieldWeight in 1156, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1156)
      0.33333334 = coord(2/6)
    
    Content
    "Und wer hat noch welche von diesen flachen schwarzen Scheiben, viereckig waren die, ziemlich groß, deutlich größer als ein Handteller, und man musste vorsichtig sein, vorne nicht auf das Magnetfeld zu fassen? Genau, Fünfeinviertelzolldisketten hießen die. Süß, oder? Toll waren auch diese dings, diese Kassetten für den Computer, die gab's für den C16, mit Tennisspielen drauf, genau: Datassetten. So nannte man die. Bei Computern vergehen bloß ein paar Jahre, schon darf man in alten Zeiten schwelgen. Die Technik aus den Achtzigern: längst völlig überholt, veraltet wie ein Ochsenpflug. Das ist aber nicht nur romantisch. Es ist auch schlimm. "Historiker werden auf diese Zeit zurückblicken und eine Periode mit sehr wenigen Informationen wahrnehmen", sagt der Computerdesigner Danny Hillis. Damit meint er: Unsere Nachwelt wird von uns kaum etwas finden. Wir, die Menschen des Internet- Zeitalters, des dritten Jahrtausends, der Foto-SMS-WAP-Handys - wir sind den Historikern der Zukunft womöglich ein Rätsel. Was haben die Leute im Jahre 2002 für Musik gehört? Was für wissenschaftliche Experimente haben sie unternommen? Wir sind vielleicht mal eine Lücke in der Geschichte. Was haben die Staatsmänner geschrieben? Was für Bilder, für Filme, für Ideen haben sie gemocht? Wie haben sie gefeiert? Wir werden eine Lücke in der Geschichte sein, weil wir uns nicht hineinschreiben. Oder besser: Weil wir uns ständig selbst löschen. Wer hat denn zu den putzigen ollen 5,25-Disketten noch ein Laufwerk? Und dazu einen passenden Computer, der das Textverarbeitungsprogramm Wordstar lesen kann? Die Daten sind ein paar Jahre alt, und schon sind sie nicht einmal mehr Hieroglyphen; denn auch die rätselhaftesten Schriftzeichen kann der Mensch irgendwann entziffern, solange er sie sehen kann. Für die Daten auf einem Magnetband aber hat der Mensch keine Augen. Da sieht nur das Laufwerk, was draufsteht. Wir sind wie ein umgekehrtes PolaroidFoto. Wir verblassen und sind am Ende gar nicht mehr da. QIC-80-Streamer? Kaum noch zu finden. Lochkarten? Gibt es nichtmal mehr auf dem Müll. Die Nasa durchforstet derzeit das Internet-Aktionshaus E-Bay nach 8086-Computerchips. Die gab es vor rund zwanzig Jahren und sind die Ur-Ur-Ur-UrUr-Ur-Enkel des aktuellen Prozessors Pentium IV Die Nasa braucht die alten Chips, weil sich manche ihrer Systeme darauf stützen und nicht auf die modernen Nachfolger. Selbst wenn man es schafft, alte Lesegeräte für alte Medien aufzutreiben: Womöglich ist es trotzdem zu spät. Der Inhalt von 1,2 Millionen Magnetbändern aus drei Jahrzehnten amerikanischer Raumfahrt ist weg. Wenn so ein Band jetzt bei der Nasa abgespielt wird, löst sich die Magnetschicht von der Trägerfolie, das Band zerschmilzt oder zersetzt sich. Der Archaeology Data Service an der britischen Universität von York kann einen Teil seiner Computerdaten über Bronzezeit-Ausgrabungen in den neunziger Jahren wegschmeißen.
    Auch die digitalen Aufzeichnungen der DDR-Behörden: bis zu 30 Prozent unbrauchbar. Weil falsch gelagert und nicht gepflegt. Moderne Medien sind empfindlicher als Bücher: Wenn ein Gedichtband in die Badewanne fällt, ist er nass. Wenn eine Diskette hineinfällt, ist sie näss und wahrscheinlich kaputt. Wo sind in fünfzig Jahren all die Magisterarbeiten? All die Aufsätze? All die Urlaubsvideos? All die Briefe? So gesehen sind Höhlenmalereien einer CD weit überlegen. Man kriegt in eine Höhle kein Gigabyte, aber das Gekritzel hält sich über Jahrtausende. Eine CD kann nach fünf Jahren unlesbar sein. Auch ägyptisches Pergament und mittelalterliches Papier, noch ohne Säure drin, sind bessere Speichermedien als eine Videokassette. Das heißt: Sie sind ein besseres Gedächtnis. Die heutige Welt speichert viel mehr. Es gibt eine Schätzung, derzufolge wir seit 1945 hundert Mal mehr Informationen erzeugt und gespeichert haben als die Menschheit in ihrer ganzen Geschichte zuvor. Die heutige Welt vergisst aber auch viel schneller. Also: Ein Magnetband hält sich zehn bis 30 Jahre. Ein VHS-Band auch. Ein Mikrofilm lebt zehn bis 500 Jahre, je nach Pfle ge. Säurehaltiges Zeitungspapier: zehn bis 20 Jahre. Dia: hundert Jahre. Festplatte: 20 Jahre. CD: fünf bis 200 Jahre. Die Schätzungen sind umso gröber, je neuer die Medien sind - es fehlen die Erfahrungswerte. Und das Internet? Die größte aller Bibliotheken, das gewaltigste aller Postämter? In dem alle acht Minuten die gleiche Datenmenge entsteht, die das nationale Archiv der USA verwaltet? Das Internet ist wissensdurstig wie ein Kind, aber vergesslich wie ein Greis. Die durchschnittliche Lebensdauer einer Internetseite liegt bei sechs bis acht Wochen. Wer will da gewährleisten, dass Daten im Internet überleben? Wer will mit Sicherheit sagen, dass es die richtigen Daten sind und nicht die entscheiden, ob Daten überhaupt wichtig sind, wichtig genug, um der Nachwelt erhalten zu bleiben? Die Betreiber von www.archive.org speichern, was kommt, Spreu wie Weizen: Sie durchkämmen das Internet jeden Tag nach neuen, öffentlich zugänglichen Seiten. Die speichern sie dann auf digitalen Bändern - damit die Seite weiterlebt, wenn sie im Internet nur noch 404 File Not Found ist. Wissenschaftler diskutieren, ob es im Internet nicht so etwas wie eine DNA geben könnte, ein automatisches Speichern, durch das sich die Informationen selbst weiterkopieren - und das immer im aktuellsten Dateiformat. Dann ginge nichts verloren. Aber die Datenmenge würde wachsen wie ein Ballon. Wollen unsere Enkel das lesen? Also müssen wir das tun, was auch unsere Vorfahren getan haben, um Schriften zu erhalten: abschreiben. Kopieren, was uns wichtig erscheint. Wegen immer neuer Dateitypen und Speichermedien ist das mühsam. Bei größeren Datenmengen, wie Firmen und Behörden sie verwalten, ist es auch ziemlich teuer. Viele Informationen ohne Marktwert werden daher jung sterben. Die Höhlenmalereien dagegen werden wir wohl noch in hundert Jahren besichtigen können - auch wenn sie nicht einmal ein Backup hatten."
  8. Barabási, A.-L.: Linked: The New Science of Networks (2002) 0.02
    0.020184655 = product of:
      0.06055396 = sum of:
        0.027345572 = weight(_text_:wissen in 2015) [ClassicSimilarity], result of:
          0.027345572 = score(doc=2015,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.16677932 = fieldWeight in 2015, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
        0.03320839 = weight(_text_:geschichte in 2015) [ClassicSimilarity], result of:
          0.03320839 = score(doc=2015,freq=2.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.18379031 = fieldWeight in 2015, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Barabási erklärt dem Leser seines Buches darüber hinaus noch, wie es zu solchen Phänomenen kommt. Soziale Prozesse im Netz wirken so, dass bereits bekannte Seiten mit größerer Wahrscheinlichkeit auch wieder weitere Links oder neue Besucher anziehen. Barabási ist Physiker an der Notre-Dame University und ihm fehlt ebenso wie Huberman die informationswissenschaftliche Perspektive. Er fragt also kaum, wie kann das Wissen über Netzwerke zu Verbesserungen in Informationssystemen führen, die Benutzerbedürfnisse besser erfüllen. Gleichwohl lohnt sich die Lektüre auch für Informationswissenschaftler. Barabäsi stellt die aktuelle Forschung zur Netzwerkstruktur des Internets auf einfache Weise fast ohne Zugeständnisse an Aktualität und Komplexität dar. Wie Huberman verzichtet auch er weitgehend auf Formeln und andere Formalismen. Der in Ungarn geborene Barabási lässt darüber hinaus keine Anekdote aus, sei es über die Begründer der Graphen-Theorie, im peer-review abgelehnte Beiträge und persönliche Begegnungen mit anderen Forschern. Barabási beginnt mit einfachen Netzwerkstrukturen und schreitet didaktisch über internet-ähnliche Netzwerke weiter zu Anwendungen und praktischen Beispielen aus unterschiedlichsten Disziplinen. Er schafft mit seinem Buch "Linked" unter anderem Links zwischen der ungarischen Literatur, dem I-Love-You Computer-Virus, der Verbreitung von Aids, den Theorien Einsteins, den Aufsichtsräten der wichtigsten amerikanischen Firmen, dem Al-Qaeda-Netzwerk und der Struktur und der Funktion biologischer Zellen. Zu Beginn seines Buches berichtet Barabási von sogenannten kleinen Welten, in denen viele Objekte über wenige Verbindungen zusammenhängen. Ein Blick in den eigenen größeren Bekanntenkreis mag bestätigen, dass viele Menschen über wenige Schritte zwischen Bekannten erreichbar sind. Sowohl Barabäsi als auch Huberman gehen auf die Geschichte des ersten sozialwissenschaftlichen Experiments zu diesem Thema ein, das in den 1960er Jahren versuchte, die Anzahl von Schritten zwischen gemeinsamen Bekannten zu bestimmen, welche vom Mittleren Westen der USA an die Ostküste führt. Die genauere Struktur solcher Systeme, in denen manche Knoten weitaus mehr Beziehungen zu anderen eingehen als der Durchschnitt, führt hin zum Internet. Im Web lässt sich keineswegs immer ein Pfad zwischen zwei Knoten finden, wie noch vor wenigen Jahren vermutet wurde. Die durchschnittliche Entfernung war damals noch mit 19 Klicks berechnet worden. Vielmehr herrscht eine differenziertere Struktur, die Barabási vorstellt und in der zahlreiche Seiten in Sackgassen führen. Huberman wie Barabási diskutieren auch negative Aspekte des Internet. Während Huberman die Wartezeiten und Staus bei Downloads analysiert, bespricht Barabási die rasante Verbreitung von ComputerViren und weist auf die Grundlagen für diese Gefährdung hin. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  9. Springer, M.: Wie frei bleibt das Internet? : Das neue Medium zwischen Anarchie und Zensur (2011) 0.02
    0.020184655 = product of:
      0.06055396 = sum of:
        0.027345572 = weight(_text_:wissen in 4386) [ClassicSimilarity], result of:
          0.027345572 = score(doc=4386,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.16677932 = fieldWeight in 4386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4386)
        0.03320839 = weight(_text_:geschichte in 4386) [ClassicSimilarity], result of:
          0.03320839 = score(doc=4386,freq=2.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.18379031 = fieldWeight in 4386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4386)
      0.33333334 = coord(2/6)
    
    Content
    Doch so eindeutig sind Gut und Böse im Dreieck Bürger-Staat - Internet nicht verteilt. Nur auf den ersten Blick steht der Einzelne, der sein Recht auf uneingeschränkte Information beansprucht, im Bund mit einem möglichst freien Internet, während der Staat das neue Medium angeblich bloß reglementieren will. Zu einer anderen Einschätzung kommt der Rechtswissenschaftler Tim Wu von der New Yorker Columbia University in seinem Buch »The Master Switch: The Rise and Fall of Information Empires«. Wu untersucht die Geschichte der Medien Radio, Tonträger, Film, Fernsehen und Internet in den USA und demonstriert an zahlreichen Beispielen ein wiederkehrendes Muster: Die jeweils neueste Technik macht Firmen reich, die mit ihrer wirtschaftlichen Macht ein Monopol darauf durchsetzen. Erst die Einführung der nächsten »neuen« Medientechnik bricht die ökonomische Alleinherrschaft. Im Licht von Wus Befund muss ich mein Dreieck zu einem Quadrat erweitern, mit mächtigen Medienkonzernen als viertem Pol. Aktuelle Beispiele wären Google und Apple. Jeder von beiden schickt sich auf seine Weise an, ein geschlossenes System zu organisieren, das sich krakengleich über das Internet ausbreitet, um es möglichst umfassend zu vereinnahmen. Der Grund ist nicht etwa, dass die zwei Möchtegern-Monopolisten »böse« wären - sie sind nur einfach auf expansives Wirtschaften programmiert. Im Viereck Bürger -Staat - Internet -Wirtschaft kommt darum dem Staat laut Wu eine durchaus positive Rolle zu: Er soll verhindern, dass das neue Medium von Konzernen vereinnahmt wird. So könnte etwa eine Kartellbehörde ihr Augenmerk speziell auf geballte Medienmacht im Internet richten. Übrigens: Wissen Sie, warum »Der Glöckner von Notre-Dame« in Hollywood gedreht wurde? Auch darüber gibt Wus Buch Auskunft. Die Firma des Erfinders Thomas Edison kontrollierte Anfang des 20. Jahrhunderts mit ihren Patenten die gesamte Filmtechnik. Unter anderem diktierte sie, dass ein Kinofilm nur wenige Minuten lang sein dürfe, um die Aufmerksamkeit des Publikums nicht zu ermüden. Vor solchen Vorschriften flohen die ersten Filmstudios von der Ostküstenach Kalifornien - und gründeten Hollywood."
  10. Mohr, H.: Wissen : Prinzip und Ressource ; [die Zukunft gehört der Wissensgesellschaft] (1999) 0.02
    0.019137915 = product of:
      0.114827484 = sum of:
        0.114827484 = weight(_text_:wissen in 5019) [ClassicSimilarity], result of:
          0.114827484 = score(doc=5019,freq=12.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.7003273 = fieldWeight in 5019, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=5019)
      0.16666667 = coord(1/6)
    
    Abstract
    In seinem neuen Buch stellt der Biologe und Erkenntnistheoretiker Hans Mohr die Bedeutung des Wissens für die moderne Welt in den Brennpunkt seiner Betrachtungen. Von den Formen des Wissens - Sachwissen und Orientierungswissen - geht er über auf den Sonderstatus des wissenschaftlichen Wissens und dessen Eigenschaft als Kulturgut und Produktionsfaktor, die Verwandlung von Information in Wissen und Innovation bis hin zu den ethischen, technischen und politischen Dimensionen
    RSWK
    Wissen / Wissenschaft / Erkenntnis (213) (321)
    Wissen / Gesellschaft (BVB)
    Subject
    Wissen / Wissenschaft / Erkenntnis (213) (321)
    Wissen / Gesellschaft (BVB)
  11. Miedtke, E.: ILEKS - Meilen- und Baustein der Distribution von Online-Dienstleistungen der Öffentlichen Bibliotheken (2001) 0.02
    0.019059878 = product of:
      0.05717963 = sum of:
        0.046878126 = weight(_text_:wissen in 522) [ClassicSimilarity], result of:
          0.046878126 = score(doc=522,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.28590742 = fieldWeight in 522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=522)
        0.010301504 = product of:
          0.030904513 = sum of:
            0.030904513 = weight(_text_:22 in 522) [ClassicSimilarity], result of:
              0.030904513 = score(doc=522,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.23214069 = fieldWeight in 522, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=522)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    ILEKS (Internet-Lektoratsservice) als Nachnutzung des BINE-Projekts läuft derzeit als Initiative der Stadtbibliotheken in Bremen, Berlin, Paderborn und Hannover sowie der Büchereizentrale Schleswig-Holstein und der Landesfachstelle für Öffentliche Bibliotheken an der Bayerischen Staatsbibliothek. Die Konsortialpartner wählen zu den Themenbereichen "Reisen", "Krebs", "Computer", "Computerspiele", "Kriminalliteratur", "Musik" sowie "Berlin" und "Bremen" Internetquellen aus, bewerten und erschließen sie. Um diesen Dienstleistungsservice thematisch zu erweitern, muss die Beteiligung auf eine breitere Basis gestellt werden. Dazu gibt es eine Initiative des dbv, die mit externer Finanzierung durch zwei private Partner, der Bertelsmann-Stiftung und der SISIS GmbH, ein weiterführendes Projekt "Internetbibliothek. de" ins Leben gerufen hat. Das Konzept ILEKS und die bis dato gemachten Erfahrungen sind ein wichtiger Meilen- und Baustein der Online-Distribution neuer Servicedienstleistungen der Öffentlichen Bibliotheken für Wissen und Information!
    Date
    22. 3.2008 13:47:28
  12. dpa: ¬Die brisante Wikipedia : "Wikileaks" zeigt Geheimdokumente (2009) 0.02
    0.019059878 = product of:
      0.05717963 = sum of:
        0.046878126 = weight(_text_:wissen in 2987) [ClassicSimilarity], result of:
          0.046878126 = score(doc=2987,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.28590742 = fieldWeight in 2987, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=2987)
        0.010301504 = product of:
          0.030904513 = sum of:
            0.030904513 = weight(_text_:22 in 2987) [ClassicSimilarity], result of:
              0.030904513 = score(doc=2987,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.23214069 = fieldWeight in 2987, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2987)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Das Internetportal Wikileaks ist in Deutschland bislang weitgehend unbekannt. Das könnte sich ändern: In den vergangenen Tagen hat es mit zwei brisanten Veröffentlichungen für Schlagzeilen gesorgt. Erst förderte es Hunderttausende SMS und andere Textnachrichten zutage, die in den Wirren der Terroranschläge vom 11. September in New York verschickt wurden, dann tausende Seiten des bislang unter Verschluss gehaltenen Mautvertrags zwischen der Bundesregierung und dem Betreiberkonsortium Toll Collect. Unethisches Verhalten soll enthüllt werden Dass der Name an Wikipedia erinnert, ist kein Zufall. Wie bei dem großen Mitmach-Lexikon kann jeder etwas veröffentlichen. Es geht aber nicht um das Wissen der Welt, sondern um geheime Dokumente, undichte Stellen also daher findet sich auch das "leak" im Namen. Die Portal-Betreiber sehen sich als "Ansprechpartner für diejenigen, die unethisches Verhalten in Regierungen oder Unternehmen enthüllen wollen." Diesen sichern die Macher volle Anonymität zu. Kritische Journalisten und Blogger sollen die geheimen Informationen aufgreifen und so Öffentlichkeit herstellen. Kritiker vermissen redaktionelle Kontrolle. Die »Federation of American Scientists" etwa beklagt, Veröffentlichungen könnten "einen Akt der Aggression oder eine Aufwiegelung zur Gewalt darstellen, nicht zu erwähnen das Eindringen in die Privatsphäre oder der Angriff auf den guten Geschmack.""
    Date
    3. 5.1997 8:44:22
  13. Tötenberg, I.; Haage, U.: ¬Die Digitale Bibliothek NRW (1999) 0.02
    0.018976223 = product of:
      0.11385733 = sum of:
        0.11385733 = weight(_text_:geschichte in 4048) [ClassicSimilarity], result of:
          0.11385733 = score(doc=4048,freq=2.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.6301382 = fieldWeight in 4048, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.09375 = fieldNorm(doc=4048)
      0.16666667 = coord(1/6)
    
    Abstract
    Bericht über Geschichte und Konzept der Digitalen Bibliothek NRW
  14. Rötzer, F.: Internet ist überlebensnotwendig (2001) 0.02
    0.017569456 = product of:
      0.052708365 = sum of:
        0.023439063 = weight(_text_:wissen in 6481) [ClassicSimilarity], result of:
          0.023439063 = score(doc=6481,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.14295371 = fieldWeight in 6481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6481)
        0.029269304 = product of:
          0.043903954 = sum of:
            0.02205116 = weight(_text_:29 in 6481) [ClassicSimilarity], result of:
              0.02205116 = score(doc=6481,freq=4.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.1648916 = fieldWeight in 6481, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=6481)
            0.021852793 = weight(_text_:22 in 6481) [ClassicSimilarity], result of:
              0.021852793 = score(doc=6481,freq=4.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.16414827 = fieldWeight in 6481, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=6481)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Content
    "Im Rahmen der von EMNID im Auftrag von AOL durchgeführten "ePeople-Studien" ging es bei der jüngsten Befragung um das Therna "Kinder und Internet". Berragt wurden 1.500 Haushalte über die Nutzung des Internet. Das Ergebnis, daß mittlerweile die Mehrzahl der 6- bis 18Jährigen bereits das Internet nutzen, wird dabei ebenso wenig überraschen wie der Umstand, daß die Eltern den Umgang mit ihm geradezu für überlebensnotwendig erachten. Möglicherweise war es ja nur ein Versehen, daß die Befragung "Kinder und das Internet - Nachwuchs für das World Wide Web" genannt wurde. Da glaubt man sich gleich in den Bereich der Memetik versetzt, da auch bei dieser Theorie davon ausgegangen wird, daß nicht etwa Menschen Bücher oder sonst etwas suchen, sondern Bücher oder Bibliotheken wie Parasiten die Menschen infizieren, um sich in deren Geist als Mein zu reproduzieren. Von Memetik haben aber vielleicht so viele noch gar nichts gehört, weswegen man vermuten darf, daß mit der Studie zugleich für die schöne, neue und saubere Welt des Web geworben werden soll, die wahrscheinlich noch besser unter den Fittichen von AOL zu finden ist. Dunkle oder kritische Aspekte wird man bei dieser Befragung nicht finden. Es sei denn, man legt die Ergebnisse gewissermaßen gegen die Intention aus. Wenn so etwa 73 Prozent der Befragten, was, hochgerechnet, die Meinung von 46,6 Millionen Bundesbürgern über 14 Jahre wäre, dem Satz zustimmen, daß sich "nur mit einem sicheren Internet-Umgang Kinder auf dem Arbeitsmarkt der Zukunft behaupten" werden, dann fehlen da möglicherweise nicht nur Auswahlmöglichkeiten, sondern kann man auch einen ungeheuren Anpassungsdruck erkennen. Wer nicht drin ist, ist draußen. Gute Arbeit haben da Politiker, Unternehmer und Ideologen geleistet. 74 Prozent der Befragten haben übrigens keine Kinder (mehr) im Haushalt, allerdings sind davon wieder 83 Prozent zwischen 14 und 29 Jahre alt.
    Nimmt man noch hinzu, daß 35 Prozent (hochgerechnet 22 Millionen Bürger) glauben, Kinder, die den Umgang mit dem Internet nicht beherrschen, seien auch - was immer das heißen mag - privat benachteiligt, dann läßt sich bemerken, daß das Internet für viele offenbar bereits mindestens den Stellenwert der früheren Alphabetisierung einnimmt. Man könnte gar vermuten, daß diese mitsamt anderen Grundkenntnissen hintan gesetzt wird, wenn die Hälfte der Haushalte mit des Satz übereinstimmt, daß die Kinder so früh wie möglich ans Internet herangeflihrt werden müßten. Aber, wie gesagt, bei Befragungen, die nur bestimmte Meinungen abhaken, fallen Zwischentöne und reflektierte Meinungen schlicht unter den Tisch. Bei 34 Prozent der Haushalte herrscht die Meinung vor, daß die Schulen für die Internetkompetenz genug machen, 74 Prozent sehen Eltern oder ältere Geschwister in der Pflicht, dem Web-Nachwuchs die notwendigen Fertigkeiten nahezubringen. Wie auch immer, so scheint die Intemetnutzung bereits ziemlich hoch zu sein. 25 Prozent der 6- bis 18-Jährigen gehen mehrmals im Monat, 30 Prozent mehrmals in der Woche, 9 Prozent mehrmals täglich ins Internet, wobei bei den unter 14-Jährigen schon 47 Prozent mehrmals wöchentlich online sind. Nur 26 Prozent haben nach der Befragung noch keine Erfahrung mit dem Internet, was sich aber bei 9 Prozent noch in diesem Jahr ändern soll. Lediglich 15,8 Prozent der Befragten gaben an, dass eine Internetnutzung "nicht geplant" sei. Für den Standort Deutschland ist erfreulich, daß sich 83 Prozent der Kinder und Jugendlichen "regelmäßig" über das Internet "gezielt" Informationen beschaffen, auch wenn wir nicht genau wissen, um welche Art der Informationen es sich dabei handelt. Bei der Befragung ging es um spezielle Interessen (Sport, Hobby etc.), was dann schon wahrscheinlicher klingt.
    Date
    29. 1.1997 18:49:05
    21. 6.2005 21:22:09
  15. Schmidt, J.: Online-Forschung : Wissen über das Netz (2005) 0.02
    0.017226094 = product of:
      0.10335656 = sum of:
        0.10335656 = weight(_text_:wissen in 3522) [ClassicSimilarity], result of:
          0.10335656 = score(doc=3522,freq=14.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.6303667 = fieldWeight in 3522, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3522)
      0.16666667 = coord(1/6)
    
    Abstract
    Parallel zur Verbreitung und Institutionalisierung des Internet hat sich die sozialwissenschaftliche Online-Forschung etabliert. Sie erzeugt in zweifacher Hinsicht »Wissen über das Netz«: Beim »Forschen mit dem Netz« nutzt sie das Medium als Instrument der Datenerhebung, beim »Forschen im Netz« betrachtet sie die Vielzahl sozialer Formen, die das Internet hervorbringt. Prominentes Beispiel für das »Forschen mit dem Netz« ist die regelmäßig durchgeführte Umfrage »Perspektive Deutschland«, bei der Bürger ihre Meinung zu aktuellen gesellschaftlichen Entwicklungen online abgeben können. Der Vorteil: Über das Internet kann schnell und vergleichsweise kostengünstig eine sehr große Anzahl von Antworten erhoben werden - die etwa 450.000 Teilnehmer bei der Umfrage von 2003 wären mit herkömmlichen schriftlichen oder telefonischen Untersuchungen nicht zu erreichen gewesen. In diesem Beitrag soll es jedoch weniger um die Diskussion gehen, welche Vor- und Nachteile das Internet als Instrument der Datenerhebung aufweist. Vielmehr werden anhand von drei Leitfragen Aspekte beleuchtet, die Online-Forschung als Mechanismus kennzeichnen, um Wissen über das Netz zu generieren: »Was wissen wir?« fragt nach, wie sich die Online-Forschung in den vergangenen Jahren entwickelt hat. - »Was können wir wissen?« zeigt die Pole auf, zwischen denen sich die Online-Forschung bewegt. - »Was wollen wir wissen?« stellt Fragen vor, die in Zukunft von der Online-Forschung bearbeitet werden sollten. Den Antworten liegt die Überlegung zu Grunde, dass die Differenzierung der Online-Forschung zu einer Fragmentierung von Wissen zu führen droht, wenn sich die Analysen auf einzelne Aspekte der Internet-Nutzung beschränken und den (Wechsel-)Wirkungen zwischen Nutzer, Technologie und sozialem Kontext nicht gerecht werden.
  16. Wolff, V.: Job für Kreative : "Eierlegende Wollmilchsäue": Entwickler von Internet-Seiten müssen Surfer fesseln können (2004) 0.02
    0.01716384 = product of:
      0.051491514 = sum of:
        0.027345572 = weight(_text_:wissen in 2126) [ClassicSimilarity], result of:
          0.027345572 = score(doc=2126,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.16677932 = fieldWeight in 2126, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2126)
        0.024145942 = product of:
          0.03621891 = sum of:
            0.018191276 = weight(_text_:29 in 2126) [ClassicSimilarity], result of:
              0.018191276 = score(doc=2126,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.13602862 = fieldWeight in 2126, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2126)
            0.018027633 = weight(_text_:22 in 2126) [ClassicSimilarity], result of:
              0.018027633 = score(doc=2126,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.1354154 = fieldWeight in 2126, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2126)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Content
    "Für das Internet sind kreative Ideen lebensnotwendig - denn langweilige Seiten fesseln leider keinen Surfer lange. Auch deswegen sind zahlreiche neue Berufe entstanden, darunter der des Internet-Entwicklers oder Web-Developers. Das sind nicht die einzigen Bezeichnungen für die oft "eierlegenden Wollmilchsäue", die von allen Bereichen eines Webauftritts Ahnung haben müssen. Der Deutsche Multimedia Verband (www.dmmv.de) definiert vier relevante Tätigkeitsfelder der Multimediabranche, von denen drei in den Bereich der Internet-Entwicklung hineinreichen: "Informationstechnologie mit einem eher technischen Schwerpunkt, Design, Content und die inhaltliche Entwicklung", nennt Stefan Sievers, Referent für Aus- und Weiterbildung beim dmmv in Berlin. Die Anforderungen, die dabei an einen Entwickler gestellt werden, sind vielschichtig. "Da muss auf der einen Seite eine Datenbankanbindung für einen Reiseveranstalter programmiert werden, die mit unzähligen Anfragen gleichzeitig umgehen kann. Aber auch eine schicke Flash Animation fällt unter InternetEntwicklung", erklärt Dirk Rathje, Geschäftsführer von Sand und Schiefer in Hamburg, einem "büro für neues lernen", in dem webbasierte Lernsoftware entwickelt wird. - Keine einheitliche Berufsbezeichnung Die Berufsbezeichnung ist auch innerhalb der Entwicklerschaft nicht einheitlich. So sehen sich in einem Internet-Forum einige als Anwendungsentwickler, andere schlicht als Programmierer und wieder andere als Allround-Computerspezialisten. Wie auch immer die korrekte Bezeichnung lautet - "Entwickler schreiben Internetseiten mithilfe von Skriptsprachen und erzeugen den eigentlichen HTML-Inhalt dynamisch, indem Daten aus einer Datenbank gelesen und entsprechend verarbeitet werden", erläutert Cornelia Winter, Referentin der Geschäftsführung bei der Gesellschaft für Informatik (GI) in Bonn (www.gi-ev.de). Entwickler Rathje unterscheidet sowohl bei Aufgaben als auch bei den erforderlichen Kenntnissen und Qualifikationen zwischen der so genannten server- und der clientseitigen Programmierung: "Clientseitig ist alles, was im Webbrowser abläuft: HTML, Flash, Javascript. Das kann zwar beliebig schwierig und aufwendig werden, einfache Lösungen erzeugen moderne Webeditoren aber schon fast von selbst." Für die serverseitige Programmierung brauche es hingegen fundierte Informatikkenntnisse, sagt der 29-Jährige. "Da muss man mit Datenbanken umgehen können und Architekturen wie J2EE oder.net beherrschen." Andere Entwickler nennen als "Minimal-konfiguration für ihren Berufsstand Kenntnisse in verschiedenen Programmiersprachen, als Zusatzqualifikation XML, das allgemeine SQL, Perl, C++ und Erfahrung mit dem freien Betriebssystem Linux, über das Server nicht selten konfiguriert und gewartet werden. Aber der Web-Entwickler setzt nicht erst bei der Programmierung der Seiten an. Seine Aufgabe beginnt schon viel früher. "Es gibt zwei Sorten von Kunden: Die einen wollen eine Webpräsenz, wissen aber nicht genau, was möglich ist. Die anderen haben sehr genaue Vorstellungen des Möglichen und wollen die Aufgaben outsourcen", sagt Rathje. Also werden Seiten konzipiert, durchstrukturiert und danach dann programmiert. "Bei all dem sollte der Entwickler immer Nutzer vor Augen haben. Denn schließlich errichtet er eine Schnittstelle zur MenschMaschine-Kommunikation", sagt der Lernsoftware-Entwickler. Die Entwickler haben in großen Unternehmen gute Chancen auf spezielle und begrenzte Aufgabenbereiche - so kann sich einer um die Datenbankanbindung kümmern, während andere sich der Generierung von Benutzerschnittstellen widmen.
    Date
    3. 5.1997 8:44:22
  17. Weber, K.: Aufgaben für eine (globale) Wissensgesellschaft oder "Welcome to the new IT"? (2004) 0.02
    0.017042376 = product of:
      0.05112713 = sum of:
        0.04419712 = weight(_text_:wissen in 3136) [ClassicSimilarity], result of:
          0.04419712 = score(doc=3136,freq=4.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.2695561 = fieldWeight in 3136, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=3136)
        0.0069300104 = product of:
          0.020790031 = sum of:
            0.020790031 = weight(_text_:29 in 3136) [ClassicSimilarity], result of:
              0.020790031 = score(doc=3136,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.15546128 = fieldWeight in 3136, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3136)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Nicht nur in der wissenschaftlichen, sondern auch oder gerade in der öffentlichen Diskussion wird viel von der "Wissensgesellchaft" gesprochen. Einmal davon abgesehen, dass dieser Ausdruck oftmals mit ganz verschiedenen Intentionen benutzt wird - so im Hinblick auf die Notwendigkeit, in der Arbeitswelt lebenslang zu lernen, auf die Wissensgeladenheit vieler neuer Produkte oder auf die Verlagerung von Bildungsprozessen von Schulen und Universitäten ins Internet -, ist bei genauerer Betrachtung nicht klar, wo Wissensgesellschaften existieren, im Entstehen begriffen sind oder entstehen könnten, d. h. welche Gesellschaften den Transformationsprozess von der XYZ- zur Wissensgesellschaft in der Vergangenheit schon vollzogen haben, gerade vollziehen oder in Zukunft vollziehen werden. Es ist auch nicht klar, ob es nur eine oder viele Wissensgesellschaften gibt, geben soll oder geben wird. Schon aus diesen wenigen Bemerkungen wird ersichtlich, dass die Rede von der (globalen) Wissensgesellschaft ähnlich wie jene von der Globalisierung alles andere als klar ist. In einem Überblick soll im Folgenden deshalb versucht werden, diese Unklarheiten zumindest ein wenig zu beseitigen. Es wird dabei deutlich, dass sich selbst nur lokale Wissensgesellschaften im Grunde allenfalls in statu nascendi befinden und eine globale Wissensgesellschaft noch in weiter Ferne liegt oder gar eine nicht zu realisierende Utopie darstellt. Zunächst wird der status quo beschrieben, also die große Ungleichheit in der Möglichkeit der Internetnutzung, global und auf das geografische Europa bezogen. Danach wird versucht, anzudeuten, welche Probleme gelöst werden müssten, damit diese Ungleichgewichtung abgebaut werden kann oder doch zumindest nicht noch größer wird. Zuletzt soll der Entwurf einiger Grundsätze aufgezeigt werden, die für die Gestaltung lokaler Wissensgesellschaften handlungsleitend sein sollten und meines Erachtens notwendige Bedingungen der Möglichkeit sowohl lokaler als auch globaler Wissensgesellschaften darstellen. Der damit verbundene nornative Anspruch wird dabei mit der Annahme begründet, dass sich Informationen, Wissen und Bildung in der immer komplexer werdenden Welt zu Grundgütern entwickelt haben, ohne die auf der personalen Ebene ein gelungenes Leben kaum noch zu führen ist und ohne die auf der Ebene der Gemeinwesen eine Entwicklung ökonomisch benachteiligter Länder und Regionen beeinträchtigt oder gar verunmöglicht wird bzw. die schon hochindusthalisierten Staaten den bisher erreichten Lebensstandard nicht halten werden können.
    Date
    29. 1.2005 18:01:56
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  18. Diedrichs, R.: Bezug und Bereitstellung elektronischer Publikationen : Integration auf Verbundebene - das Beispiel des GBV (1998) 0.02
    0.016668186 = product of:
      0.100009106 = sum of:
        0.100009106 = product of:
          0.15001366 = sum of:
            0.08820464 = weight(_text_:29 in 2360) [ClassicSimilarity], result of:
              0.08820464 = score(doc=2360,freq=4.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.6595664 = fieldWeight in 2360, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2360)
            0.061809026 = weight(_text_:22 in 2360) [ClassicSimilarity], result of:
              0.061809026 = score(doc=2360,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.46428138 = fieldWeight in 2360, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2360)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    23.10.1996 17:26:29
    29. 4.2000 8:49:10
    Source
    Bibliothek: Forschung und Praxis. 22(1998) H.1, S.81-83
  19. Herrmann, C.: Partikulare Konkretion universal zugänglicher Information : Beobachtungen zur Konzeptionierung fachlicher Internet-Seiten am Beispiel der Theologie (2000) 0.02
    0.016097296 = product of:
      0.09658377 = sum of:
        0.09658377 = product of:
          0.14487565 = sum of:
            0.072765104 = weight(_text_:29 in 4364) [ClassicSimilarity], result of:
              0.072765104 = score(doc=4364,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.5441145 = fieldWeight in 4364, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4364)
            0.07211053 = weight(_text_:22 in 4364) [ClassicSimilarity], result of:
              0.07211053 = score(doc=4364,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.5416616 = fieldWeight in 4364, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4364)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 1.2000 19:29:08
  20. Niehaus, M.: Durch ein Meer von Unwägbarkeiten : Metaphorik in der Wissensgesellschaft (2004) 0.02
    0.015909206 = product of:
      0.047727615 = sum of:
        0.0390651 = weight(_text_:wissen in 3134) [ClassicSimilarity], result of:
          0.0390651 = score(doc=3134,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.23825617 = fieldWeight in 3134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3134)
        0.008662513 = product of:
          0.02598754 = sum of:
            0.02598754 = weight(_text_:29 in 3134) [ClassicSimilarity], result of:
              0.02598754 = score(doc=3134,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.19432661 = fieldWeight in 3134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3134)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    29. 1.2005 18:01:47
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf

Years

Languages

Types

  • a 762
  • m 93
  • s 36
  • el 24
  • x 7
  • r 6
  • i 2
  • b 1
  • More… Less…

Subjects

Classifications