Search (11 results, page 1 of 1)

  • × author_ss:"Charlier, M."
  1. Charlier, M.: Niemals kalter Kaffee im Netz : vom Wissenschaftsverbund zur Datenautobahn. Das Internet wird zur globalen Kommunikationsmaschine (1995) 0.00
    0.004970968 = product of:
      0.059651613 = sum of:
        0.059651613 = weight(_text_:zur in 1329) [ClassicSimilarity], result of:
          0.059651613 = score(doc=1329,freq=4.0), product of:
            0.103322186 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.033555698 = queryNorm
            0.57733595 = fieldWeight in 1329, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.09375 = fieldNorm(doc=1329)
      0.083333336 = coord(1/12)
    
  2. Charlier, M.: Deutsche Schulmeister (1996) 0.00
    0.004686673 = product of:
      0.056240078 = sum of:
        0.056240078 = weight(_text_:zur in 2821) [ClassicSimilarity], result of:
          0.056240078 = score(doc=2821,freq=2.0), product of:
            0.103322186 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.033555698 = queryNorm
            0.54431754 = fieldWeight in 2821, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.125 = fieldNorm(doc=2821)
      0.083333336 = coord(1/12)
    
    Footnote
    Kurzdarstellung zur 'Netiquette', dem 'flaming', den 'flaming wars'
  3. Charlier, M.: Auf den Datenautobahnen ist ein Tempolimit nicht ungewöhnlich : erste 'Strecken' für Informationsdienste sind nun auch hierzulande befahrbar. Weg zur Online-Illustrierten ist noch weit (1995) 0.00
    0.004142473 = product of:
      0.049709674 = sum of:
        0.049709674 = weight(_text_:zur in 28) [ClassicSimilarity], result of:
          0.049709674 = score(doc=28,freq=4.0), product of:
            0.103322186 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.033555698 = queryNorm
            0.48111326 = fieldWeight in 28, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.078125 = fieldNorm(doc=28)
      0.083333336 = coord(1/12)
    
    Content
    Bericht über Aktivitäten von Privatfirmen, Zugänge zum Internet anzubieten: BDA = Bundesdatenautobahn (Verbund regionaler Informationsanbieter von der Norddeutschen (NDA) in Hamburg bis zur Bayrischen Datenautobahn in München); DDA = Deutsche Datenautobahn (XLink, Karlsruhe und Free Software Association, Frankfurt)
  4. Charlier, M.: ¬Die Auffahrten zur Datenautobahn sind schon da : auch in der Bundesrepublik wächst das elektronische Supernetz (1994) 0.00
    0.004100839 = product of:
      0.049210068 = sum of:
        0.049210068 = weight(_text_:zur in 3161) [ClassicSimilarity], result of:
          0.049210068 = score(doc=3161,freq=2.0), product of:
            0.103322186 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.033555698 = queryNorm
            0.47627786 = fieldWeight in 3161, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.109375 = fieldNorm(doc=3161)
      0.083333336 = coord(1/12)
    
  5. Charlier, M.: Streng vertraulich (1996) 0.00
    0.0029291706 = product of:
      0.035150047 = sum of:
        0.035150047 = weight(_text_:zur in 5657) [ClassicSimilarity], result of:
          0.035150047 = score(doc=5657,freq=2.0), product of:
            0.103322186 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.033555698 = queryNorm
            0.34019846 = fieldWeight in 5657, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.078125 = fieldNorm(doc=5657)
      0.083333336 = coord(1/12)
    
    Abstract
    Bericht über das zunehmende e-mail 'spamming' mit Angabe div. Adressen für weitere Hinweise: http://www.13x.com (Seite mit Angaben über die gespeicherten Daten bei Kontakt mit einem Server); http://www.cs.berkeley.edu/~raph/remailer-list.html (Text über Anonymisierer); http://www.anonymizer.com (Anonymisierer); http://www.de/freitag/info.html (Pendant zur Robinson-Liste)
  6. Charlier, M.: Im Cyberspace wird umgebaut : Online-Dienste kämpfen mit neuen Angeboten und immer aufwendigerer Technik um neue Kunden (1996) 0.00
    0.0022731668 = product of:
      0.027278 = sum of:
        0.027278 = product of:
          0.054556 = sum of:
            0.054556 = weight(_text_:22 in 4932) [ClassicSimilarity], result of:
              0.054556 = score(doc=4932,freq=2.0), product of:
                0.11750633 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033555698 = queryNorm
                0.46428138 = fieldWeight in 4932, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4932)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    17. 7.1996 9:33:22
  7. Radtke, A.; Charlier, M.: Barrierefreies Webdesign : attraktive Websites zugänglich gestalten ; [berücksichtigt detailliert BITV ; echter Workshop von Analyse bis Relaunch ; im Web: authentisches Praxisprojekt im Vorher-Nachher-Zustand] (2006) 0.00
    0.0014498656 = product of:
      0.017398387 = sum of:
        0.017398387 = weight(_text_:zur in 635) [ClassicSimilarity], result of:
          0.017398387 = score(doc=635,freq=4.0), product of:
            0.103322186 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.033555698 = queryNorm
            0.16838965 = fieldWeight in 635, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.02734375 = fieldNorm(doc=635)
      0.083333336 = coord(1/12)
    
    Abstract
    Dieses Buch beweist: Barrierefreiheit und attraktives Webdesign schließen sich nicht aus! Nach einer Beschreibung der Grundlagen (Behinderungen, mit denen Webdesigner bei ihren Anwendern rechnen müssen, technische Lösungen wie Braille-Zeile, rechtliche Vorgaben etc.) entwickeln die Autoren an einem konkreten Praxisprojekt, wie eine nicht barrierefreie Website barrierefrei gemacht wird. Hierbei beschreiben sie ausführlich die Analyse- und Konzeptionsphase, Design-Kriterien, die technische Umsetzung, Nutzer-Tests sowie die vor und nach dem Relaunch involvierten Prozesse. Ein Kapitel zur barrierefreien Gestaltung einer CMS-basierten Website (Joomla!, TYPO3) rundet das Buch ab.
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.5, S.318 (W. Schweibenz): "Der Titel des Buches verspricht, dass es möglich sei, Web-Sites nicht nur barrierefrei, sondern auch attraktiv zu gestalten. Dieses Versprechen lösen Angie Radtke und Michael Charlier mit einer DemoWeb-Site für die fiktive Gemeinde BadSeendorf (Internet, URL http://www.badseendorf.de) ein. Dort werden einander zwei Versionen gegenübergestellt, wobei der Ausgangspunkt ein barrierebehaftetes Design ist, das durch eine barrierearme Version ersetzt wird. Diese beiden Beispiele wären für sich genommen bereits sehr hilfreich bei der Auseinandersetzung mit dem Thema Barrierefreiheit. In Kombination mit dem zugehörigen Buch haben Radtke und Charlier eine umfassende Einführung geschaffen, die sowohl für die eigenständige Einarbeitung in die Thematik als auch für die Verwendung in der Lehre sehr geeignet ist. In einem knappen theoretisch ausgerichteten Grundlagenteil werden Fragen behandelt wie beispielsweise was Barrierefreiheit ist und wem sie nützt, warum Zugänglichkeit und ansprechendes Design kein Widerspruch sind und welche gesetzlichen Vorgaben gelten. Im Mittelpunkt des umfangreichen Praxisteils steht die genannte Web-Site der fiktiven Gemeinde Bad-Seendorf. Ausgehend von dem barrierebehafteten Design werden an konkreten Beispielen die Probleme bestimmter Nutzergruppen analysiert, zu denen neben den üblicherweise dargestellten Betroffenen auch die Altersgruppe 50plus zählt, die häufig vernachlässigt wird. Weiterhin wird in einzelnen Kapiteln eine Analyse von Barrieren durchgeführt, sowie Maßnahmen zur gezielten Vermeidung von Zugangsblockaden und Zugangserschwernissen aufgezeigt, wobei auch auf multimediale Inhalte und Sonderfälle wie PDF, Flash, und Videos in Deutscher Gebärdensprache eingegangen wird. Eine kurze Beschreibung des Einsatzes von Content-Management-Systemen für barrierefreie Web-Angebote legt den Schwerpunkt auf die Systeme Joomla! und TYPO3.
  8. Charlier, M.: ¬Die Austreibung des Mittelalters : Von der Wissensgemeinde zum geistigen Eigentum und zurück: Forscher wehren sich gegen die Macht der Verlage (2002) 0.00
    0.0012683682 = product of:
      0.015220418 = sum of:
        0.015220418 = weight(_text_:zur in 623) [ClassicSimilarity], result of:
          0.015220418 = score(doc=623,freq=6.0), product of:
            0.103322186 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.033555698 = queryNorm
            0.14731026 = fieldWeight in 623, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.01953125 = fieldNorm(doc=623)
      0.083333336 = coord(1/12)
    
    Content
    "Das finstere Mittelalter überliefert uns befremdliche Bilder von Bibliotheken: Da sind die Folianten an den Pulten angekettet, damit niemand eines der wertvollen Stücke davonträgt. Wohl auch, damit keiner sich mit dem gefährlichen Gut Wissen außerhalb von Aufsicht und Disziplin der Fakultäten zu schaffen machte. Heute findet das Mittelalter in der Deutschen Bibliothek in Frankfurt am Main und Leipzig statt. Wer die als Belegexemplare eingelieferten digitalen Publikationen einsehen will, kann das weder vom privaten Internetanschluss aus noch von dem eines Instituts oder einer Universitätsbibliothek. Forscher müssen nach Frankfurt reisen und einen Leihschein ausfüllen, um dann dort am Terminal die digital angeketteten Veröffentlichungen einsehen zu können. Die Bibliothek ist dafür am wenigsten zu schelten. Da der Gesetzgeber es versäumt hat, die rechtlichen Vorschriften der technischen Entwicklung des Buchwesens anzupassen, sind die Verlage nicht verpflichtet, digitale Publikationen abzuliefern. Die Bibliothekare haben in langwierigen Verhandlungen wenigstens erreicht, dass die Verlage die Bücher freiwillig einreichen - zu ihren Bedingungen. Nicht nur digitale Publikationen hängen an der Kette der Verlage. Spektakulär ist die Entwicklung bei den wissenschaftlichen Zeitschriften. Teuer waren sie schon immer. Nicht ohne Grund, denn ihre Herstellung verlangt hohen Aufwand: Fachlich kompetente redaktionelle Betreuung, aufwendiger Druck (Sonderschriften, IIlustrationen) in oft kleinen Auflagen, Versand in viele Länder der Erde und dann auch noch Lagerhaltung für lange Zeit. In den vergangenen zehn Jahren haben sich die Preise für solche Spezialzeitschriften im Durchschnitt verdreifacht - sie liegen heute zwischen 5.000 und 20.000 USDollar für das Jahresabonnement. Gleichzeitig hat sich die Zahl der relevanten Publikationen etwa verdreifacht. Für eine solide geführte Bibliothek lässt sich daraus eine Verzehnfachung des für die Anschaffung erforderlichen Budgets errechnen. Doch die Etats stagnieren, und in den Regalen breiten sich Lücken aus. Bibliothekare sprechen von einer "Journal-Crisis". Viele Wissenschaftler hat die Entwicklung kalt erwischt. Sie betrachten wissenschaftliche Ergebnisse oft nicht als Waren mit einem Preisschild, sondern als Tauschobjekte in einer Geschenkökonomie: Alle können verwenden, was andere als Baustein zum gemeinsamen Werk beitragen, solange die Anstandsregeln des sauberen Zitierens und der Anerkennung von Prioritäten eingehalten werden. Damit ist es vorbei, seit man weniger von der Wissen- schaftsgemeinschaft, der "Scientific Community" spricht - und mehr von "Intellectual Property", dem geistigen Eigentum: Erkenntnisse sollen unmittelbar is die Produktion übergeführt und zur konsequenten Verwertung patentiert werden.
    Wissenschaftliche Zeitschriften waren früher oft Herzensangelegenheit oder zumindest Prestigeobjekte engagierter Verleger, die zur Not auch mal eine Zeit lang draufzahlten, um einen Titel über die Runden zu bringen. Nach einem mehrjährigen Konzentrationsprozess werden nun fast alle diese Zeitschriften von wenigen international agierenden Großverlagen herausgebracht, die mit ihnen Profitmaximierungsstrategien verfolgen. Das Geschäftsmodell ist simpel: Die Produktion des Wissens erfolgt an Universitäten und Instituten mit staatlichen oder aus der Wirtschaft eingeworbenen Mitteln - also für die Verlage kostenlos. Viele Wissenschaftler sind sogar bereit, "Druckkostenzuschüsse" aufzutreiben, nur damit ihre Arbeitsergebnisse aufs Papier kommen. Die Eigenleistung der Verlage ist da, wo die Autoren ihre Texte auf Diskette einliefern und der Druck aus dem Computer kommt, kaum der Rede wert. Der Gewinn, der sich so erzielen lässt, umso mehr. Margen von 40 Prozent seien nicht selten, sagen Branchenkenner. So wären die wissenschaftlichen Zeitschriften ein perfektes Instrument zum Abgreifen von Staatsknete - gäbe es nicht das Internet. Vielen Wissenschaftlern dauert es zu lange, bis die Verlage ihre Texte in einer vielleicht nur quartalsweise erscheinenden Publikation an die Kollegen bringen. Sie laden daher ihre Manuskripte auf so genannte Preprint-Server, um sie unmittelbar in die wissenschaftliche Diskussion einzubringen: Einer der größeren davon, der Los Alamos Physics Information Service mit der schönen Adresse xxx.lanl.gov, erhält täglich um die hundert Preprints, während seine Datenbank - ebenfalls täglich - mehr als 50.000 Zugriffe verzeichnet. Inzwischen hat sich ein - stellenweise noch etwas chaotisches - Netz solcher Server etabliert, das nahezu alle naturwissenschaftlichen Bereiche abdeckt. Die Gesellschaftswissenschaften ziehen, wenn auch etwas zögerlich, nach. Viele Wissenschaftler veröffentlichen ihre Texte inzwischen auf eigenen Homepages. Seit einigen Jahren schließlich entstehen echte Netzpublikationen: "Electronic Journals" legen Texte in abgeschlossener Form und auf Dauer ab; eine Veröffentlichung auf Papier ist nicht vorgesehen. Damit stehen die Wissenschaftsverlage, die sich bis eben noch im Besitz einer Gelddruckmaschine geglaubt hatten, plötzlich da wie die Heizer auf der E-Lok unseligen Angedenkens: Keiner braucht sie mehr. Die in die Defensive geratenen Verlage verweisen darauf; ihre Redaktionen organisierten in einem teils tatsächlich aufwendigen Verfahren Peer-Reviews: In den guten Blättern erscheint kein Beitrag, der nicht von mehreren anerkannten Fachkennern gegengelesen und oft auch auf Grund ihrer Hinweise umgearbeitet worden ist. Das überzeugt nur begrenzt. Auch den anerkannten Fachleuten sind in den vergangenen Jahren ziemlich viele bewusste Fälschungen durch die Lappen gegangen. Außerdem halten sich hartnäckig Gerüchte, dass um einige Zeitschriften Zitierkartelle und fragwürdige Strukturen entstanden sind, die ganz andere als Gesichtspunkte der Qualität zur Geltung bringen. Viel überzeugender ist: Was im Internet steht, setzt sich von Anfang an der Kritik sämtlicher Fachleute aus. Wenn jemand starke Thesen mit schwacher Begründung vorträgt, wird das im Netz schneller entdeckt und korrigiert als in der Welt periodischer Papier-Veröffentlichungen. Peer-Reviews und Versionsverwaltung lassen sich im Internet genauso gut organisieren wie mit Zeitschriften - und billiger zudem.
  9. Charlier, M.: Pingpong mit Pingback : Lass mich Deine Suchmaschine sein: Webseiten finden neue Wege der Vernetzung (2003) 0.00
    0.001242742 = product of:
      0.014912903 = sum of:
        0.014912903 = weight(_text_:zur in 1475) [ClassicSimilarity], result of:
          0.014912903 = score(doc=1475,freq=4.0), product of:
            0.103322186 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.033555698 = queryNorm
            0.14433399 = fieldWeight in 1475, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1475)
      0.083333336 = coord(1/12)
    
    Abstract
    Die Suchmaschine Google erfasst in ihren Datenbanken nach eigener Auskunft mehr als zwei Milliarden Webseiten. Ob das ein Drittel oder nur ein Viertel aller bestehenden Seiten ist, bleibt umstritten. Aber auch so ergeben Suchanfragen schon eine nicht mehr zu bewältigende Zahl an Treffern - die meisten allerdings weit am Thema vorbei. Um die Seiten, die ihnen einmal positiv aufgefallen sind, wiederzufinden, sammeln fleißige Websurfer Tausende von Bookmarks. Und dann finden sie sich in ihren Lesezeichen nicht mehr zurecht. Information vom Rauschen zu trennen und den Reichtum des Netzes zu erschließen, wird immer schwieriger. Es gibt diverse Projekte, die auf eine Verbesserung dieser Situation abzielen. Die meisten werden noch Jahre bis zum Abschluss benötigen und dann vermutlich auch nur gegen Bezahlung nutzbar sein. Deshalb wird an den Graswurzeln und noch tiefer im Untergrund des Webs derzeit mit technischen Verfahren experimentiert, die auf neuartige Weise die Bildung von persönlichen Informationsnetzen möglich machen. Das ist kostenlos, aber noch nicht so leicht anzuwenden. Da ist z.B. die Blogger-Szene (www.blogworld.de). Blogs sind tagebuchartig geführte und oft mehrfach täglich aktualisierte private Webseiten, auf denen sich Menschen mit gemeinsamen technischen, beruflichen oder persönlichen Interessen treffen. Dort sieht man immer öfter einen kleinen roten Button mit den drei Buchstaben: XML - eine prächtige Kollektion davon bietet der "Hirschgarden" auf http://radio.weblogs.com/0117605/. Wenn man darauf klickt, erscheint eine mehr oder weniger rätselhaft ausgezeichnete Datei, die offensichtlich Informationen zu dieser Seite enthält. Diese Dateien sind so genannte RSS-Feeds, was soviel heißt wie: Lieferanten von angereicherten Seiten-Inhaltsangaben (Rich Site summaries. Das "angereichert" bezieht sich darauf, dass auch Bilder oder Sounddateien angelinkt sein können). Für die Besucher, die schon auf der Seite sind, haben diese kaum entzifferbaren Dateien keinen Wert. Sie sind bestimmt zur Auswertung durch so genannte RSS-Reader - und damit wird die Sache spannend. Wer will, kann sich einen solchen Reader - im Netz werden mehrere davon zum kostenlosen Download angeboten, z.B. auf www.feedreadercom - auf seinem Rechner installieren. Dieser Reader kann die Feeds in einer vernünftig lesbaren Form darstellen; meistens so, wie man das von Mailprogrammen kennt: Links eine Liste der Absender, rechts oben die Überschriften der einzelnen Summaries. Und wenn man diese anklickt, erscheint rechts unten eine Inhaltsangabe des zur jeweiligen Überschrift gehörenden Artikels. Zum Reader gehört eine Liste, in der einzutragen ist, welche Webseiten das Programm - unter Umständen mehrmals täglich - vollautomatisch besuchen soll, um dort die jeweils neuesten Inhaltsangaben abzuholen. Damit ist man jederzeit bestens darüber im Bilde, was auf den wichtigen Seiten geschieht. Technisch geht die Initiative dabei immer vom jeweiligen Anwender aus, aber praktisch wirkt das so, als ob die Informationslieferanten ihn jedesmal benachrichtigen, wenn es etwas neues gibt. Der Anbieter muse natürlich dafür sorgen, dass sein Newsfeed immer aktuell und aussagekräftig gestaltet ist. Für einige Blogs gibt es Software, die das vollautomatisch erledigt. Eine rundum feine Sache also, die bald wohl nicht allein von Bloggern und Nachrichtenagenturen eingesetzt werden. Noch weitreichender sind die Veränderungen, die sich - ebenfalls zunächst in der Welt der Blogs - unter Stichworten wie Trackback oder Pingback ankündigen.
  10. Charlier, M.: DNS und TLD (2001) 0.00
    0.0011716683 = product of:
      0.0140600195 = sum of:
        0.0140600195 = weight(_text_:zur in 5784) [ClassicSimilarity], result of:
          0.0140600195 = score(doc=5784,freq=2.0), product of:
            0.103322186 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.033555698 = queryNorm
            0.13607939 = fieldWeight in 5784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=5784)
      0.083333336 = coord(1/12)
    
    Abstract
    Dass wir uns im Web bewegen können, ohne nachzuschlagen, wer unter welcher Nummer erreichbar ist, verdanken wir dem Domain Name Service (DNS). Der nimmt uns diese Arbeit ab, meistens so zuverlässig, dass vielen Internet-Nutzern seine Existenz nicht bewusst ist. In Wirklichkeit werden Rechner im Netz mit nummerischen IP-Adressen gekennzeichnet, dargestellt in vier acht Bit-Dezimalen - 194.175.173.20 liest sich das etwa. Und die DNS-Datenbanken wissen: Aufrufe von www.fr-aktuell.de müssen an den Rechner mit dieser Nummer durchgeschaltet werden. Damit es kein Durcheinander gibt, darf jede Adresse nur einmal im Netz präsent sein. Deshalb ist der DNS hierarchisch aufgebaut. Jede Registrierungsstelle, hier zu Lande Denic, die eine IP-Adresse vergibt, meldet die Zuordnung an den Root Server A. Von da wird sie an die Datenbanken der zwölf anderen Server des a.root-server.net weitergegeben - und kann von allen Nameservem weltweit abgefragt werden. Zehn der 13 Knoten stehen in den USA und befinden sich mehrheitlich unter Kontrolle militärischer oder anderer staatlicher Institutionen. DNS-Änderungen gegen den Willen der US-Regierung sind so praktisch unmöglich. Bezeichnungen sind meist zweiteilig aufgebaut: Erst der Name der Domain wie fr-aktuell, dann ein Punkt und schließlich eine übergeordnete Top-Level-Domain (TLD) wie com oder de. Vor dem Domainnamen kann ein Rechnername (oft www) stehen, und davor vielleicht eine Subdomain, die der Inhaber einer Domain auf seinem Rechner nach eigenem Belieben einrichten kann. Hinter der TLD steht ein Slash /". Was danach kommt, gehört zum Pfad einer Datei auf dem Rechner - nicht zur Domain. Anfangs gab es sieben TLD, vergeben von amerikanischen Registraren: com(mercial), Net(work), Org(anization), Edu(cational), Gov(ernement), mil(itary) und int(ernational organisation). In einer ersten Erweiterung kamen Länderdomains dazu, etwa.de für Deutschland, at für Österreich, .ch für die Schweiz. Einige werden leicht zweckwidrig clever vermarktet: Der pazifische Inselstaat Tuvalu verkauft sein Suffix.tv für viel Geld weltweit an TV-Sender, Kongo will mit .cd die Musikbranche aufmischen. Und Tonga profitiert von Adressen wie come.to/sowienoch; ähnlich Österreich mitplay.at/ditunddat
  11. Charlier, M.: ¬Das Netz wartet auf neue Zeichen : Viele Web-Adressen sind vergeben - selbst weitere Top-Level-Domains und fremde Schriften helfen nicht unbedingt (2001) 0.00
    8.787513E-4 = product of:
      0.010545015 = sum of:
        0.010545015 = weight(_text_:zur in 5783) [ClassicSimilarity], result of:
          0.010545015 = score(doc=5783,freq=2.0), product of:
            0.103322186 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.033555698 = queryNorm
            0.10205954 = fieldWeight in 5783, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5783)
      0.083333336 = coord(1/12)
    
    Abstract
    Dass das Icann nur sieben TLDs einrichten möchte, hat wenig mit Technik zu tun, aber viel mit Geschäftsinteressen und mit Politik. Sowohl die Vermarktung als auch die letzte Kontrolle über die Domains sollen möglichst da bleiben, wo sie sind: in den USA. So hat zwar jedes kleine Pazifikatoll seine eigene Länderdomain, nicht aber die Europäische Union, die gerne unter eu registrieren möchte, das aber bislang nicht kann. Und deshalb lässt sich das Icann viel Zeit damit, seinen Beschluss vom vergangenen Herbst in die Realität umsetzen zu lassen. Nach ernsthaften Schätzungen ist nicht vor dem dritten Quartal mit der Verfügbarkeit der neuen Domains zu rechnen. Pessimisten nennen eher das erste Quartal 2002. Seit Monaten werben nun Unternehmen mit Angeboten zur Reservierung einer der neuen Top-Level-Domains, damit man dann, wenn diese endlich funktionieren, auch mit seiner Wunschdoniain" zum Zug kommt. Im Prinzip ist gegen eine solche Reservierung nichts zu sagen - man muss sich nur anschauen, bei wem man die Buchung vornehmen lässt. Es ist wenig darüber bekannt, inwieweit die Reservierungsanbieter sicherstellen, dass jede Adresse tatsächlich nur einmal versprochen wird, und man kann auch nicht ausschließen, dass es da schwarze Schafe gibt, denen es herzlich egal ist, ob ein Konkurrent die gleiche Adresse schon vergeben hat. Das Gleiche gilt für die vom ehemaligen Registrierungs-Monopolisten Network Solutions vorangetriebenen Bemühungen, in Domain-Namen die Verwendung nationaler Sonderzeichen und nichtlateinischer Schriften zu ermöglichen. Der Zeitpunkt der Umsetzung ist ungewiss, und ob vorsorgliche Reservierungen wirklich zum Zuge kommen, wird sich erst dann zeigen, wenn die zusätzlichen Domainnamen wie müller.de mit echtem ü tatsächlich in die DNS-Datenbanken eingetragen werden. Die Knappheit bei Domainnamen lässt sich mit beiden Ansätzen kaum überwinden - dafür ist die Ausweitung viel zu bescheiden.