21.11.2014 Aufrufe

Chronik des Internets

Chronik des Internets

Chronik des Internets

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Reader zum MOOC<br />

"Web-Engineering"<br />

Kapitel 2: <strong>Chronik</strong> <strong>des</strong> <strong>Internets</strong><br />

Die PDF-Datei wurde mit Hilfe <strong>des</strong> Open-Source-Werkzeugs „mwlib“ erstellt. Für weitere Informationen siehe http://code.pediapress.com/<br />

PDF generated at: Fri, 01 Nov 2013 08:18:25 UTC


Inhalt<br />

Artikel<br />

Kapitel 2: <strong>Chronik</strong> <strong>des</strong> <strong>Internets</strong> 1<br />

Geschichte <strong>des</strong> <strong>Internets</strong> 1<br />

Ping (Datenübertragung) 17<br />

Traceroute 20<br />

World Wide Web Consortium 24<br />

W3C Markup Validation Service 29<br />

Quellennachweise<br />

Quelle(n) und Bearbeiter <strong>des</strong>/der Artikel(s) 31<br />

Quelle(n), Lizenz(en) und Autor(en) <strong>des</strong> Bil<strong>des</strong> 32<br />

Artikellizenzen<br />

Lizenz 33


1<br />

Kapitel 2: <strong>Chronik</strong> <strong>des</strong> <strong>Internets</strong><br />

Geschichte <strong>des</strong> <strong>Internets</strong><br />

Die Geschichte <strong>des</strong> <strong>Internets</strong> lässt sich in drei Phasen einteilen. In der Frühphase ab Mitte der 1960er Jahre wurden<br />

die Grundlagen gelegt, die Technik demonstriert und zur Anwendungsfähigkeit entwickelt. Gleichzeitig mit dem<br />

Wechsel von der militärischen zur akademischen Forschungsförderung, Ende der 1970er Jahre, begann das<br />

Wachstum und die internationale Ausbreitung <strong>des</strong> Internet. In dieser Zeit gedieh das, was gemeinhin mit der wilden<br />

Phase <strong>des</strong> ursprünglichen Internet assoziiert wird: eine Tauschökonomie für Software und Information, eine<br />

graswurzelbasierende Selbstorganisation, sich entwickelnde Communitys und der Hackergeist, der jede Schließung,<br />

jede Beschränkung <strong>des</strong> Zugangs und <strong>des</strong> freien Informationsflusses zu umgehen weiß.<br />

1990 begann mit der Abschaltung <strong>des</strong> Arpanet die kommerzielle Phase <strong>des</strong> <strong>Internets</strong>. Es wird geschätzt, dass im Jahr<br />

1993 das Internet lediglich 1 % der Informationsflüsse der weltweiten Telekommunikationsnetze ausmachte,<br />

während es im Jahr 2000 bereits die Mehrheit <strong>des</strong> technischen Informationsaustausches beherrschte (51 %) und im<br />

Jahr 2007 bereits klar dominierte (97 % der Bytes die weltweit ausgetauscht wurden). [1]<br />

Obgleich im Artikel eine chronologische Darstellung überwiegt, ist er in erster Linie thematisch gegliedert. Eine<br />

chronologische Auflistung der Ereignisse findet man im Artikel Chronologie <strong>des</strong> <strong>Internets</strong>.<br />

Allgemeines<br />

Das Internet ist mediengeschichtlich eine Anomalie. Übliche Modelle der Medien- wie der Technikgenese allgemein<br />

laufen vom Labor über die Entwicklung hin zur Anwendungsreife bis zur gesellschaftlichen Implementierung<br />

entweder als staatliche Militär- oder Verwaltungskommunikation, als wirtschaftliches Kontroll- und<br />

Steuerungsinstrument oder als Massenprodukt der Individualkommunikation bzw. der Massenmedien. Anders<br />

hingegen im Falle von akademischen Datennetzen. Hier gab es in den ersten Jahren keine Trennung zwischen<br />

Erfindern, Entwicklern und Anwendern.<br />

Die Informatik hat im Netz nicht nur ihren Forschungsgegenstand, sondern zugleich ihr Kommunikations- und<br />

Publikationsmedium. Es ist gleichzeitig Infrastruktur und Entwicklungsumgebung, die von innen heraus ausgebaut<br />

wird. Innovationen werden von den Entwickler-Anwendern in der Betaversion, das heißt ohne Garantie und auf<br />

eigene Gefahr, in die Runde geworfen, von den Kollegen getestet und weiterentwickelt. Darüber hinaus stellt sie den<br />

anderen, zunehmend computerisierten, Wissenschaften die gleiche Infrastruktur zur Verfügung. Der Zugang zu<br />

Rechenressourcen, der Austausch innerhalb einer weltweiten Community von Fachkollegen, das<br />

Zur-Diskussion-Stellen von Preprints, die Veröffentlichung von Konferenzreferaten und Datenbanken im Internet –<br />

all dies gehört seit den 1980er Jahren zu den täglichen Praktiken in der Physik und Astronomie, der Informatik selbst<br />

und zunehmend auch in den weicheren Wissenschaften. Schließlich ist das Weiterreichen der Grundwerkzeuge an<br />

die Studierenden Teil der wissenschaftlichen Lehre. Da das Netz, anders als die meisten Laborgeräte, keinen eng<br />

definierten Anwendungsbereich hat, sondern eben Medium ist, stoßen hier auch studentische, private und<br />

Freizeitkulturen auf eine brisante Mischung aus High Tech und Hobbyismus, Science und Science Fiction, Hackern<br />

und Hippies.


Geschichte <strong>des</strong> <strong>Internets</strong> 2<br />

Vordenker<br />

Als früheste Vision einer möglichen weltweiten Computer-Vernetzung gilt eine Kurzgeschichte <strong>des</strong><br />

Science-Fiction-Autors Murray Leinster, der 1946 in seiner Story A Logic Named Joe als einer der ersten einen<br />

Personal Computer und eine frühe Vision <strong>des</strong> <strong>Internets</strong> geschildert hat; dort wird gesagt, der Computer ... erledigt die<br />

Verbreitung von vierundneunzig Prozent aller Fernsehprogramme, vermittelt alle Informationen über Wetter,<br />

Luftverkehr, Sonderangebote ... und dokumentiert je<strong>des</strong> geschäftliche Gespräch, jeden Vertrag ... Die Computer<br />

haben die Welt verändert. Die Computer sind die Zivilisation. Wenn wir die Computer abschalten, fallen wir in eine<br />

Art von Zivilisation zurück, von der wir vergessen haben, wie sie geht. [2]<br />

Frühphase<br />

In den späten 1950er Jahren leitete J. C. R. Licklider eine Forschungsgruppe beim US-Rüstungslieferanten Bolt<br />

Beranek and Newman (BBN), die auf einer PDP-1, einem Minicomputer <strong>des</strong> Herstellers Digital Equipment<br />

Corporation (DEC), eines der ersten Time-Sharing-Systeme bauten. Computerhersteller und die meisten Vertreter<br />

<strong>des</strong> Informatik-Establishments waren der Ansicht, dass Time-Sharing eine ineffiziente Verwendung von<br />

Computerressourcen darstelle und nicht weiter verfolgt werden solle. Lickliders Argument war umgekehrt, dass<br />

Rechner für eine Echtzeit-Interaktion für „kooperatives Denken mit einem Menschen“ zu schnell und zu kostspielig<br />

seien, weshalb sie ihre Zeit zwischen vielen Nutzern aufteilen müssten. Licklider war auch der Architekt <strong>des</strong><br />

MAC-Projektes (Multiple-Access Computer oder Machine-Aided Cognition oder Man And Computer) am<br />

Massachusetts Institute of Technology (MIT). 1962 wechselte er von BBN zur Advanced Research Projects Agency<br />

(ARPA) <strong>des</strong> US-Verteidigungsministeriums, wo er Leiter <strong>des</strong> Command and Control Research (CCR) wurde, das er<br />

sogleich in Information Processing Techniques Office (IPTO) umbenannte.<br />

Seine Erfahrungen mit Time-Sharing-Systemen erlaubten es ihm, eine Neudefinition vom Computer als<br />

Rechenmaschine zum Computer als Kommunikationsgerät vorzunehmen. Als Leiter <strong>des</strong><br />

ARPA-Forschungsbereiches war er nun in die Lage versetzt, diesen Paradigmenwechsel in der Netzplanung zur<br />

Wirkung zu bringen:<br />

Das ARPA-Leitmotiv ist, dass die Möglichkeiten, die der Computer als Kommunikationsmedium zwischen<br />

Menschen bietet, die historischen Anfänge <strong>des</strong> Computers als einer Rechenmaschine in den Schatten stellen.<br />

[…] Lick war einer der ersten, die den Gemeinschaftsgeist wahrnahmen, der unter den Nutzern <strong>des</strong> ersten<br />

Time-Sharing-Systems entstand. Indem er auf das Gemeinschaftsphänomen hinwies, das zum Teil durch den<br />

gemeinsamen Zugriff auf Ressourcen in einem Time-Sharing-System aufkam, machte Lick es leicht, sich eine<br />

Verbindung zwischen den Gemeinschaften vorzustellen, die Verknüpfung von interaktiven<br />

Online-Gemeinschaften von Menschen …<br />

Gleichzeitig findet ein telekommunikationstechnischer Paradigmenwechsel von leitungsorientierten zu<br />

paketvermittelten Konzepten statt. Er geht auf parallele Arbeiten von Paul Baran an der Rand Corporation (die erste<br />

Denkfabrik, 1946 von der U.S. Air Force gegründet) und von Donald Watts Davies am National Physical<br />

Laboratory in Middlesex, England, zurück. Die Zerlegung von Kommunikationen in kleine Datenpakete, die, mit<br />

Ziel- und Absenderadresse versehen, quasi autonom ihren Weg durch das Netzwerk finden, war Voraussetzung für<br />

die verteilte, dezentrale Architektur <strong>des</strong> <strong>Internets</strong>. Sie war auch der Punkt, an dem die Geister der Computer- und der<br />

Telekommunikationswelt sich schieden.<br />

Die Telefonbetreiber der Zeit waren durchaus an Datenkommunikation sowie an der Paketvermittlung interessiert,<br />

nachdem nachgewiesen worden war, dass diese Technik nicht nur überhaupt machbar war, sondern dass sie die<br />

vorhandene Bandbreite viel wirtschaftlicher nutzte als die Leitungsvermittlung, doch die vorrangigen<br />

Designkriterien der nationalen Monopole waren flächendeckende Netzsicherheit, Dienstequalität und<br />

Abrechenbarkeit. Diese sahen sie nur durch ein zentral gesteuertes Netz mit dedizierter Leitungsnutzung für jede<br />

einzelne Kommunikation gewährleistet.


Geschichte <strong>des</strong> <strong>Internets</strong> 3<br />

Die Telekommunikationsunternehmen vor allem in England, Italien, Deutschland und Japan unterlegten daher den<br />

unberechenbaren Paketflüssen eine virtuelle Kanalstruktur. Auch in diesem System werden Pakete verschiedener<br />

Verbindungen auf derselben physikalischen Leitung ineinandergefädelt, aber nur bis zu einer Obergrenze, bis zu der<br />

die Kapazität für jede einzelne Verbindung gewährleistet werden kann. Außerdem ist dieses Netz nicht verteilt,<br />

sondern über zentrale Vermittlungsstellen geschaltet. Die Spezifikationen dieses Dienstes wurden im Rahmen der<br />

Internationalen Fernmeldeunion (ITU) verhandelt und 1976 unter der Bezeichnung X.25 standardisiert. Die<br />

Bun<strong>des</strong>post bot ihn unter dem Namen Datex-P an. Damit ist der Gegensatz aufgespannt zwischen einem<br />

rhizomatischen Netz, das aus einem militärischen Kalkül heraus von einzelnen Knoten dezentral wuchert, und einer<br />

hierarchischen, baumförmigen Struktur, die zentral geplant und verwaltet wird.<br />

Die ARPA-Forschungsabteilung unter Licklider schrieb die<br />

verschiedenen Bestandteile <strong>des</strong> neuen Netzes aus. Das Stanford<br />

Research Institute (SRI) erhielt den Auftrag, die Spezifikationen für<br />

das neue Netz zu schreiben. Im Dezember 1968 legte das SRI den<br />

Bericht A Study of Computer Network Design Parameters vor. Zur<br />

selben Zeit arbeitete Douglas C. Engelbart und seine Gruppe am SRI<br />

bereits an computergestützten Techniken zur Förderung von<br />

menschlicher Interaktion. Daher wurde entschieden, dass das SRI der<br />

geeignete Ort sei, ein Network Information Center (NIC) für das<br />

ARPAnet einzurichten. Die DARPA-Ausschreibung für ein Network<br />

Measurement Center ging an die University of California in Los<br />

Angeles (UCLA), wo Leonard Kleinrock arbeitete, der seine<br />

Doktorarbeit über Warteschlangentheorie geschrieben hatte. Ebenfalls<br />

im UCLA-Team arbeiteten damals Vinton G. Cerf, Jonathan Postel<br />

und Steve Crocker.<br />

Leonard Kleinrock und der erste Interface<br />

Message Processor<br />

Den Zuschlag für die Entwicklung der Paketvermittlungstechniken, genauer<br />

eines Interface Message Processors (IMP), erhielt BBN. Dort arbeitete unter<br />

anderem Robert E. Kahn, der vom MIT gekommen war und auf den ein Großteil<br />

der Architektur <strong>des</strong> <strong>Internets</strong> (TCP/IP) zurückgeht. Die IMPs, Vorläufer der<br />

heutigen Router, hatten die Aufgabe, die niedrigste Verbindungsschicht zwischen<br />

den über Telefonleitungen vernetzten Rechnern (Hosts) herzustellen. Die ersten<br />

IMPs wurden im Mai 1969 ausgeliefert.<br />

Der Startschuss zum Internet fiel im Herbst 1969, als die ersten vier Großrechner<br />

in der UCLA, im SRI, der University of California in Santa Barbara (UCSB) und<br />

der University of Utah miteinander verbunden wurden. Am 29. Oktober 1969<br />

Vinton Cerf (2010)<br />

war „Io“ die erste gelungene Internetbotschaft, die versuchsweise von der UCLA an das Stanford Research Institut<br />

übermittelt wurde. [3]<br />

Bereits ein halbes Jahr vorher war das erste von Tausenden von Request for Comments-Dokumenten (RFCs)<br />

erschienen, die die technischen Standards <strong>des</strong> <strong>Internets</strong> spezifizieren. Diese Standards werden nicht im Duktus eines<br />

Gesetzes erlassen, sondern als freundliche Bitte um Kommentierung. Steve Crocker, Autor <strong>des</strong> ersten RFC,<br />

begründete diese Form damit, dass die Beteiligten nur Doktoranden ohne jede Autorität waren. Sie mussten daher<br />

einen Weg finden,


Geschichte <strong>des</strong> <strong>Internets</strong> 4<br />

ihre Arbeit zu dokumentieren, ohne dass es schien, als wollten sie<br />

irgendjemandem etwas aufdrängen, in einer Form, die offen für Kommentare<br />

war. RFCs können von jedem erstellt werden. Sie sind als Diskussionspapiere<br />

gedacht, mit dem erklärten Ziel, die Autorität <strong>des</strong> Geschriebenen zu brechen.<br />

Neben den meist technischen Texten werden auch die Philosophie (zum Beispiel<br />

RFC 1718), die Geschichte (RFC 2235) und die Kultur <strong>des</strong> Netzes aufgezeichnet<br />

und zuweilen sogar gedichtet (RFC 1121). Die freie Verfügbarkeit der<br />

Spezifikationen und der dazugehörigen Referenzimplementationen waren ein<br />

Schlüsselfaktor bei der Entwicklung <strong>des</strong> <strong>Internets</strong>. Aus dem ersten RFC ging ein<br />

Jahr später das Network Control Protocol (NCP) hervor, ein Satz von<br />

Programmen für die Host-Host-Verbindung, das erste Arpanet-Protokoll.<br />

Robert E. Kahn<br />

1971 bestand das Netz aus 14 Knoten und wuchs um einen pro Monat. Nach Fertigstellung <strong>des</strong> NCP und<br />

Implementierung für die verschiedenen Architekturen entstanden jetzt die höheren Dienste Telnet (RFC 318) und<br />

FTP (File Transfer Protocol, RFC 454). Ray Tomlinson von BBN modifizierte ein E-Mail-Server-Programm für das<br />

Arpanet und erfand die user@host-Konvention. Larry Roberts schrieb hierfür einen Mail-Client.<br />

Das Netzwerk konnte sich sehen lassen. Es war Zeit für eine erste öffentliche Demonstration, die 1972 auf der<br />

International Conference on Computer Communications in Washington stattfand. Im Keller <strong>des</strong> Konferenzhotels<br />

wurde ein Paketvermittlungsrechner und ein Terminal Interface Processor (TIP) installiert, der anders als ein IMP<br />

den Input von mehreren Hosts oder Terminals verarbeiten konnte. Angeschlossen waren 40 Maschinen in den<br />

ganzen USA. Zu den Demonstrationen gehörten interaktive Schachspiele und die Simulation eines<br />

Luftverkehrskontrollsystems. Berühmt wurde die Unterhaltung zwischen ELIZA, Joseph Weizenbaums<br />

künstlich-intelligentem Psychiater am MIT, und PARRY, einem paranoiden Programm von Kenneth Colby an der<br />

Stanford Universität. Teilnehmer aus England, Frankreich, Italien und Schweden waren dabei. Vertreter von AT&T<br />

besuchten die Konferenz, verließen sie jedoch in tiefer Verwirrung. Im selben Jahr starteten Projekte für radio- und<br />

satellitengestützte Paketvernetzung, letztere mit Instituten in Norwegen und England. Bob Metcalfe umriss in seiner<br />

Doktorarbeit an der Harvard-Universität das Konzept für ein Local Area Network (LAN) mit multiplen<br />

Zugangskanälen, das er Ethernet nannte. Am Xerox PARC entwickelte er das Konzept weiter, bevor er später 3Com<br />

gründete.<br />

Arpanet, SATNET und das Radionetz hatten verschiedene Schnittstellen, Paketgrößen, Kennzeichnungen und<br />

Übertragungsraten, was es schwierig machte, sie untereinander zu verbinden. Bob Kahn, der von BBN an die<br />

DARPA ging, und Vint Cerf, der jetzt an der Stanford-Universität unterrichtete, begannen, ein Protokoll zu<br />

entwickeln, um verschiedene Netze miteinander zu verbinden. Sie orientierten sich dabei an den Entwicklungen <strong>des</strong><br />

CYCLADES-Projekts. Im Herbst 1973 stellten sie auf einem Treffen der International Network Working Group in<br />

England den ersten Entwurf zum Transmission Control Protocol (TCP) vor. Im Jahr darauf wurde TCP gleichzeitig<br />

an der Stanford University, bei BBN und dem University College London (Peter Kirstein) implementiert.<br />

Somit waren die Bemühungen, die Internet-Protokolle zu entwickeln, von Anfang an international (Cerf,<br />

1993).<br />

Es folgten vier Iterationen <strong>des</strong> TCP-Protokollsatzes. Die letzte erschien 1978.<br />

1974 startete BBN Telenet, den ersten öffentlichen paketvermittelten Datenkommunikationsdienst, eine<br />

kommerzielle Version <strong>des</strong> Arpanet. Aufgrund der DARPA-Förderung besaß BBN kein exklusives Recht am<br />

Quellcode für die IMPs und TIPs. Andere neue Netzwerkunternehmen forderten BBN auf, ihn freizugeben. BBN<br />

sträubte sich zunächst, da der Code ständig verändert würde, gab ihn jedoch 1975 frei.


Geschichte <strong>des</strong> <strong>Internets</strong> 5<br />

Wachstum<br />

Mit der Forschungsförderung für die Implementierung von TCP hatte<br />

die DARPA ihre initiale Mission erfüllt. 1975 wurde die<br />

Verantwortung für das Arpanet an die Defense Communications<br />

Agency (später umbenannt in Defense Information Systems Agency)<br />

übertragen. BBN blieb der Auftragnehmer für den Betrieb <strong>des</strong> Netzes,<br />

doch militärische Sicherheitsinteressen wurden jetzt wichtiger.<br />

Zusätzlich zur DARPA förderte auch die National Science Foundation<br />

(NSF) die Forschung in Informatik und Netzwerken an rund 120<br />

US-amerikanischen Universitäten. Weitere Einrichtungen, wie das<br />

Energieministerium und die NASA starteten eigene Netzwerke.<br />

Wachstum <strong>des</strong> <strong>Internets</strong> interpretiert anhand der<br />

Anzahl der zur Verfügung stehenden Hosts. Die<br />

Anfang 1975 verfügte das Arpanet über 61 Knoten. Die erste Ordinate <strong>des</strong> Diagramms wurde wegen <strong>des</strong><br />

Mailingliste wurde eingerichtet. Zusammen mit den RFCs werden starken Zuwachs logarithmisch skaliert.<br />

Mailinglisten zum wichtigsten Mittel der offenen Kooperation der<br />

technischen Community. In der beliebtesten Liste dieser Zeit diskutierte man jedoch über Sciencefiction. Das Jargon<br />

File, ein Wörterbuch der Hacker-Kultur, zusammengestellt von Raphael Finkel, wurde zum ersten Mal publiziert,<br />

natürlich im Netz.<br />

UUCP (Unix to Unix Copy) wurde 1976 an den AT&T Bell Labs entwickelt und als Teil der Unix Version 7<br />

verbreitet. Einrichtungen, die sich keine Standleitung leisten konnten, ermöglichte es UUCP, über<br />

Wählverbindungen auf normalen Telefonleitungen Daten mit Rechnern am Arpanet auszutauschen.<br />

Das neue netzwerkverbindende TCP wurde im Juli 1977 erstmals in einem aufwändigen Versuchsaufbau<br />

demonstriert. Die Übertragungsstrecke begann mit einem mobilen Paketsender in einem fahrenden Auto auf dem<br />

San Francisco Bayshore Freeway, lief zu einem Gateway bei BBN, über das Arpanet, über eine<br />

Punkt-zu-Punkt-Satellitenverbindung nach Norwegen, von dort via Kabel nach London, zurück über das Atlantic<br />

Packet Satellite Network (SATNET) ins Arpanet und schließlich zum Informatikinstitut der University of Southern<br />

California:<br />

Was wir also simulierten, war jemand auf einem mobilen Kriegsschauplatz, der sich über ein kontinentales<br />

Netz bewegt, dann über ein interkontinentales Satellitennetz und dann zurück in ein Leitungsnetz und zum<br />

Hauptrechenzentrum <strong>des</strong> nationalen Hauptquartiers geht. Da das Verteidigungsministerium dafür bezahlte,<br />

haben wir nach Beispielen gesucht, die für ein militärisches Szenario interessant sein könnten (Cerf, 1992).<br />

Seit Mitte der 1970er Jahre wurden Experimente zur paketvermittelten Sprachübertragung durchgeführt. TCP ist auf<br />

zuverlässige Übertragung ausgelegt. Pakete, die verloren gehen, werden erneut geschickt. Im Falle von<br />

Sprachübertragung ist jedoch der Verlust einiger Pakete weniger nachteilig als eine Verzögerung. Aus diesen<br />

Überlegungen heraus wurden 1978 TCP und IP getrennt. IP spezifiziert das User Datagram Protocol (UDP), das<br />

noch heute zur Sprachübertragung verwendet wird (vergleiche ebd.). Damit wurde 1978 das Arpanet-Experiment<br />

offiziell beendet. Im Abschlussbericht heißt es:<br />

Dieses ARPA-Programm hat nichts Geringeres als eine Revolution in der Computertechnologie<br />

hervorgebracht und war eines der erfolgreichsten Projekte, das die ARPA je durchgeführt hat. Das volle<br />

Ausmaß <strong>des</strong> technischen Wandels, der von diesem Projekt ausgeht, wird sich vielleicht erst in vielen Jahren<br />

ermessen lassen.<br />

Einer der Pioniere erinnert sich an die entscheidenden Faktoren:<br />

Für mich war die Teilnahme an der Entwicklung <strong>des</strong> Arpanet und der Internetprotokolle sehr aufregend. Ein<br />

entscheidender Grund dafür, dass es funktionierte, ist meiner Meinung nach, dass es viele sehr kluge<br />

Menschen gab, die alle mehr oder weniger in dieselbe Richtung arbeiteten, angeführt von einigen sehr weisen<br />

Menschen in der Förderungsbehörde. Das Ergebnis war, dass eine Gemeinschaft von Netzwerkforschern


Geschichte <strong>des</strong> <strong>Internets</strong> 6<br />

entstand, die fest daran glaubte, dass unter Forschern Zusammenarbeit mächtiger ist als Konkurrenz. Ich<br />

glaube nicht, dass ein anderes Modell uns dahin gebracht hätte, wo wir heute stehen.<br />

Institutionalisierung<br />

Um die Vision eines freien und offenen Netzes fortzuführen, richtete Vint Cerf 1978 noch vom DARPA aus das<br />

Internet Configuration Control Board (ICCB) unter Vorsitz von Dave Clark am MIT ein. 1983 trat das Internet<br />

Activities Board (IAB) (nach der Gründung der Internet Society umbenannt in Internet Architecture Board) an die<br />

Stelle <strong>des</strong> ICCB.<br />

Für die eigentliche Entwicklungsarbeit bildeten sich 1986 unter dem IAB die Internet Engineering Task Force<br />

(IETF) und die Internet Research Task Force (IRTF). Anders als staatliche Standardisierungsgremien oder<br />

Industriekonsortien ist die IETF – „nach Gesetz und Gewohnheitsrecht“ – ein offenes Forum. Mitglied kann jeder<br />

werden, indem er eine der etwa 100 aufgabenorientierten Mailinglisten subskribiert und sich an den Diskussionen<br />

beteiligt.<br />

Theoretisch erhält ein Student, der ein technisch fundiertes Anliegen in Bezug auf ein Protokoll anspricht,<br />

dieselbe sorgfältige Beachtung, oder mehr, als jemand von einem Multi-Milliarden-Dollar-Unternehmen, der<br />

sich Sorgen über die Auswirkungen auf seine ausgelieferten Systeme macht (Alvestrand, 1996, S. 61).<br />

Alle Arbeit, mit Ausnahme der <strong>des</strong> Sekretariats, ist unbezahlt und freiwillig.<br />

Die Entwicklungsarbeit innerhalb der IETF gehorcht einem begrenzten Anspruch. Die Ergebnisse müssen ein<br />

anstehen<strong>des</strong> Problem möglichst direkt und, gemäß einer Hacker-Ästhetik von Eleganz, möglichst einfach und<br />

kompakt lösen. Sie müssen mit den bestehenden Strukturen zusammenarbeiten und Anschlüsse für mögliche<br />

Erweiterungen vorsehen. Da es keine scharf umrissene Mitgliedschaft gibt, werden Entscheidungen nicht durch<br />

Abstimmungen getroffen. Das Credo der IETF lautet:<br />

Wir wollen keine Könige, Präsidenten und Wahlen. Wir glauben an einen groben Konsens und an<br />

ablauffähigen Code.<br />

Wenn sich ein interessantes Problem und genügend Freiwillige finden, wird diskutiert, ein ablauffähiger Code auch<br />

für alternative Lösungsansätze geschrieben und solange getestet, bis sich ein Konsens herausbildet. Wenn dies nicht<br />

geschieht, das Verfahren auf unlösbare Probleme stößt oder die Beteiligten das Interesse verlieren, kann ein Standard<br />

auch vor seiner Verabschiedung stecken bleiben. Standards oder Code werden in jeder Phase der Entwicklung im<br />

bewährten RFC-Format für jeden Interessierten zugänglich veröffentlicht. Dies führt dazu, dass sie frühzeitig von<br />

einer Vielzahl von Anwendern unter den unterschiedlichsten Bedingungen getestet werden und diese breiten<br />

Erfahrungen in den Entwicklungsprozess eingehen, bevor ein Standard offiziell freigegeben wird. Die Standards sind<br />

offen und frei verfügbar. Anders als im ISO-Prozess können von den an der Standardisierung Beteiligten keine<br />

Patente erworben werden und anders als die ISO finanziert sich die IETF nicht aus dem Verkauf der Dokumentation<br />

von Standards. Der kontinuierlichen Weiterentwicklung dieses Wissens steht somit nichts im Wege.<br />

Obwohl er über keine geplante Schadensfunktion verfügte, legte 1988 der außer Kontrolle geratene Computerwurm<br />

<strong>des</strong> 23-jährigen Robert Tappan Morris 6.000 der inzwischen 60.000 Internethosts lahm. Daraufhin bildet die<br />

DARPA das Computer Emergency Response Team (CERT), das sich seitdem vor allem auch vorbeugend mit<br />

Problemen der Computersicherheit beschäftigt.<br />

Die 1990 von Mitch Kapor gegründete Electronic Frontier Foundation (EFF) ist keine Internet-Institution im<br />

engeren Sinne, doch als Öffentlichkeits- und Lobbyingvereinigung zur Wahrung der Bürgerrechte im Netz hat sie in<br />

den USA eine bedeutende Rolle gespielt.<br />

Als Dachorganisation für alle Internetinteressierten und für die bestehenden Gremien wie IAB und IETF gründeten<br />

unter anderem Vint Cerf und Bob Kahn 1992 die Internet Society (ISOC).<br />

Im Jahr darauf etablierte die National Science Foundation (NSF) das InterNIC (Network Information Center), das<br />

bestimmte Dienste in seinem Aufgabenbereich an Dritte ausschrieb, nämlich Directory- und Datenbankdienste an


Geschichte <strong>des</strong> <strong>Internets</strong> 7<br />

AT&T, Registrierungsdienste an Network Solutions, Inc. und Informationsdienste an General Atomics/CERFnet.<br />

Netzwerkforschung<br />

Auf Initiative von Larry Landweber erarbeiteten Vertreter verschiedener Universitäten (darunter Peter Denning und<br />

Dave Farber) die Idee eines Informatik-Forschungsnetzes (CSNET). Ein Förderungsantrag an die NSF wurde<br />

zunächst als zu kostspielig abgelehnt. Auf einen überarbeiteten Antrag hin bewilligte die NSF 1980 dann fünf<br />

Millionen Dollar über einen Zeitraum von fünf Jahren. Das Protokoll, das die verschiedenen Subnetze <strong>des</strong> CSNET<br />

verbindet, ist TCP/IP. 1982 wurde beschlossen, dass alle Systeme auf dem Arpanet von NCP auf TCP/IP übergehen<br />

sollen – obgleich davon nur einige hundert Computer und ein Dutzend Netze betroffen waren, keine einfache<br />

Operation (vergleiche RFC 801).<br />

CSNET und Arpanet wurden 1983 verbunden, doch US-amerikanische Wissenschaftler klagten, dass die<br />

Supercomputer <strong>des</strong> Lan<strong>des</strong> nicht zugänglich seien. Astrophysiker mussten nach Deutschland reisen, um einen in den<br />

USA hergestellten Supercomputer verwenden zu können. Im Juli 1983 gab daraufhin eine NSF-Arbeitsgruppe einen<br />

Plan für ein National Computing Environment for Academic Research heraus. Die Supercomputer-Krise führte zur<br />

Verabschiedung eines Etats von 200 Millionen Dollar für die Einrichtung von Supercomputer-Zentren an<br />

verschiedene Universitäten und <strong>des</strong> NSFnet. Das NSFnet startete 1986 mit einem lan<strong>des</strong>weiten 56 Kbps-Backbone,<br />

der bald auf 1,5-Mbps- und 1989 auf 44,7-Mbps-Leitungen ausgebaut wurde. Zu der Zeit planten Bob Kahn und<br />

Vint Cerf bereits ein Versuchsnetz mit 6 Gigabit pro Sekunde. Um den NSFnet-Backbone herum entwickelte sich<br />

eine ganze Reihe NSF-geförderter regionaler Netzwerke. Von Anfang 1986 bis Ende 1987 stieg die Gesamtzahl der<br />

Netzwerke am Internet von 2.000 auf beinahe 30.000.<br />

Neue Architekturen, Protokolle und Dienste<br />

Neben TCP/IP wurden weiterhin proprietäre Protokolle eingesetzt, aber es entstanden auch neue offene Netzwerke.<br />

Das wichtigste darunter ist das BITNET (Because It's Time NETwork), das 1981 als ein kooperatives Netzwerk an<br />

der City University of New York startete und die erste Verbindung an die Yale-Universität legte. Zu den<br />

Eigentümlichkeiten von BITNET gehört zum Beispiel, dass es die Dateiübertragung per E-Mail realisiert. 1987<br />

überschritt die weltweite Zahl der BITNET-Hosts 1.000.<br />

TCP/IP wurde zum De-facto-Standard, doch die Anerkennung als offizieller Standard blieb ihm verwehrt. Ein<br />

Irrweg in der Netzwerkentwicklung begann, als die Internationale Organisation für Normung (ISO) ab 1982 ein<br />

Referenzmodell (OSI-Modell) für einen eigenen verbindungsorientierten Internetzwerk-Standard namens Open<br />

Systems Interconnection (OSI) entwickelte. Im Gegensatz zum horizontalen Prozess der Internetcommunity beruht<br />

das Standardisierungsverfahren der ISO auf einem vertikalen, mehrschichtigen Prozess aus Vorschlägen,<br />

Ausarbeitungen und Abstimmungen, der zwischen den nationalen Standardisierungsorganisationen, den<br />

Arbeitsgruppen und schließlich dem Plenum der ISO hin- und hergeht. Dabei sollen alle Interessen berücksichtigt<br />

werden. Der Standard soll in einem theoretischen Sinne vollständig sein. Er soll zugleich rückwärts kompatibel und<br />

abstrakt genug sein, um zukünftige Entwicklungen nicht zu verbauen. Durch die begrenzte Zirkulation in den am<br />

Verfahren beteiligten Institutionen werden Standards auch nur begrenzt getestet, bevor sie verabschiedet werden. Ist<br />

ein Standard endlich verabschiedet, ist er von der Technik oft genug schon überholt. OSI hat sich nie sehr weit von<br />

den Papierkonzepten in den praktischen Computereinsatz hinein entwickelt und gilt heute als gescheitert. Bis in die<br />

1990er Jahre hinein dekretierten die Forschungs- und Technikbehörden vieler Länder, darunter Deutschland und<br />

Japan, jedoch, dass OSI das offizielle und damit das einzige Netzwerkprotokoll sei, in das Forschungsmittel fließen.<br />

Selbst die US-Regierung schrieb noch 1988 vor, dass alle Rechner, die für den Einsatz in staatlichen Stellen<br />

angekauft werden, OSI unterstützen müssen und erklärte TCP/IP zu einer Übergangslösung.<br />

1983 beschloss das US-Verteidigungsministerium, das Netz in ein öffentliches Arpanet und das vertrauliche<br />

MILNET aufzuteilen. Nur 45 der 113 Host-Rechner blieben im Arpanet übrig. Die Zahl der an diese Hosts<br />

angeschlossenen Rechner war natürlich viel größer, vor allem durch den Übergang von Time-Sharing-Großrechnern


Geschichte <strong>des</strong> <strong>Internets</strong> 8<br />

hin zu Workstations in einem Ethernet-LAN. Jon Postel wies den einzelnen miteinander verbundenen Netzen erst<br />

Nummern zu, dann entwickelte er zusammen mit Paul Mockapetris und Craig Partridge das Domain Name System<br />

(DNS) mit einem ersten Name-Server an der University of Wisconsin, der Namen in Nummern übersetzt.<br />

Gleichzeitig empfahl er das heute übliche user@host.domain-Adressierungsschema. Das neue Adressensystem<br />

institutionalisierte sich 1988 mit der Internet Assigned Numbers Authority (IANA), deren Direktor Postel wurde.<br />

1981 begann Bill Joy an der Universität von Kalifornien in Berkeley mit einem Forschungsauftrag der DARPA, die<br />

TCP/IP-Protokolle in die dort gepflegte freie Version <strong>des</strong> Betriebssystems Unix zu integrieren. Sie wurden im<br />

August 1983 in der BSD (Berkeley Systems Distribution)-Unix-Version 4.2 veröffentlicht. Die Betriebssysteme von<br />

Computer und Netz waren verschmolzen. Nicht zuletzt <strong>des</strong>halb begannen viele Computerunternehmen, wie zum<br />

Beispiel das von Joy mitgegründete Sun Microsystems, BSD zur Basis ihrer Workstations zu machen. Die freie<br />

Software 4.2BSD verbreitete sich rasch. Tausende von Entwicklern in der ganzen Welt übernahmen es und legten so<br />

die Grundlage für das heutige globale Internet. 1977 waren mit dem Tandy TRS-80 und dem Commodore PET die<br />

ersten Computer für den Privatgebrauch auf den Markt gekommen, Steve Wozniak und Steve Jobs kündigten den<br />

Apple II an. Der IBM-PC folgte 1981 und kurz darauf die ersten IBM PC-Clones. Durch die billigen Kleinstrechner<br />

und ihre Fähigkeit, per Modem zu kommunizieren, betrat eine neue Generation von Nutzerkulturen die Informatikund<br />

Netzwelt.<br />

Die Integration von TCP/IP und lokalen Ethernets trieb die Ausbreitung <strong>des</strong> <strong>Internets</strong> voran. Ethernet-Karten wurden<br />

auch für PCs verfügbar. Anfang der 1980er Jahre entwickelten Studenten von Professor Dave Clark am MIT den<br />

ersten TCP/IP-Stapel (Stack) für MS-DOS. Der Quellcode für PC/IP und einige einfache Netzapplikationen<br />

verbreiteten sich rasch und inspirierte viele andere, den PC für das Internet zu erschließen. Da das Betriebssystem<br />

DOS nicht multitasking-fähig ist, konnte PC/IP nur eine einzige Verbindung (ein Socket) unterstützen. Für einige<br />

Anwendungen (wie Telnet) stellt die Beschränkung kein Problem dar, FTP dagegen benötigt zwei Verbindungen<br />

gleichzeitig, einen Kontroll- und einen Datenkanal. Phil Karn, damals bei den Bell Labs beschäftigt, begann 1985<br />

einen neuen TCP/IP-Stack zu schreiben, bei dem er Multitasking innerhalb der Applikation realisierte – ein<br />

waghalsiger Trick, der aber funktionierte. Für CP/M entwickelt, portierte Karn den Code bald auf DOS und, da er<br />

ein leidenschaftlicher Funkamateur war, überarbeitete er ihn außerdem für die Verwendung über Packet Radio. Unter<br />

dem Namen seines Rufzeichens KA9Q gab er den Code für nicht kommerzielle Verwendung frei (vergleiche Baker,<br />

1998).<br />

1979 entstand das Usenet, das zu einem internetweiten schwarzen Brett werden sollte. Steve Bellovin schrieb dazu<br />

einige Kommandozeilen-Skripte, die es einem Rechner erlauben, über UUCP Nachrichten auf einem anderen<br />

Rechner abzurufen. Technisch ist das Usenet ein frühes Beispiel für Client-Server-Architekturen. Sozial bildet es<br />

einen öffentlichen Raum, in dem jeder lesen und schreiben kann, zu Themen, die so ziemlich alles unter der Sonne<br />

umfassen.<br />

Eine andere Form von kooperativem sozialem Raum, der zusätzlich synchrone Kommunikation ermöglicht, sind<br />

Multi User Dungeons (MUDs). Angelehnt an Tolkiens Dungeons and Dragons-Motive erlauben es diese Welten<br />

mehreren Spielern, gemeinsam durch rein textbasierte Räume zu ziehen, Drachen zu töten, Puzzle zu lösen und<br />

miteinander zu plaudern. Als Spielumgebungen entstanden, fanden MUDs später auch für Bildungs- und<br />

Diskussionszwecke Verwendung. Das erste von ihnen, das MUD1, schrieben ebenfalls 1979 Richard Bartle und Roy<br />

Trubshaw an der University of Essex.<br />

1988 kommt mit dem Internet Relay Chat (IRC) von Jarkko Oikarinen ein weiteres synchrones<br />

Kommunikationsformat hinzu.<br />

Parallel zum Internet kamen lokale Diskussionsforen, Bulletin Board Systems (BBS) auf, zunächst als allein stehende<br />

PCs mit einer oder mehreren Einwahlverbindungen. Mit Hilfe von Telefonleitungen und X.25 vernetzten sich auch<br />

diese Kleinrechner, zum Beispiel zum FidoNet, 1983 von Tom Jennings entwickelt.<br />

1985 gründet Stewart Brand das legendäre BBS Whole Earth 'Lectronic Link (WELL) in San Francisco.<br />

Kommerzielle Online-Dienste wie CompuServe und AOL folgten. Auch diese separaten Netze richteten Ende der


Geschichte <strong>des</strong> <strong>Internets</strong> 9<br />

1980er Jahre Gateways zum Internet ein, über die sie seither E-Mail und News austauschen können (Fidonet zum<br />

Beispiel 1988, MCIMail und CompuServe 1989). Um auch Menschen außerhalb der Universitäten den Zugang zum<br />

Internet zu ermöglichen, entstanden eine Reihe von so genannten Freenets. Das erste, das Cleveland Freenet, wurde<br />

1986 von der Society for Public Access Computing (SoPAC) in Betrieb genommen.<br />

Die Masse der im Internet verfügbaren Informationen wurde immer<br />

unüberschaubarer. Der Bedarf nach Navigations- und Suchwerkzeugen<br />

führte zu neuen Entwicklungen an verschiedenen<br />

Forschungseinrichtungen. Am CERN stellte Tim Berners-Lee 1989<br />

Überlegungen zu einem verteilten Hypertext-Netz an, aus dem das<br />

World Wide Web (WWW) geworden ist.<br />

Ähnliche Verknüpfungen bieten die im folgenden Jahr gestarteten<br />

Dienste Archie (von Peter Deutsch, Alan Emtage und Bill Heelan an<br />

der McGill University) und Hytelnet (von Peter Scott an der University<br />

of Saskatchewan).<br />

Erster Web-Server am CERN<br />

1991 kamen Wide Area Information Servers (WAIS, von Brewster Kahle von der Thinking Machines Corporation)<br />

und Gopher (von Paul Lindner und Mark P. McCahill von der University of Minnesota) hinzu. Die erste Version von<br />

Berners-Lees WWW wurde freigegeben. Im Jahr darauf entstand am National Center for Supercomputing<br />

Applications (NCSA) der Webbrowser Mosaic. Ebenfalls 1992 veröffentlichte die University of Nevada Veronica,<br />

ein Suchwerkzeug für den Gopher-Raum.<br />

Im selben Jahr startete der Bibliothekar Rick Gates die Internet Hunt, ein Suchspiel nach Informationen, bei dem<br />

auch diejenigen aus den veröffentlichten Lösungsstrategien lernen konnten, die sich nicht selber beteiligten. 1990<br />

wurde die erste fernbedienbare Maschine ans Netz gehängt, der Internet Toaster von John Romkey. Bald folgten<br />

Getränkeautomaten, Kaffeemaschinen und eine Fülle von Webkameras.<br />

Die offene Architektur <strong>des</strong> <strong>Internets</strong> macht es jedoch möglich, jede Kommunikation an allen Knoten zwischen<br />

Sender und Empfänger abzuhören. Die Antwort auf dieses Problem lautet Kryptographie, doch die galt als<br />

militärisch-staatliches Geheimwissen. Das erste für Normalsterbliche zugängliche Kryptographie-Werkzeug war<br />

PGP (Pretty Good Privacy), 1991 von Phil Zimmermann freigegeben.<br />

Neben Texten fanden sich auch schon in den 1980ern Bilder und Audiodateien im Netz, doch ihre Integration hatte<br />

mit dem WWW gerade erst begonnen. Die ersten regelmäßigen Radiosendungen im Netz waren die Audiodateien<br />

von Interviews mit Netzpionieren, die Carl Malamud ab 1993 unter dem Namen Internet Talk Radio ins Netz stellte.<br />

Weiter ging der Multimedia-Backbone (MBONE), über den 1992 die ersten Audio- und Video-Multicasts<br />

ausgestrahlt wurden. Anfangs konnten sich daran nur wenige Labors mit einer sehr hohen Bandbreite beteiligen,<br />

doch bald wurden die hier entwickelten Werkzeuge auch für den Hausgebrauch weiterentwickelt.<br />

Das Programm CUSeeMe (ein Wortspiel auf I see you seeing me) bot Video-Conferencing für den PC.<br />

Das Streaming-Format RealAudio (1995) machte es möglich, Klanginformationen in Echtzeit im Netz abzurufen.<br />

Multimediale Inhalte können mit MIME (Multimedia Internet Mail Extensions, RFC 1437) seit 1993 auch in E-Mails<br />

verschickt werden.<br />

Basierend auf der vereinfachten Auszeichnungssprache Wikitext startete 2001 die Wikipedia und wurde als<br />

kollaborativ editiertes Online-Lexikon zur umfangreichsten Enzyklopädie der Welt.


Geschichte <strong>des</strong> <strong>Internets</strong> 10<br />

Internationalisierung<br />

Europa<br />

In Europa gab es Anfang der 1980er Jahre bereits erste auf Wählverbindungen und UUCP-basierende Netze, wie<br />

zum Beispiel das 1982 etablierte EUnet (European Unix Network) mit Knoten in den Niederlanden, Dänemark,<br />

Schweden und England.<br />

In Deutschland kannte man das Internet höchstens aus dem Kino (zum Beispiel War Games – Kriegsspiele), wie sich<br />

einer der deutschen Internetpioniere, Claus Kalle vom Rechenzentrum der Universität Köln, erinnert.<br />

Großrechner kommunizierten über das teure Datex-P. Das erste Rechnernetz, das über einen E-Mail-Link in die<br />

USA und dort über ein Gateway ins Internet verfügte, war das 1984 gestartete European Academic Research<br />

Network (EARN). Natürlich wurde auch bald mit TCP/IP experimentiert – die RFCs, die man sich per E-Mail über<br />

EARN beschaffen konnte, machten neugierig – doch das Klima war für TCP/IP nicht günstig. Als 1985 der Verein<br />

zur Förderung eines Deutschen Forschungsnetzes e. V. (DFN-Verein) gegründet wurde, vertrat er ausschließlich die<br />

offizielle OSI-Linie.<br />

„In Deutschland und Europa war man damals vollkommen davon überzeugt und förderte auch politisch und<br />

finanziell, dass die Protokolle der OSI-Welt in Kürze weit verfügbar und stabil implementiert seien und damit<br />

eine Basis für die herstellerunabhängige Vernetzung existieren würde.“<br />

Die ersten Verbindungen von Rechnern außerhalb der USA liefen über UUCP. 1984 wurde zum Beispiel das JUNET<br />

(Japan Unix Network) etabliert und eine erste Botschaft von Kremvax sorgte für Aufregung, da seither auch die<br />

UdSSR an das Usenet angeschlossen war. Analog zu „The Well“ entstanden seit Mitte der 1980er Jahre<br />

Mailboxnetze, zusätzlich zum FidoNet das Z-Netz und das MausNet sowie von politischen Aktivisten 1987<br />

gegründet das CL-Netz. Ab 1992 boten diese Netze per Gateway preiswerte Mail- und News-Anbindung an das<br />

Internet.<br />

Die Initiative für ein IP-Netz in Deutschland ging 1988 von der Universität Dortmund aus. Es hatte im Rahmen <strong>des</strong><br />

europaweiten InterEUnet-Verbun<strong>des</strong> eine Anbindung erst über Datex-P, dann über eine Standleitung nach<br />

Amsterdam und von dort aus an das US-amerikanische Internet. Die Informatik-Rechnerbetriebsgruppe (IRB) der<br />

Universität Dortmund betrieb einen anonym zugänglichen FTP-Server.<br />

„Besonders förderlich war es, mit den recht frischen Kopien der GNU- und anderer Public-Domain-Pakete<br />

(Emacs, GCC, ISODE usw.) zu arbeiten. Auch war auf diesem Wege erstmalig Zugang zu Netnews und<br />

Internet-Mail möglich, so dass man sich auf dem Laufenden halten konnte.“<br />

Eine ähnliche Initiative gab es am Informatik-Lehrstuhl von Professor Werner Zorn an der Universität Karlsruhe, die<br />

zum Aufbau <strong>des</strong> XLINK (eXtended Lokales Informatik Netz Karlsruhe) führte, das ebenfalls eine Verbindung in die<br />

USA zum New Yorker NYSERnet (New York State Education and Research Network) anbot.<br />

Das OSI-Regime <strong>des</strong> DFN lockerte sich nach und nach. Das X.25-basierte Wissenschaftsnetz (WiN) sollte gleich von<br />

seinem Start an auch TCP/IP-Hosts unterstützen. Die europäischen Netzanbieter schlossen sich 1989 auf Initiative<br />

von Rob Blokzijl am National Institute for Nuclear Physics and High-Energy Physics in Amsterdam zum RIPE<br />

(Reseaux IP Européens) zusammen, um die administrative und technische Koordination für ein paneuropäisches<br />

IP-Netzwerk zu gewährleisten. Zur Konsolidierung der bereits existierenden europäischen IP-Netze begannen 1991<br />

einige Netzbetreiber, eine europäische IP-Backbone-Struktur namens EBONE zu planen und aufzubauen.<br />

1992 begannen auch Initiativen wie Individual Network e. V. (IN) mit dem Aufbau alternativer Verfahren und<br />

Strukturen zur Bereitstellung von IP-Diensten. Auch das IN nahm im Weiteren aktiv an der Gestaltung der deutschen<br />

IP-Landschaft teil. Nicht zuletzt die Netnews-Verteilung wäre ohne die IN-Mitarbeit nur schleppend<br />

vorangekommen.<br />

Der Zuwachs der internationalen IP-Konnektivität lässt sich an der Anmeldung von Länder-Domains ablesen. 1988<br />

kamen Kanada, Dänemark, Finnland, Frankreich, Island, Norwegen und Schweden dazu. Im November 1989 sind


Geschichte <strong>des</strong> <strong>Internets</strong> 11<br />

insgesamt 160.000 Hosts am Internet. Australien, Deutschland, Israel, Italien, Japan, Mexiko, die Niederlande,<br />

Neuseeland und Großbritannien schließen sich an. 1990 kommen Argentinien, Österreich, Belgien, Brasilien, Chile,<br />

Griechenland, Indien, Irland, Südkorea, Spanien und die Schweiz dazu. 1991 sind es Kroatien, Tschechien,<br />

Hongkong, Ungarn, Polen, Portugal, Singapur, Südafrika, Republik China und Tunesien. 1992 überschreitet die Zahl<br />

der Hosts die Eine-Million-Marke. Immer kleinere Länder und Territorien wie Zypern, die Antarktis, Kuwait und<br />

Luxemburg melden Länder-Domains an. 1997 kommen noch eine Reihe von Inselnationen und Protektorate hinzu,<br />

so dass heute die gesamte Weltkarte auf den Adressraum <strong>des</strong> <strong>Internets</strong> abgebildet ist.<br />

Mittlerweile ist die Verbreitung <strong>des</strong> Internet in Europa teilweise sehr weit fortgeschritten, in Island nutzen 97,8 %<br />

der Bevölkerung das Internet. In anderen Ländern Europas ist diese Zahl vergleichsweise gering, so im Kosovo 20,7<br />

% [4] .<br />

Asien<br />

China führt seit den 1950er Jahren Forschungen auf dem Gebiet der Computertechnik durch. Die Forschung und<br />

Verwendung chinesischer Rechnernetze begann als erstes durch das Eisenbahnministerium im Jahre 1980. Es<br />

errichtete Weitverkehrsnetze (damals noch: Long Haul network). Die Knotenpunkte in Beijing, Shanghai und Jinan<br />

bestanden aus PDP-11-Systemen, die Netzwerkarchitektur war DNA.<br />

Die erste internationale Anbindung von China zum Internet geschah über einen Gateway in Deutschland, Universität<br />

Karlsruhe, September 1987 und ging von akademischen Kreisen aus. Erst 1994 wurde von den chinesischen<br />

Behörden die Erlaubnis zu einer vollwertigen TCP/IP-Internetverbindung gegeben. Teilnetze in China mit<br />

Internetanbindung sind gegenwärtig CHINAnet, CERnet (China Education and Research Network), CSTnet,<br />

CHINAGBN, UNInet und CNC.<br />

1998 wurde eigens für die Kontrolle, aber auch für den Schutz der Netzwerkbetreiber mit internationaler<br />

Internetanbindung und sonstige das Internet betreffende Dinge das Ministerium für Informationsindustrie (Xinxi<br />

chanyebu) in China eingerichtet. Es ist auch mit Dingen beschäftigt, die die Zensur im Internet betreffen. 1998 gab<br />

es in China Versuche, ein chinesisches Intranet aufzubauen, die jedoch nach kurzer Zeit wieder aufgegeben wurden,<br />

z. B. das China C-Net von der Sichuan Internet Development Corporation, oder das CWW, auch China Public<br />

Multimedia Network genannt, das von der China Telecom entwickelt wurde.<br />

Kommerzialisierung<br />

Das Entstehen eines kommerziellen Marktes für Internetanbieter anzuregen und zu fördern, war eines der Ziele der<br />

NSFnet-Initiative. Zu den ersten Nutznießern gehörten Unternehmen wie Performance Systems International (PSI),<br />

Advanced Network and Systems (ANS, von IBM, MERIT und MCI gegründet), Sprintlink und CERFNet von<br />

General Atomics, das auch das San Diego Supercomputer Center betrieb.<br />

Die kommerziellen ISPs sollten Ende der 1980er den Erhalt und Ausbau <strong>des</strong> <strong>Internets</strong> von den Universitäten und<br />

Forschungbehörden übernehmen. Dadurch entstand auch ein bedeutender Markt für internetbasierte Produkte. Len<br />

Bozack, ein Stanford-Student, gründete Cisco Systems. Andere, wie 3Com, Proteon, Banyan Company, Wellfleet<br />

und Bridge gingen ebenfalls in den Router-Markt. Die erste Internet-Industriemesse, die Interop in San Jose 1988,<br />

zog 50 Aussteller und 5000 Besucher an.<br />

1991 hob die NSF das bis dahin bestehende Werbeverbot (die acceptable use policy) in der öffentlichen<br />

Netzinfrastruktur auf. Damit war der Weg frei dafür, dass sich General Atomics (CERFnet), PSINet und UUNET<br />

(AlterNet) in Kalifornien zum ersten Commercial Internet eXchange (CIX) zusammenschlossen, um den<br />

uneingeschränkten Verkehr zwischen den kommerziellen Netzen zu organisieren.<br />

Auch in Deutschland begann Anfang der 1990er die Privatisierung der universitären Infrastruktur. Das<br />

Drittmittelprojekt Eunet der Informatik-Rechnerbetriebsgruppe der Universität Dortmund wurde Ende 1992 zur<br />

EUnet Deutschland GmbH. Im Jahr darauf wurde auch das XLINK-Projekt an der Uni Karlsruhe zum


Geschichte <strong>des</strong> <strong>Internets</strong> 12<br />

Geschäftsbereich der NTG Netzwerk und Telematic GmbH, ihrerseits Tochter von Bull.<br />

Wende ab 1990<br />

Ein Wendepunkt lässt sich am Übergang von den 1980er zu den 1990er Jahren ausmachen. Das ARPANet wird<br />

1990 offiziell abgeschaltet. Die NSF verlagert die Netzwerkförderung von einer direkten Finanzierung der<br />

akademischen Backbone-Infrastruktur hin zur Bereitstellung von Etats, mit denen die Universitäten sich<br />

Konnektivität von kommerziellen Anbietern einkaufen. Mit der schwindenden Rolle der NSF im Internet endete<br />

auch die Verbindlichkeit der Acceptable Use Policy. Zunächst behutsam, dann in einem unaufhörlichen Strom<br />

setzten die Werbebotschaften im Netz ein. Die im CIX zusammengeschalteten Netzanbieter vermarkteten das<br />

Internet als Businessplattform. Über die Gateways der kommerziellen BBSe kamen Nutzerkulturen, die es gewohnt<br />

waren, für Informationen zu bezahlen und ihrerseits die Kanäle hemmungslos für gewerbliche Zwecke zu<br />

verwenden. Einen berüchtigten Konflikt löste die Anwaltskanzlei Canter & Siegel aus Arizona aus, als sie 1994<br />

Massen-Postings (Spam) zur Bewerbung ihrer Green-Card-Lotteriedienste in das Usenet schickte. Die<br />

Netzbewohner reagierten heftig und unterbanden diesen Missbrauch, indem sie den Spam wieder cancelten und das<br />

Unternehmen massenhaft mit E-Mails eindeckten.<br />

Ab 1990 wurden gezielte Anstrengungen unternommen, kommerzielle<br />

und nicht kommerzielle Informationsdiensteanbieter ins Netz zu holen.<br />

Unter den ersten befanden sich Dow Jones, Telebase, Dialog, CARL<br />

(die Colorado Alliance of Research Libraries) und die National<br />

Library of Medicine.<br />

Der erste kommerzielle Internetprovider World ging 1990 an den Start.<br />

1991 konnte das WWW so seinen Siegeszug antreten. Mehr als 100<br />

Länder waren an das Internet angeschlossen, mit über 600.000 Hosts<br />

und fast 5.000 einzelnen Netzen. Im Januar 1993 waren es schon über<br />

1,3 Millionen Rechner und über 10.000 Netzwerke.<br />

WWW-Nachbarn der Wikipedia<br />

Der damalige US-Präsident Bill Clinton und Vizepräsident Al Gore gaben im Februar 1993 unmittelbar nach ihrem<br />

Amtsantritt auf einem Town Meeting im Silicon Valley eine Erklärung über ihre Technologiepolitik ab, in der das<br />

Internet bereits eine zentrale Rolle spielte. Damit lösten sie eine Art Vorbeben aus, in einer geopolitischen Situation,<br />

in der die USA sich in einer Wirtschaftskrise befanden, Europa im Aufschwung und Japan an der Weltspitze. Die<br />

eigentliche Schockwelle ging über die Welt hinweg, als Al Gore am 15. September <strong>des</strong> Jahres die National<br />

Information Infrastructure Agenda for Action (siehe NII) verkündete, in der er Netzwerke nicht nur selbst zu einer<br />

Multi-Milliarden-Dollar-Industrie, sondern zu einer Grundlageninfrastruktur für Wirtschaft, Bildung, Wissenschaft<br />

und Kultur erklärte. Das Bewusstsein, in einem Schlüsseltechniksektor hinter den USA herzuhinken, löste allerorten<br />

hektisches Treiben aus. Spätestens damit begann die kommerzielle Erschließung und die Massenbesiedlung <strong>des</strong><br />

<strong>Internets</strong>.<br />

Für die neuen Generationen von Nutzern gibt es nur eine Information, die frei und möglichst weit zirkulieren soll:<br />

Werbung. Alle andere Information ist für sie Ware. Um nun in diesem promiskuitiven Milieu eine Information (zum<br />

Beispiel Börsendaten, Lehrmaterial, Musikstücke) derjenigen und nur derjenigen zugänglich zu machen, die dafür<br />

bezahlt hat, mussten in das Internet zusätzliche, aufwendige Schutzmechanismen, Zonen mit Zugangskontrollen und<br />

kryptographisch abgesicherte Rechtekontrollsysteme eingezogen werden. Die Rechteindustrie (Bertelsmann, Sony,<br />

Time Warner usw.) arbeitet seit etwa 1994 nach Kräften daran, ihre Waren über das Netz verkaufbar zu machen und<br />

technisch abzusichern. Nichts demonstrierte die neue Qualität <strong>des</strong> <strong>Internets</strong> besser, als die erste Cyber-Bank First<br />

Virtual, die 1994 ihren Betrieb aufnahm.<br />

Microsoft verpasste offenbar die fortschreitenden Entwicklungen <strong>des</strong> <strong>Internets</strong>: Bill Gates erwähnte in der<br />

Erstausgabe seines 1995 erschienenen Buches The Road Ahead das Internet mit keinem Wort. Kurz darauf


Geschichte <strong>des</strong> <strong>Internets</strong> 13<br />

schwenkte er seine Firma auf Internet-Kurs. Noch im selben Jahr erschien die erste Version <strong>des</strong> Web-Browsers<br />

Microsoft Internet Explorer.<br />

Nachdem die Kopplung von Hard- und Software gebrochen war, löste das Web die Verbindung von jeweils<br />

spezifischer Software und Information auf. Microsoft Network (MSN) war dagegen ein Versuch, erneut eine solche<br />

Kopplung zu legen: ein geschlossenes Format, in dem Unternehmen kostenpflichtige Informationen und<br />

Dienstleistungen anbieten konnten – sofern sie eine Startgebühr von 50.000 Dollar und einen Anteil aller Einnahmen<br />

an MS zahlten. Es handelte sich um eine verspätete Imitation der geschlossenen BBSe wie CompuServe oder AOL,<br />

die bereits durch das WWW überholt waren, das es jedem erlaubte, gebührenfrei Informationen anzubieten.<br />

Domain-Namen waren bislang nichts als eine Mnemotechnik gewesen, die die darunter liegenden numerischen<br />

IP-Adressen handhabbarer machten. Durch den Einzug großer Unternehmen mit ihren geschützten Warenzeichen<br />

wurden sie zu einem aggressiv umstrittenen Territorium.<br />

Der erste prominente Streit darüber, ob Domain-Namen geistiges Eigentum sind, war der von MTV Networks gegen<br />

Adam Curry. Etwa im Mai 1993 hatte Curry, ein MTV-Video-Jockey, auf eigene Faust und Kosten ein<br />

Informationsangebot unter mtv.com gestartet. In Gesprächen mit führenden Angestellten von MTVN und deren<br />

Muttergesellschaft Viacom New Media hieß es, MTV habe kein Interesse am Internet, hindere Curry aber auch nicht<br />

an seinen Aktivitäten. Also baute Curry sein Informationsangebot weiter aus, unter anderem mit einem schwarzen<br />

Brett, auf dem sich Musiker und Vertreter der Musikindustrie miteinander unterhielten. In den von ihm moderierten<br />

Fernsehprogrammen wurden E-Mail-Adressen wie popquiz@mtv.com eingeblendet. Im Januar 1994 forderte MTVN<br />

Curry förmlich auf, die Verwendung von mtv.com einzustellen. Dennoch verwiesen MTV-Sendungen weiterhin auf<br />

diese Adresse und ein führender Angestellter bat Curry im Februar, bestimmte Informationen in seiner Seite<br />

aufzunehmen. Inzwischen hatten MTVN und AOL einen Vertrag abgeschlossen, um einen kostenpflichtigen Dienst<br />

anzubieten, der unter anderem ein schwarzes Brett für Musikprofis beinhalten sollte, das dem von Curry auffällig<br />

glich. MTVN verklagte Curry unter anderem wegen <strong>des</strong> Verstoßes gegen Trademark-Ansprüche auf Freigabe der<br />

Domain mtv.com. Currys Versuche, den Streit gütlich beizulegen, scheiterten. Er kündigte. Letztlich kam es doch zu<br />

einer außergerichtlichen Einigung, bei der Curry die Domain an MTV aufgab.<br />

Die Situation war typisch für die Zeit um 1993/1994: Große Unternehmen, auch aus der Medienbranche, ignorierten<br />

oder unterschätzten die Bedeutung <strong>des</strong> <strong>Internets</strong>, während innovative Einzelpersonen durch ihr persönliches<br />

Engagement populäre und kostenlose Informationsangebote aufbauten, nur um zusehen zu müssen, wie ihnen die<br />

Früchte ihrer Arbeit mit Hilfe <strong>des</strong> Rechtssystems abgesprochen wurden. Nachdem in zahlreichen Urteilen<br />

entschieden war, dass Domain-Namen dem Warenzeichenregime unterliegen, setzte ein reger Handel ein. CNET<br />

beispielsweise kaufte 1996 die Domain tv.com für 15.000 Dollar. business.com wurde 1997 für 150.000 Dollar<br />

verkauft und zwei Jahre später für bereits 7,5 Millionen Dollar weiterverkauft.<br />

Bis 1995 war die kommerzielle Backbone-Infrastruktur in den USA soweit errichtet und untereinander verschaltet,<br />

dass der NSFNET-Backbone-Dienst eingestellt werden konnte. Im selben Jahr gingen eine Reihe von<br />

Internetunternehmen an die Börse, am spektakulärsten das auf der NCSA-Browser-Technik errichtete Netscape mit<br />

dem drittgrößten NASDAQ-IPO-Wert aller Zeiten.<br />

Im Gefolge der Wirtschaft hielten auch die Rechtsanwälte Einzug ins Internet. Als Teil der Verrechtlichung<br />

unternahm auch der Gesetzgeber Schritte zur Regulierung. 1996 wurde in den USA der umstrittene Communications<br />

Decency Act (CDA) verabschiedet, der den Gebrauch von unanständigen Wörtern im Internet verbietet. Einige<br />

Monate später verhängte ein Gericht eine einstweilige Verfügung gegen die Anwendung dieses Gesetzes. 1997<br />

erklärte das höchste US-Gericht den CDA für verfassungswidrig. Dennoch wurde in dieser Zeit der vermeintlich<br />

rechtsfreie Raum <strong>des</strong> <strong>Internets</strong> in die gesetzlichen Regularien von Gebieten wie der Kryptographie über das<br />

Urheberrecht bis zu den Allgemeinen Geschäftsbedingungen einbezogen.<br />

In vielen Ländern greifen Gerichte und staatliche Behörden in den Cyberspace ein. Die Volksrepublik China<br />

verlangt zum Beispiel, dass ISPs und Nutzer sich bei der Polizei registrieren. Ein deutsches Gericht entschied, dass<br />

CompuServe den Zugang zu Newsgroups, die sich im weitesten Sinne mit Sexualität beschäftigen, unterbinden


Geschichte <strong>des</strong> <strong>Internets</strong> 14<br />

muss. Da CompuServe sein weltweites Informationsangebot in seiner Zentrale in Ohio vorrätig hält und es technisch<br />

nicht nach einzelnen Länder differenzieren konnte, schaltete es die Newsgroups für alle Nutzer ab, was eine vor<br />

allem amerikanische Protest- und Boykottwelle gegen Deutschland auslöste. Saudi-Arabien beschränkt den Zugang<br />

zum Internet auf Universitäten und Krankenhäuser. Singapur verpflichtet Anbieter politischer und religiöser Inhalte,<br />

sich staatlich registrieren zu lassen. Neuseeland klassifiziert Computerdisketten als Publikationen, die zensiert und<br />

beschlagnahmt werden können. Amerikanische Telekommunikationsunternehmen nahmen Anstoß an<br />

Internet-Telefoniediensten und forderten das Parlament auf, die Technik zu verbieten.<br />

Auch die Selbstorganisation der technischen Entwicklung der Internetgrundlagen veränderte ihren Charakter. Saßen<br />

in den jährlichen Treffen von IETF-Arbeitsgruppen Mitte der 1980er Jahre höchstens einhundert Personen, sind es<br />

jetzt nicht selten zwei- bis dreitausend. Entsprechend sind sie kein kollektives Brainstorming mehr, sondern dicht<br />

gedrängte Abfolgen von Präsentationen. Die eigentliche Arbeit findet immer häufiger in kleinen geschlossenen<br />

Gruppen, den Design-Teams, statt. Während die mehr als zwanzig Jahre alte Technik <strong>des</strong> <strong>Internets</strong> erstaunlich stabil<br />

skaliert, stoßen die Communitystrukturen an ihre Grenzen. Auch die Zusammensetzung der Arbeitsgruppen<br />

veränderte sich:<br />

„Seit den späten 80er Jahren hat sich der Anteil akademischer Mitglieder in der IETF stetig verringert – und<br />

das nicht nur, weil die Zahl der Unternehmen immer mehr anstieg, sondern auch, weil immer mehr<br />

Gründungsmitglieder in die Wirtschaft wechselten.“<br />

Das kollektive Streben nach der besten Lösung für das Internet als Ganzes, so Jeanette Hofmann, drohe, von den<br />

Interessen konkurrierender Unternehmen unterlaufen zu werden, die ihre jeweiligen Produkte durchsetzen wollten.<br />

Schließlich führten die schiere Größe, die nachrückende Generation von Ingenieuren und das Gewicht der<br />

gewachsenen Struktur dazu, dass die Standardentwicklung dazu neigt, konservativer und mittelmäßiger zu werden.<br />

Hofmanns Fazit: Die IETF sei auf dem besten Weg, eine Standardisierungsorganisation wie jede andere zu werden:<br />

„Das Internet und seine Gemeinde sind in der Normalität angekommen. Irgendwann werden sich die Väter<br />

unter der wachsenden Zahl gleichberechtigter Mitglieder verloren haben – und mit ihnen ein Teil der Ideen<br />

und Prinzipien, die die Entstehung <strong>des</strong> <strong>Internets</strong> umgaben.“<br />

Dotcom-Boom Ende <strong>des</strong> 20. Jahrhunderts<br />

Mitte der 1990er Jahre begann das Internet immer schneller zu<br />

wachsen – und war spätestens zu diesem Zeitpunkt auch schon immer<br />

größeren Teilen der (nicht-akademischen) Bevölkerung ein Begriff. In<br />

Deutschland boten die Deutsche Telekom und diverse Wettbewerber<br />

(zum Beispiel AOL und CompuServe) bun<strong>des</strong>weit Internet-Zugänge zu<br />

immer günstigeren Konditionen an und bewarben diese Angebote<br />

massiv.<br />

Die Geschwindigkeit der Modems stieg immer weiter an und in Europa<br />

Dotcom-Blase an der NASDAQ<br />

wurde mit dem ISDN-Anschluss ein digitaler Telefonanschluss<br />

angeboten, der direkt für die schnelle Datenübertragung konzipiert war. Auch die Geschwindigkeit der Backbones<br />

stieg weiter an, da für viel Geld immer mehr Leitungen verlegt wurden.<br />

Das Internet gewann infolge<strong>des</strong>sen immer mehr an Popularität. Dadurch wurde es auch wirtschaftlich immer<br />

interessanter und viele größere Unternehmen begannen, auf Homepages ihre Produkte darzustellen und zu bewerben.<br />

Einige Privatleute gingen noch weiter und gründeten Unternehmen, die nur im Internet agierten und dort Waren und<br />

Dienstleistungen anboten. Mit wenig Startkapital konnten sie Ideen umsetzen, die von den Kunden gut angenommen<br />

wurden. Um ihr Geschäft weiter auszubauen, besorgten sie sich über einen Börsengang zusätzliches Kapital. Da der<br />

Unternehmensname häufig der Domain entsprach (die für kommerzielle Anbieter in der Regel mit „.com“ endet),<br />

wurde diese Boomphase auch als Dotcom-Boom (engl. dot zu deutsch: Punkt) bezeichnet.


Geschichte <strong>des</strong> <strong>Internets</strong> 15<br />

Auch in Deutschland kam es zu einem Dotcom-Boom – im Wesentlichen durch den Börsengang <strong>des</strong> ehemaligen<br />

Staatskonzerns Telekom. Dieser Börsengang wurde massiv bei der gesamten Bevölkerung beworben, um die<br />

Telekom-Aktie als Volksaktie gerade auch bei der bisher eher aktienunerfahrenen Bevölkerung bekannt zu machen.<br />

In der Folge interessierten sich immer mehr Leute für die Börse und kauften auch Aktien von diversen anderen<br />

Internet-Neugründungen.<br />

Zahlreiche Börsenexperten hielten die Aktienkurse der Internet-Unternehmen am Neuen Markt für überbewertet –<br />

aber in der allgemeinen Euphorie wurden solche Stimmen ignoriert.<br />

Im Jahr 2000 kam es dann jedoch tatsächlich zu einem Börsencrash, der einen allgemeinen Abwärtstrend an der<br />

Börse einläutete. Seitdem wird der Dotcom-Boom rückblickend auch als Dotcom-Blase bezeichnet. Viele der<br />

gegründeten Internet-StartUps mussten wieder schließen, insbesondere Geschäftsmodelle, die sich allein über<br />

Werbung finanzieren sollten oder sogar den Surfer für den Erhalt von Werbung bezahlen lassen wollten<br />

(Paid4-Szene), konnten sich nicht halten. Die inzwischen etablierten Internet-Unternehmen wie Amazon, eBay oder<br />

Google waren jedoch nicht so stark betroffen, dass ihre Existenz gefährdet wäre. Und so geht der Internet-Boom,<br />

wenn auch gebremst, trotzdem weiter.<br />

Mit dem Ende <strong>des</strong> 20. Jahrhunderts wurden auch erstmals ökologische Aspekte bei der Einrichtung der<br />

Internet-Infrastruktur berücksichtigt. 1999 wurde in Kalifornien der erste Webhosting-Anbieter gegründet, der seine<br />

Server komplett mit Ökostrom betreibt, seit 2003 bietet dies Greenpeace Energy auch in Deutschland an. Im Jahr<br />

2005 hat in Deutschland der Stromverbrauch für Internet-Infrastruktur und Nutzung bereits den Stromverbrauch für<br />

Beleuchtung überschritten.<br />

Urheberrechtsverletzungen<br />

Durch immer größere Übertragungsleistung einerseits und immer bessere Multimedia-Fähigkeiten der PCs<br />

andererseits ist das Internet zunehmend auch ein nicht immer legaler Vertriebsweg für praktisch jede Art von Daten.<br />

Bereits Mitte der 1990er Jahre war es für die üblichen PCs kein Problem, komprimierte Audio-Dateien insbesondere<br />

in dem schon damals beliebten MP3-Format zu speichern und abzuspielen. Diese Dateien lassen sich zudem bereits<br />

bei einfacher ISDN-Geschwindigkeit in nur der zwei- bis dreifachen Spielzeit übertragen; mit DSL-Leitungen gar<br />

schneller als sie abgespielt werden. Dies führte bald zu einem regen Tauschhandel solcher Dateien ohne Beachtung<br />

<strong>des</strong> Urheberrechts. Versuche der Musikindustrie, gegen diesen vorzugehen, sind nur von mäßigem Erfolg geprägt;<br />

zudem sich auch die Tauschsysteme immer weiter verbessern und nach dem Peer-to-Peer-Prinzip ohne zentrale,<br />

kontrollierbare Instanzen auskommen.<br />

Zudem reagiert die Musikindustrie nur sehr träge auf die Konkurrenz und versäumt es lange Zeit, eigene legale<br />

Angebote zum direkten Herunterladen von Musikdateien auf den PC zu entwickeln. Statt<strong>des</strong>sen wurden einzig die<br />

Tauschbörsen bekämpft, wobei diverse Berichte über Kollateralschäden wie zu Unrecht angeklagte Personen oder<br />

die Behinderung einer legalen Nutzung entsprechender Dienste dem Image der Branche zusätzlich schaden und den<br />

Schwarzkopierern ein Image als „modernen Robin Hood“ geben. Erst 2003 startet mit dem Apple iTunes Music<br />

Store ein Online-Musikgeschäft in den USA, das aufgrund der Preise (99 Cent/Song) von zahlreichen Nutzern<br />

angenommen wird. Seit Juni 2004 ist der iTunes Store auch in Deutschland, Großbritannien und Frankreich<br />

verfügbar. Hier sind jedoch die Dateien zunächst gegen weiteres Kopieren gesperrt, sogenanntes Digital Rights<br />

Management (DRM). Erst in der jüngsten Zeit zeigt sich ein Trend weg von DRM-Beschränkungen, da diese von<br />

den Kunden schlecht angenommen werden und sich oftmals als weitgehend wirkungslos erweisen.<br />

Dieser Tauschhandel dehnte sich im Zuge steigender Bandbreiten und Festplattenkapazitäten auch auf Programme<br />

und später Video-Inhalte aus, wo die Anbieter jedoch – wohl auch durch die Erfahrungen der Musikindustrie<br />

aufgeschreckt – schneller reagieren und entsprechende Download-Angebote zur Verfügung stellen.


Geschichte <strong>des</strong> <strong>Internets</strong> 16<br />

Literatur<br />

• Abbate, Janet (1999): Inventing the Internet. Cambridge, Mass.: MIT Press.<br />

• Christoph Classen, Susanne Kinnebrock & Maria Löblich, eds. 2012: Towards Web History: Sources, Methods,<br />

and Challenges in the Digital Age [5] . In Historical Social Research 37 (4): 97-188, 2012.<br />

• Dammbeck, Lutz (2005): Das Netz – Die Konstruktion <strong>des</strong> Unabombers. ISBN 3-89401-453-9 (Buch,<br />

Dokumentarfilm [6] und Filmheft [7] )<br />

• Friedewald, Michael (2000): Vom Experimentierfeld zum Massenmedium: Gestaltende Kräfte in der Entwicklung<br />

<strong>des</strong> <strong>Internets</strong>. In: Technikgeschichte 67, Nr. 4, S. 331–361.<br />

• Fries, Manuel (2000): China and Cyberspace. The Development of the Chinese National Information<br />

Infrastrukture. Bochum: Bochum University Press<br />

• Fricker, Bruno (2001, 2004, 2008, 2013): Surfen – browsen – mailen. I – III. und "Tanzen statt surfen. Kolumnen<br />

aus dem Internet." Noderstedt: Books on Demand GmbH, ISBN 3-0344-0015-2, ISBN 3-908730-31-7, ISBN<br />

3-8370-4214-6 und ISBN 978-3-7322-3080-8. (Querschnitt durch das Internet anhand von Beispielen aus den<br />

Jahren 1987 – 2012.)<br />

• Grassmuck, Volker (2002): Freie Software. Zwischen Privat- und Gemeineigentum. Bonn: Bun<strong>des</strong>zentrale für<br />

politische Bildung, ISBN 3-89331-432-6<br />

• Hafner, Katie / Matthew Lyon (2000): ARPA KADABRA oder Die Geschichte <strong>des</strong> <strong>Internets</strong>. Heidelberg:<br />

dpunkt-Verlag, ISBN 3-932588-59-2<br />

• Hauben, Michael / Ronda Hauben (1997): Netizens: On the History and Impact of Usenet and the Internet. Los<br />

Alamitos, CA: IEEE Computer Society Press.<br />

• Marcus, James (2006): amazonia – Fünf Jahre im Epizentrum der E-Commerce-Revolution. Berlin:<br />

Schwarzerfreitag Verlag, ISBN 3-937623-24-8<br />

• Naughton, John (2000): A Brief History of the Future: The Origins of the Internet. London: Phoenix.<br />

• Salus, Peter H. (1995): Casting the Net: From ARPANET to INTERNET and beyond… Reading, Mass.:<br />

Addison-Wesley.<br />

Weblinks<br />

• Freie Software Zwischen Privat- und Gemeineigentum von Volker Grassmuck im Volltext [8]<br />

• Die Geschichte <strong>des</strong> Netzes: ein historischer Abriss [9]<br />

• Geschichte <strong>des</strong> <strong>Internets</strong> auf den Seiten der Internet Society [10]<br />

• Die historische sowie chronologische Entwicklung <strong>des</strong> <strong>Internets</strong> [11]<br />

• Internet [12] im Historischen Lexikon der Schweiz<br />

• WayBackMachine, archiviert Abbildungen vergangener Webseiten [13]<br />

• EUnet-Geschichte von 1982 bis 1992 [14]<br />

• Seminararbeit Geschichte <strong>des</strong> Internet [15] (PDF-Datei; 512 kB)<br />

• Vergleich der Ausbreitungsgeschwindigkeit Internet-Radio-TV (USA) [16]<br />

• Die Geschichte <strong>des</strong> <strong>Internets</strong> als chronologische Grafik [17]


Geschichte <strong>des</strong> <strong>Internets</strong> 17<br />

Einzelnachweise<br />

[1] The World’s Technological Capacity to Store, Communicate, and Compute Information. (http:// www. sciencemag. org/ content/ 332/ 6025/<br />

60) Martin Hilbert and Priscila López (2011), Science, 332(6025), 60–65; kostenfreien Zugriff auf den Artikel gibt es über diese Seite:<br />

martinhilbert.net/WorldInfoCapacity.html<br />

[2] Vgl. Georg Ruppelt, Hg.: "Der große summende Gott". Geschichten von Denkmaschinen, Computern und Künstlicher Intelligenz. C. W.<br />

Niemeyer, Hameln 2003 ISBN 3827188075; wieder in ders.: Nachdem Martin Luther Papst geworden war und die Alliierten den Zweiten<br />

Weltkrieg verloren hatten. Wehrhahn, Hannover 2007, S. 174<br />

[3] Welt.de: Der 29. Oktober ist Internet-Tag (http:// www. welt. de/ welt_print/ article1308095/ Der_29_Oktober_ist_Internet_Tag. html),<br />

abgefragt am 29. Oktober 2009<br />

[4] http:/ / www. internetworldstats. com/ stats4. htm<br />

[5] http:/ / www. gesis. org/ hsr/ aktuelle-ausgaben/ aktuelle-hefte-2010-2012/ 374-the-economie-<strong>des</strong>-conventions/<br />

[6] http:/ / www. t-h-e-n-e-t. com/ start_html. htm<br />

[7] http:/ / www. bpb. de/ publikationen/ S0R2H2,,0,Das_Netz. html<br />

[8] http:/ / freie-software. bpb. de/<br />

[9] http:/ / www. uni-duesseldorf. de/ home/ Fakultaeten/ math_nat/ WE/ Psychologie/ abteilungen/ ddp/ Dokumente/ Publications/ 1997. Musch.<br />

Die_Geschichte_<strong>des</strong>_Netzes. html<br />

[10] http:/ / www. internetsociety. org/ internet/ what-internet/ history-internet<br />

[11] http:/ / www. dvdh. de/ internet/ entwicklung-<strong>des</strong>-internet. html<br />

[12] http:/ / www. hls-dhs-dss. ch/ textes/ d/ D48816. php<br />

[13] http:/ / www. archive. org/ index. php<br />

[14] http:/ / irb. cs. tu-dortmund. de/ cont/ de/ home/ ueber/ projekte/ eunet/<br />

[15] http:/ / www. techfak. uni-bielefeld. de/ ags/ wbski/ lehre/ digiSA/ Gedankengeschichte/ Ausarbeitungen/ 2906. pdf<br />

[16] http:/ / gedankenstrich. org/ 2011/ 08/ das-web-hat-sich-schneller-als-je<strong>des</strong>-andere-medium-ausgebreitet-ein-mythos/<br />

[17] http:/ / www. tele2. de/ Extras/ Glossar/ G-H/ Geschichte-<strong>des</strong>-<strong>Internets</strong>. aspx<br />

Ping (Datenübertragung)<br />

Ping ist ein Diagnose-Werkzeug, mit dem überprüft werden kann, ob ein bestimmter Host in einem IP-Netzwerk<br />

erreichbar ist. Daneben geben die meisten heutigen Implementierungen dieses Werkzeuges auch die Zeitspanne<br />

zwischen dem Aussenden eines Paketes zu diesem Host und dem Empfangen eines daraufhin unmittelbar<br />

zurückgeschickten Antwortpaketes an (= Paketumlaufzeit, meist Round trip time oder RTT genannt). Das Programm<br />

wird üblicherweise als Konsolenbefehl ausgeführt. Entwickelt wurde Ping ursprünglich Ende 1983 von Mike Muuss<br />

und erschien zum ersten Mal in BSD 4.3.<br />

Funktionsweise<br />

Ping sendet ein ICMP(v6)-„Echo-Request“-Paket (ping, ICMP-Pakettyp 8 (0x08)) an die Zieladresse <strong>des</strong> zu<br />

überprüfenden Hosts. Der Empfänger muss, sofern er das Protokoll unterstützt, laut Protokollspezifikation eine<br />

Antwort zurücksenden: ICMP „Echo-Reply“ (pong, ICMP-Pakettyp 0 (0x00)). Ist der Zielrechner nicht erreichbar,<br />

antwortet der zuständige Router: „Network unreachable“ (Netzwerk nicht erreichbar) oder „Host unreachable“<br />

(Gegenstelle nicht erreichbar).<br />

Aus einer fehlenden Antwort kann nicht geschlossen werden, dass die Gegenstelle nicht erreichbar wäre, da manche<br />

Hosts so konfiguriert sind, dass sie ICMP-Pakete ignorieren und verwerfen; siehe: Security through Obscurity,<br />

Firewall.<br />

Wird dem Ping-Kommando ein Hostname in FQDN-Schreibweise anstatt einer IP-Adresse übergeben, lässt das<br />

Programm diesen durch das Betriebssystem auflösen. Bei fehlerhaften Konfigurationen (hosts-Datei, lmhosts-Datei,<br />

WINS, DNS) schlägt diese nach Ablauf einer Wartezeit (Timeout) fehl und resultiert in einer Fehlermeldung. Falls<br />

eine IP-Adresse angegeben wurde, tritt in dieser Situation ein ähnliches Problem auf, da zunächst das Scheitern der<br />

Rückwärtsauflösung zur Bestimmung der zur IP-Adresse gehörigen FQDN abgewartet werden muss. Je nach<br />

Implementation von ping lässt sich das Reverse-Lookup mit einer Option abschalten oder ist standardmäßig<br />

deaktiviert.


Ping (Datenübertragung) 18<br />

Beispiel<br />

Es werden Datenpakete an den<br />

Rechner www.google.com<br />

gesandt. Vom Programm wird die Zeit<br />

gemessen, bis die Antwort <strong>des</strong> Hosts<br />

eintrifft. Die Zeitangabe sagt aus, wie<br />

lange ein Datenpaket zum Host und<br />

wieder zurück benötigt („response time<br />

average“). Man kann daran grob<br />

erkennen, ob das Routing zur<br />

Gegenstelle funktioniert, deren<br />

TCP/IP-Stack funktionsfähig ist und<br />

mit welcher Verzögerung bei einer<br />

Verbindung zu rechnen ist.<br />

Ping auf der Kommandozeile in Windows<br />

Die Angabe TTL kann dazu genutzt werden, grob abzuschätzen, über wie viele Router die ICMP-Pakete gelaufen<br />

sind (jeder Router dekrementiert den Wert min<strong>des</strong>tens um 1, wobei der Initialwert je nach Implementierung 64, 128<br />

etc. sein kann).<br />

Round-Trip-Delay (RTD)<br />

Die Paketumlaufzeit wird als round trip delay (RTD), round-trip-time (RTT) und im Deutschen häufig verkürzt als<br />

Pingdauer, Ping-Zeit oder schlicht Ping bezeichnet. Diese gemessene Latenz umfasst sowohl die<br />

entfernungsabhängige elektrische Signallaufzeit, als auch die Verarbeitungszeit in den als Zwischenstationen<br />

fungierenden Routern, zudem die Verarbeitungszeit in den TCP/IP-Stacks <strong>des</strong> Absende- und Zielrechners. Auf<br />

Verbindungen mit hoher Auslastung erhöhen sich die Zeiten durch Sendewarteschlangen in den jeweiligen Routern.<br />

Die Entfernung zwischen zwei beliebigen Punkten auf der Erdoberfläche lässt sich mittels der Orthodromen<br />

bestimmen. Dividiert man die so erhaltene Entfernung durch die Übertragungsgeschwindigkeit, erhält man die<br />

minimal mögliche RTT.<br />

Ein Beispiel: Die Entfernung zwischen Berlin und Tokio beträgt 8941,2 km. Wählt man als<br />

Übertragungsgeschwindigkeit die Lichtgeschwindigkeit im Vakuum (ca. 300.000 km/s), so ergibt sich eine minimal<br />

mögliche Paketumlaufzeit von etwa 2 × 29,8 ms = 59,6 ms. Der Faktor 2 entsteht durch Hin- und Rückweg. Ein<br />

realistischerer Wert für die Geschwindigkeit wäre etwa 150.000 km/s, wenn man die in der Materie (Glasfaser)<br />

reduzierte Lichtgeschwindigkeit sowie Verzögerungen an Umsetzstationen, Routern und Switches berücksichtigt.<br />

Unter Annahme dieser realistischeren Geschwindigkeit und dem direkten Leitungsweg ergibt sich eine minimale<br />

Pingzeit von etwa 120 ms.<br />

In der Praxis liegt der Wert jedoch viel höher, so ergeben sich Laufzeiten von etwa 300 ms zwischen Berlin und<br />

Tokio, da manche Verbindungen von Europa nach Asien nicht auf dem direkten Weg, sondern über die Vereinigten<br />

Staaten geroutet werden.<br />

Zur Laufzeitmessung sind nur Hosts mit bekanntem Antwortverhalten sinnvoll nutzbar, da viele Netzwerkgeräte<br />

(Router, Switches) oft nur langsam auf ICMP-Requests reagieren, da sie nicht dahingehend optimiert wurden oder<br />

durch verzögerte Pings Angriffsszenarien auszuschließen versuchen (siehe Firewall).


Ping (Datenübertragung) 19<br />

Herkunft <strong>des</strong> Namens<br />

Der Name „ping“ stammt aus der Militärtechnik. Seit dem Zweiten Weltkrieg wird Sonar eingesetzt, um U-Boote<br />

aufzuspüren. Das dabei ausgestrahlte Schallsignal hört sich in einem U-Boot wie ein hohes Klopfgeräusch an, das als<br />

„Ping“ beschrieben wird.<br />

Das Programm ping benutzt eine Serie von Internet Control Message Protocol (ICMP)-Echo Nachrichten (messages)<br />

um zu prüfen, ob ein ferner Host-Computer aktiv oder inaktiv ist. Es wurde (wie viele weitere Beiträge zur<br />

Entwicklung <strong>des</strong> <strong>Internets</strong>) als sogenannter Request for Comment (RFC) der Internet Engineering Task Force (IETF)<br />

zur Verfügung gestellt (siehe RFC 4560, RFC 2925, RFC 1739). Häufig wird „ping“ als Abkürzung von „Packet<br />

Internet Grouper“ dargestellt. Der Autor <strong>des</strong> Programms selbst sagte jedoch: „Aus meiner Sicht ist PING kein<br />

Akronym für ‚Packet InterNet Grouper‘, sondern eine Analogie zum Sonar.“.<br />

Verwandte Programme<br />

Bei dem verbreiteten Unix-ähnlichen System Linux gibt es zusätzlich einige Programme, die ähnlich wie ping<br />

arbeiten:<br />

• bing (misst zusätzlich die Übertragungsrate)<br />

• fping (kann mehrere Rechner zugleich anpingen, siehe auch Broadcast)<br />

• hping (erlaubt die Manipulation von Protokollen, Ports und Flags)<br />

• arping (liest im lokalen Netzwerk auch die MAC-Adresse aus)<br />

• mtr (kombiniert die Funktionalität von „traceroute“ und „ping“ in einem Netzwerkdiagnoseprogramm)<br />

• httping (ermittelt für einen URL die Antwortzeit)<br />

• ping6 (unter Linux für IPv6, in Windows bedient ping beide Protokolle(IPv4/IPv6), einstellbar durch die<br />

Optionen -4 -6 )<br />

Im Betriebssystem Windows gibt es zur Fehlersuche im gerouteten Netzwerk:<br />

• pathping (Mischung aus tracert und ping)<br />

Einzelnachweise<br />

Weblinks<br />

• Internet Engineering Task Force (IETF) (http:// www. ietf. org/ )<br />

• The Story of the PING Program (http:// ftp. arl. mil/ ~mike/ ping. html) von dem ping-Erfinder Mike Muuss<br />

• C++-Beispiel (http:// tangentsoft. net/ wskfaq/ advanced. html#ping)<br />

• ping(8) (http:// linux. die. net/ man/ 8/ ping) – Linux-Manpage (deutsch)<br />

• Online-Ping bei Matthias Leuffen (optools.net) (http:// www. optools. net) oder networktools.nl (http://<br />

networktools. nl/ ping/ )


Traceroute 20<br />

Traceroute<br />

Traceroute ist ein Computerprogramm, das ermittelt, über welche Router und Internet-Knoten IP-Datenpakete bis<br />

zum abgefragten Rechner gelangen.<br />

Funktionsweise<br />

Traceroute sendet mehrfach IP-Datenpakete vom Typ ICMP Echo Request an den Ziel-Host, beginnend mit einer<br />

Time to Live (TTL) von 1. Der erste Router, der das Datenpaket weiterleiten soll, zählt den Wert der TTL um eins<br />

herunter auf 0, woraufhin er es nicht weiterleitet, sondern verwirft. Dabei sendet er die ICMP-Antwort Typ 11: Time<br />

exceeded mit Code 0: Time to live exceeded in transit an den Absender. Dieses Datenpaket enthält als Source<br />

Address die IP-Adresse <strong>des</strong> betreffenden Routers. Diese Information wird vom Traceroute-Programm zusammen mit<br />

der gesamten Übertragungsdauer aufgezeichnet. Anschließend wiederholt das Programm diesen Schritt mit einer um<br />

1 erhöhten TTL, um auf dieselbe Weise den nächsten Router auf dem Weg durch das Netzwerk zu ermitteln. Dies<br />

wird solange wiederholt, bis der Ziel-Host oder das vom jeweiligen Traceroute-Programm verwendete Maximum an<br />

Hops erreicht wurde. Wird der Ziel-Host erreicht, sendet er bei ICMP-basiertem Traceroute die ICMP Antwort Typ<br />

0 ICMP Echo Reply bzw. bei UDP-basiertem Traceroute Destination Unreachable Code 3 Port Unreachable. [1][2]<br />

Die Sequenz der so gesammelten Adressen kennzeichnet den Weg zum Ziel durch das Netz. Der Rückweg ist in der<br />

Regel identisch, kann aber bei asymmetrischem Routing anders verlaufen. In der Regel werden an jeden Host drei<br />

Pakete gesendet. Die drei angezeigten Werte in Millisekunden geben die Antwortzeit dieser drei Versuche wieder.<br />

Das Ergebnis von Traceroute zeigt nicht immer den tatsächlichen Weg. Es wird beeinflusst von Firewalls,<br />

fehlerhaften Implementierungen <strong>des</strong> IP-Stacks, Network Address Translation, IP-Tunneln oder der Wahl eines<br />

anderen Pfa<strong>des</strong> bei Netzwerküberlastung und anderen Faktoren.<br />

Unter Unix existiert auf IPv6-fähigen Systemen neben traceroute in der Regel auch traceroute6. Unter Windows<br />

ist Traceroute als tracert.exe aufrufbar. Daneben gibt es seit Windows 2000 noch pathping das eigentlich zur<br />

Überprüfung eines kompletten Netzwerkpfa<strong>des</strong> gedacht ist, sich aber auch als schnellerer Traceroute benutzen lässt.<br />

Der Vorteil von pathping ist, dass es die Pakete nicht nacheinander, sondern gleichzeitig verschickt und dadurch<br />

kürzere Wartezeiten entstehen. Der Nachteil ist, dass es mit manchen fehlerhaften Netzen nicht zurechtkommt. Unter<br />

Linux hat mtr [3] eine ähnliche Funktionalität.<br />

Windows-Traceroute sendet standardmäßig ICMP-Pakete, Unix-Traceroute arbeitet mit UDP-Paketen. Mit<br />

TCP-Paketen arbeiten nur spezielle Programme z. B. Tcptraceroute oder LFT (Layer Four Traceroute). Alle diese<br />

Traceroute-Implementierungen sind jedoch auf die zurückkommenden ICMP-Pakete angewiesen. Verschiedene<br />

Protokolle und Ports auszuprobieren ist dann sinnvoll, wenn eine Firewall den Traceroute blockiert. Insbesondere die<br />

Verwendung von UDP ist oft problematisch. Manche Unix-Traceroutes lassen sich mit dem Parameter „-I” auf ICMP<br />

bzw. mit „-T” auf TCP umstellen.<br />

Beispiele<br />

Traceroute unter Unix und Linux:<br />

$ traceroute wikipedia.de<br />

traceroute to wikipedia.de (130.94.122.197), 30 hops max, 40 byte packets<br />

1 fli4l.Netz1 (192.168.0.1) 0.765 ms 0.651 ms 0.497 ms<br />

2 217.5.98.7 (217.5.98.7) 14.499 ms 14.648 ms 21.394 ms<br />

3 217.237.152.46 (217.237.152.46) 14.831 ms 13.655 ms 13.403 ms<br />

4 62.154.14.134 (62.154.14.134) 118.090 ms 119.522 ms 119.665 ms<br />

5 p16-1-0-3.r20.asbnva01.us.bb.verio.net (129.250.9.141) 117.004 ms 117.370 ms 117.073 ms


Traceroute 21<br />

6 p64-0-0-0.r21.asbnva01.us.bb.verio.net (129.250.2.35) 119.105 ms 119.284 ms 119.206 ms<br />

7 p16-0-1-2.r20.plalca01.us.bb.verio.net (129.250.2.192) 180.035 ms 195.498 ms 178.704 ms<br />

8 p16-1-0-0.r06.plalca01.us.bb.verio.net (129.250.3.81) 177.280 ms 177.263 ms 176.692 ms<br />

9 p4-0-3-0.r00.sndgca01.us.bb.verio.net (129.250.3.10) 194.322 ms 193.477 ms 193.743 ms<br />

10 ge-1-1.a03.sndgca01.us.da.verio.net (129.250.27.84) 192.527 ms 193.003 ms 192.464 ms<br />

11 Pliny.wikipedia.org (130.94.122.197) 192.604 ms 193.875 ms 194.254 ms<br />

Tracert.exe unter Windows (Referenzanbindung Universität Augsburg–T-Online Frankfurt am Main):<br />

C:\> tracert www.t-online.de<br />

Routenverfolgung zu www.t-online.de [217.6.164.162] über maximal 30 Abschnitte:<br />

1


Traceroute 22<br />

0/ 1 = 0% |<br />

1 2ms 0/ 1 = 0% 0/ 1 = 0% 10.10.10.254<br />

0/ 1 = 0% |<br />

2 5ms 0/ 1 = 0% 0/ 1 = 0% 80.123.142.xxx<br />

0/ 1 = 0% |<br />

3 23ms 0/ 1 = 0% 0/ 1 = 0% 62.47.95.239<br />

0/ 1 = 0% |<br />

4 14ms 0/ 1 = 0% 0/ 1 = 0% 172.19.89.145<br />

0/ 1 = 0% |<br />

5 14ms 0/ 1 = 0% 0/ 1 = 0% 195.3.66.142<br />

0/ 1 = 0% |<br />

6 17ms 0/ 1 = 0% 0/ 1 = 0% 195.3.70.37<br />

0/ 1 = 0% |<br />

7 17ms 0/ 1 = 0% 0/ 1 = 0% 195.3.70.86<br />

0/ 1 = 0% |<br />

8 26ms 0/ 1 = 0% 0/ 1 = 0% de-cix10.net.google.com [80.81.192.108]<br />

0/ 1 = 0% |<br />

9 38ms 0/ 1 = 0% 0/ 1 = 0% 209.85.249.180<br />

0/ 1 = 0% |<br />

10 34ms 0/ 1 = 0% 0/ 1 = 0% 209.85.248.182<br />

0/ 1 = 0% |<br />

11 40ms 0/ 1 = 0% 0/ 1 = 0% 209.85.248.79<br />

0/ 1 = 0% |<br />

12 35ms 0/ 1 = 0% 0/ 1 = 0% 72.14.233.77<br />

0/ 1 = 0% |<br />

13 51ms 0/ 1 = 0% 0/ 1 = 0% 66.249.94.46<br />

0/ 1 = 0% |<br />

14 39ms 0/ 1 = 0% 0/ 1 = 0% ug-in-f104.google.com [66.249.93.104]<br />

Ablaufverfolgung beendet.<br />

Standards<br />

• RFC 1393: Traceroute using an IP Option<br />

• RFC 792: Internet Control Message Protocol (ICMP)<br />

Weblinks<br />

• traceroute(8) [4] – Linux-Manpage (deutsch)<br />

• Links zum Thema Traceroute [5] im Open Directory Project<br />

• Onlineinterfaces für TCP-, UDP- und ICMP-Traceroutes [6]<br />

• Zusammenstellung vieler Online-Traceroutes nach Ländern [7]<br />

• Tutorial, wie man ein Traceroute unter Windows macht [8]


Traceroute 23<br />

Einzelnachweise<br />

[1] RFC 1393: Traceroute using an IP Option<br />

[2] RFC 792: Internet Control Message Protocol (ICMP)<br />

[3] http:/ / www. bitwizard. nl/ mtr/<br />

[4] http:/ / linux. die. net/ man/ 8/ traceroute<br />

[5] http:/ / www. dmoz. org/ World/ Deutsch/ Computer/ Netzwerk/ Router_und_Routing/ Traceroute/<br />

[6] http:/ / serversniff. de<br />

[7] http:/ / www. traceroute. org<br />

[8] http:/ / faq. hosterplus. de/ webhosting/ 3/ 39-wie,mache,ich,ein,tracert,traceroute,unter,windows. html


World Wide Web Consortium 24<br />

World Wide Web Consortium<br />

World Wide Web Consortium<br />

(W3C)<br />

Zweck:<br />

Vorsitz:<br />

Standardisierungsgremium für das World Wide Web<br />

Tim Berners-Lee<br />

Gründungsdatum: Oktober 1994<br />

Sitz:<br />

Website:<br />

MIT [1] (Vereinigte Staaten),<br />

ERCIM [2] (Europa),<br />

Keio University [3] (Asien)<br />

sowie weltweit verteilte regionale Büros<br />

www.w3.org [4]<br />

w3c.dfki.de [5]<br />

Das World Wide Web Consortium (kurz W3C) ist das Gremium zur Standardisierung der World Wide Web<br />

betreffenden Techniken. Es wurde am 1. Oktober 1994 am MIT Laboratory for Computer Science in Cambridge<br />

(Massachusetts) gegründet. Das W3C ist eine Mitgliedsorganisation.<br />

Gründer und Vorsitzender <strong>des</strong> W3C ist Tim Berners-Lee, der auch als der Erfinder <strong>des</strong> World Wide Web bekannt ist.<br />

Das W3C entwickelt technische Spezifikationen und Richtlinien mittels eines ausgereiften, transparenten Prozesses,<br />

um maximalen Konsens über den Inhalt eines technischen Protokolls, hohe technische und redaktionelle Qualität und<br />

Zustimmung durch das W3C und seiner Anhängerschaft zu erzielen. [6]<br />

Seit Januar 2011 befindet sich der Sitz <strong>des</strong> Deutsch-Österreichischen Büros in Berlin am Deutschen<br />

Forschungszentrum für Künstliche Intelligenz (DFKI).<br />

Beispiele für durch das W3C standardisierte Technologien sind HTML, XHTML, XML, RDF, OWL, CSS, SVG und<br />

WCAG.


World Wide Web Consortium 25<br />

Geschichte<br />

Die Geschichte <strong>des</strong> W3C ist eng mit der Entwicklung <strong>des</strong> WWW verbunden. Gründer Tim Berners-Lee war<br />

bewusst, dass die inkonsistente Nutzung der Technologien URI, HTTP und HTML dazu führen könnte,<br />

Verknüpfungen unwirksam und damit das WWW nutzlos zu machen. Deswegen wollte er die Spezifikationen zu<br />

diesen Technologien von der Internet Engineering Task Force (IETF) standardisieren lassen.<br />

Nach einem IETF-Treffen im Jahre 1992 in Boston gründete sich eine WWW-spezifische Arbeitsgruppe, die<br />

allerdings keine brauchbaren Standards veröffentlichen konnte. Zeitgleich wurden immer mehr WWW-Browser<br />

entwickelt, wodurch Berners-Lee intensiver über eine Körperschaft, welche die Evolution <strong>des</strong> Webs steuert,<br />

nachdachte. Diese sollte außerdem verhindern, dass das Web sich in verschiedene Teilwebs – mit entweder<br />

kommerzieller oder akademischer Ausrichtung – untergliedert und statt<strong>des</strong>sen seinen universellen Charakter<br />

behält. [7]<br />

Das W3C wurde daraufhin nicht am CERN – dem Entstehungsort <strong>des</strong> WWWs –, aber mit <strong>des</strong>sen Zusammenarbeit<br />

am LCS | MIT gegründet (Mittlerweile in Computer Science and Artificial Intelligence Laboratory, kurz CSAIL,<br />

umbenannt). Des Weiteren unterstützten die U.S. Defense Advanced Research Project Agency (DARPA) und die<br />

Europäische Kommission das Projekt. Das W3C sollte von Anfang an den kleinsten gemeinsamen Nenner einer<br />

Technologie finden und diesen zu einer Spezifikation verarbeiten, so dass diese von allen Mitgliederorganisationen<br />

unterstützt wird. Um die Internationalität <strong>des</strong> WWW zu betonen, sollten neben dem MIT weitere Hosts auf<br />

unterschiedlichen Kontinenten hinzukommen.<br />

Das Institut National de Recherche en Informatique et en Automatique (INRIA) wurde im April 1995 der<br />

europäische Host <strong>des</strong> W3C, aber 2003 durch das European Research Consortium for Informatics and Mathematics<br />

(ERCIM) ersetzt. [8] Die Keio University (Japan) wurde im Jahre 1996 asiatische Hostorganisation. Zudem<br />

unterstützen weltweit verteilte Büros, so genannte Offices, die Aktivitäten <strong>des</strong> W3C. [9]<br />

Organisation<br />

Für das W3C arbeiten zwischen 50 und 60 Personen, die die organisatorischen Prozesse leiten und zumeist in einer<br />

der drei Hostorganisationen angestellt sind. [10] Außerdem wird das W3C durch seine Mitgliederorganisationen<br />

unterstützt. Zwischen 300 und 350 Organisationen sind derzeit Mitglied im W3C. Hinzu kommen die vielen<br />

freiwilligen Helfer und Helferinnen, die an den Diskussionsprozessen der Mailinglisten teilnehmen, Empfehlungen<br />

übersetzen, Implementierungen von Spezifikationen schreiben und als Open Source veröffentlichen, sich an<br />

Arbeitsgruppen beteiligen oder sich anderwärtig im W3C engagieren. [11]<br />

Das W3C finanziert sich über die Beiträge der Mitgliedsorganisationen und freiwilligen Spenden. Erst am Ende <strong>des</strong><br />

Jahres 2009 bestätigte die Internet Society (ISOC) – Dachorganisation der IETF – einen Betrag in Höhe von 2,5<br />

Millionen US-Dollar, auf die nächsten drei Jahre verteilt, an das W3C zu spenden. [12]<br />

Neben den drei Hostorganisationen MIT, ERCIM und Keio University, die sich administrativen Tätigkeiten widmen,<br />

ergänzen weltweit verteilte Büros die Arbeit <strong>des</strong> W3Cs. Diese haben zur Aufgabe einerseits das Bewusstsein für<br />

Standards und für das W3C zu wecken und andererseits:<br />

• Interessengruppen anzusprechen und die Beziehung zur regionalen Politik und Wirtschaft zu fördern<br />

• Regionale W3C-Mitglieder zu unterstützen<br />

• Rückmeldungen zu geben, über die – der Region betreffenden – Thematiken<br />

• Die regionale Akzeptanz von W3C-Standards zu fördern, mit besonderer Hinsicht auf regionalspezifische<br />

kulturelle Gegenstände<br />

• Verbreitung von Übersetzungen der W3C-Empfehlungen<br />

Das regionale Büro benutzt dabei verschiedene Kommunikationsmöglichkeiten, wie eine eigene Website,<br />

Newsletter, Broschüren oder Konferenzen. Gehostet werden die Offices von Wirtschaftsneutralen<br />

Mitgliederorganisationen <strong>des</strong> W3C (von daher meist Hochschulen oder Forschungseinrichtungen). [13]


World Wide Web Consortium 26<br />

Mitgliedschaft<br />

Jede Art von Organisation – sei es Wirtschaftsunternehmen, Regierungs- oder Nichtregierungsorganisation,<br />

Universität oder Forschungseinrichtung – kann dem W3C beitreten. Der zu entrichtende Mitgliedsbeitrag orientiert<br />

sich an der Form und dem Herkunftsland <strong>des</strong> potentiellen Teilnehmers. Die gesamte Organisation zählt dabei als ein<br />

eigenständiges Mitglied, es können demzufolge keine Tochterunternehmen separates Mitglied beim W3C werden.<br />

Das kann zu Mitgliederschwund führen, wenn z. B. Unternehmen fusionieren.<br />

Auf der Homepage <strong>des</strong> W3C befindet sich ein Tool, das den jährlich zu entrichtenden Beitrag anhand von Art und<br />

Herkunftsland der Organisation automatisch berechnet. [14]<br />

Mitarbeiter der einzelnen Organisationen nehmen an den Arbeitsgruppen teil, in denen Empfehlungen entwickelt<br />

werden. Zudem hat je<strong>des</strong> Mitglied das Recht auf einen Sitz im beratenen Ausschuss <strong>des</strong> W3C sowie das Recht<br />

Vorschläge einzureichen, um in die Entwicklungsprozesse rund um das W3C aktiv einzugreifen. [15]<br />

Seit Beginn der 2010er-Jahre pflegt das W3C eine engere Zusammenarbeit mit seinen Mitgliedern, insbesondere vor<br />

dem Hintergrund der Kritik am HTML-Standard. Bisheriger Höhepunkt ist die Einrichtung einer auf MediaWiki und<br />

Semantic MediaWiki gestützten Plattform namens Web Platform Docs, die gemeinsam mit Apple, Facebook und<br />

Google betrieben wird.<br />

Status<br />

Auch wenn das W3C zahlreiche De-facto-Standards hervorgebracht hat, ist das W3C keine zwischenstaatlich<br />

anerkannte Organisation und damit genau genommen nicht berechtigt, zum Beispiel die ISO-Normen festzulegen.<br />

(Dennoch bilden W3C-Standards, wie zum Beispiel XML die Basis mancher ISO-Normen).<br />

Das W3C nennt seine Standards – um ihrem nicht-offiziellen Charakter zu entsprechen – W3C Recommendations,<br />

also W3C-Empfehlungen. Um die Zusammenarbeit mit internationalen Standardisierungsgremien wie der ISO zu<br />

verbessern, ist das W3C bestrebt, Transpositionsprozesse wie PAS oder Fast Track zu nutzen, damit die<br />

Empfehlungen schneller den Status eines internationalen Standards erhalten.<br />

Bei ihrer Entwicklung hat sich das W3C selbst zur Auflage gemacht, ausschließlich Technologien zu verwenden,<br />

deren Nutzung – im Rahmen der Implementation einer W3C-Empfehlung – frei von Patentgebühren ist. Details<br />

finden sich in der Patentpolitik <strong>des</strong> W3C. [16]<br />

Entwicklung<br />

Die Vorstufen im Entwicklungsprozess einer W3C-Empfehlung (W3C Recommendation) sind Arbeitsentwurf<br />

(Working Draft), letzter Aufruf (Last Call Working Draft), Empfehlungskandidat (Candidate Recommendation) und<br />

der Empfehlungsvorschlag (Proposed Recommendation). Zu einer Empfehlung werden weiterhin Berichtigungen<br />

veröffentlicht, und es kann eine neue Ausgabe einer Empfehlung herausgegeben werden (zum Beispiel existiert die<br />

XML-Empfehlung zurzeit in der fünften Ausgabe). Falls nötig, können Empfehlungen auch zur Überarbeitung<br />

zurückgezogen werden.<br />

Des Weiteren ist es möglich, die Vorstufen der Empfehlungen auf das Level <strong>des</strong> Arbeitsentwurfes zurückzustufen.<br />

Das W3C publiziert darüber hinaus Anmerkungen (Notes) ohne normativen Anspruch.<br />

Die Empfehlungen dürfen nicht als Lehrmaterialen für die W3C-Technologien angesehen werden. Sie stellen<br />

statt<strong>des</strong>sen eine Art Instruktion dar, die es erlaubt eine Technologie standardisiert zu implementieren. Demzufolge<br />

sind diese Dokumente für Laien oft – aufgrund der sehr eigenen Sprache – wenig verständlich oder aufschlussreich.<br />

Für Nutzer auf Anwendungsebene, die sich tiefer mit W3C-Technologien beschäftigen wollen, ist ein spezielles<br />

Tutorial zu empfehlen. Hierzu können auch die bereits erwähnten Anmerkungen (Notes) dienen, da diese durch ihren<br />

explorativen Charakter eher einem Tutorial entsprechen.


World Wide Web Consortium 27<br />

Anders als zum Beispiel bei den Request for Comments (RFC) der IETF, sind beim W3C alle Dokumente – vom<br />

ersten Arbeitsentwurf bis zur fertigen Empfehlung – auch nach dem Standardisierungsprozess online verfügbar.<br />

Weiterhin kann der Standardisierungsweg innerhalb eines Dokumentes anhand diverser Verlinkungen einfach<br />

nachvollzogen werden. Rechteinhaber aller Dokumente, einschließlich der fertigen Empfehlungen, sind dabei immer<br />

die Hosts: MIT, ERCIM und Keio University. Im Nachfolgenden sollen die einzelnen Schritte im<br />

Entwicklungsprozess zu einer Empfehlung beschrieben werden. Der Entwicklungsprozess bis zu einer Empfehlung<br />

ist auch auf den Seiten <strong>des</strong> W3C dokumentiert. [17]<br />

• Working Draft und Last Call Working Draft<br />

Der Arbeitsentwurf (Working Draft) ist die erste Stufe im Standardisierungsprozess einer W3C-Empfehlung. Er liegt<br />

der Öffentlichkeit, den W3C-Mitgliedern und allen anderen interessierten Organisationen zur Kommentierung vor.<br />

In der Regel werden mehrere Arbeitsentwürfe entwickelt, dabei schafft es allerdings nicht jeder bis zur Empfehlung.<br />

Der Last Call Working Draft (deutsch letzter Aufruf) soll hierbei signalisieren, dass es sich um den geplanten letzten<br />

Arbeitsentwurf handelt.<br />

• Candidate Recommendation<br />

Der Empfehlungskandidat (Candidate Recommendation) schließt die eigentliche Arbeit am Dokument größtenteils<br />

ab, das heißt, dass die betreuende Arbeitsgruppe alle technischen Anforderungen in das Dokument integriert hat. In<br />

diesem Status sind bereits Implementationen der Technologie möglich und auch gefordert, wobei die Erfahrungen<br />

aus den Implementationen in weitere Dokumente einfließen.<br />

• Proposed Recommendation<br />

Der Empfehlungsvorschlag (Proposed Recommendation) ist ein durch die ersten Implementierungen ergänztes<br />

Dokument und gleichzeitig die letzte Stufe im Entwicklungsprozess zur Empfehlung. Der Vorschlag wird an den<br />

beratenden Ausschuss <strong>des</strong> W3C übersendet. Nach Zustimmung der Mitglieder und <strong>des</strong> Vorsitzenden erlangt er den<br />

Status einer Empfehlung.<br />

Empfehlungen<br />

Diese Empfehlungen wurden oder werden vom World Wide Web Consortium entwickelt:<br />

• Hypertext Markup Language (HTML) • Synchronized Multimedia Integration • XML Path Language (XPath)<br />

Language (SMIL)<br />

• Extensible Hypertext Markup Language (XHTML) • Mathematical Markup Language (MathML) • XML Powered Web Forms<br />

(XForms)<br />

• Extensible Markup Language (XML) • Resource Description Framework (RDF) • XML Link Language<br />

(XLink)<br />

• Extensible MultiModal Annotation markup language<br />

(EMMA)<br />

• SOAP (SOAP) • XML Pointer Language<br />

(XPointer)<br />

• XML Schema (XML Schema) • Web Services Description Language<br />

(WSDL)<br />

• XML Query Language<br />

(XQuery)<br />

• Extensible Stylesheet Language (XSL) • Web Services Addressing (WS-Addressing) • Voice XML (VoiceXML)<br />

• XSL Transformation (XSLT) • Web Services Policy (WS-Policy) • XProc: An XML Pipeline<br />

Language<br />

• Cascading Style Sheets (CSS) • Document Object Model (DOM)<br />

• Portable Network Graphics (PNG) ist in der Version 1.2<br />

auch ein ISO-Standard<br />

• Web Content Accessibility Guidelines<br />

(WCAG)<br />

• Scalable Vector Graphics (SVG) • Web Ontology Language (OWL)<br />

Alle Empfehlungen und Arbeitsentwürfe sind über die W3C Webseite aufrufbar. [18]


World Wide Web Consortium 28<br />

Kritik<br />

In der c’t Ausgabe 1/2007 fasst der Journalist Herbert Braun eine „Krise <strong>des</strong> W3C“ aufgrund „praxisfremder und<br />

jahrelang verschleppter Standards“ zusammen.<br />

Er geht dabei besonders auf die Rolle <strong>des</strong> Standards HTML ein, <strong>des</strong>sen Sprachumfang seit Dezember 1997 nicht<br />

erweitert wurde. Auch die Empfehlungen zu XHTML können diese Problematik nicht lösen, da Version1 zwar<br />

strengere Regeln bietet, aber keine neuen Funktionen. XHTML2 sei dagegen zu komplex und nicht<br />

abwärtskompatibel.<br />

Des Weiteren sind die Standardisierungsabläufe beim W3C komplexer geworden, wodurch die Prozesse sich<br />

verlangsamen. Håkon Wium Lie – Chief Technology Officer bei Opera Software – gibt im Interview zum Artikel<br />

dazu folgende Meinung wieder:<br />

“Second, W3C has also evolved. In the early days, turning a Working Draft into a Recommendation was<br />

a simple month-long stint as Proposed Recommendation. These days, you have to issue call for<br />

comments, answer all the comments, make sure there are two implementations, and so forth. The formal<br />

process has become much longer and only specifications that have serious backers end up as<br />

Recommendations.”<br />

„Zum anderen hat sich das W3C entwickelt. In den alten Tagen war es eine Sache von wenigen<br />

Monaten, einen Arbeitsentwurf zu einer Empfehlung zu machen. Heute muss man zu Kommentaren<br />

aufrufen, all diese Kommentare beantworten, sicherstellen, dass es zwei Implementierungen gibt und so<br />

weiter. Der formale Prozess dauert viel länger und nur Spezifikationen mit ernsthaften Befürworten<br />

schaffen es zur Empfehlung.“<br />

– Håkon Wium Lie [19]<br />

Der Artikel geht auch auf die Organisationsstruktur an sich ein, indem die Dominanz und Einflussnahme großer<br />

Mobilfunk- und Softwareunternehmen kritisiert wird. [20]<br />

Einzelnachweise<br />

[1] http:/ / www. csail. mit. edu/<br />

[2] http:/ / www. ercim. eu/<br />

[3] http:/ / www. keio. ac. jp/<br />

[4] http:/ / www. w3. org/<br />

[5] http:/ / w3c. dfki. de/<br />

[6] Zusammenfassung <strong>des</strong> Standardisierungsprozesses (http:/ / www. w3. org/ standards/ ) (englisch, abgerufen am 15. November 2010).<br />

[7] Berners-Lee, Tim (1999): Der Web-Report. München: Econ, S. 86ff ISBN 3-430-11468-3.<br />

[8] Pressemitteilung zum Umzug <strong>des</strong> W3C vom INRIA an das ERCIM (http:/ / www. w3c. de/ Press/ ercim-pressrelease. html) (abgerufen am<br />

15. November 2010).<br />

[9] Geschichte <strong>des</strong> W3C (http:/ / www. w3c. de/ about/ history. html) (abgerufen am 15. November 2010).<br />

[10] Übersicht aller Mitarbeiter/innen und deren Tätigkeiten (http:/ / www. w3. org/ People/ all) (englisch, abgerufen am 15. November 2010).<br />

[11] Organisation <strong>des</strong> W3C (http:/ / www. w3c. de/ about/ org. html) (abgerufen am 15. November 2010).<br />

[12] Meldung von Heise Online zur Spende der ISOC an das W3C (http:/ / www. heise. de/ newsticker/ meldung/<br />

W3C-erhaelt-Millionen-Spende-von-Internet-Society-883533. html) (abgerufen am 15. November 2010).<br />

[13] Aufgabe der regionalen W3C Büros (http:/ / www. w3. org/ Consortium/ Offices/ role. html) (englisch, abgerufen am 15. November 2010).<br />

[14] Tool zum Berechnen der jährlich zu entrichtenden Mitgliedsbeiträge (http:/ / www. w3. org/ Consortium/ fees) (englisch, abgerufen am 15.<br />

November 2010).<br />

[15] Über die W3C-Mitgliedschaft (http:/ / www. w3c. de/ ueberblick. html) (abgerufen am 15. November 2010).<br />

[16] Zusammenfassung der W3C Patentpolitik (http:/ / www. w3. org/ 2004/ 02/ 05-patentsummary. html) (englisch, abgerufen am 15.<br />

November 2010).<br />

[17] Entwicklungsprozess der technischen Reports <strong>des</strong> W3C (http:/ / www. w3. org/ 2005/ 10/ Process-20051014/ tr. html) (englisch, abgerufen<br />

am 15. November 2010).<br />

[18] Standards und Arbeitsentwürfe <strong>des</strong> W3C (http:/ / www. w3. org/ TR/ ) (englisch, abgerufen am 15. November 2010).<br />

[19] Interview von Herbert Braun mit Håkon Wium Lie (http:/ / www. heise. de/ ct/ Redaktion/ heb/ w3c/ lie_english. html) (englisch, abgerufen<br />

am 15. November 2010).


World Wide Web Consortium 29<br />

[20] Braun, Herbert: Webstandards im Wandel – Die Krise <strong>des</strong> W3C und die Lösungsansätze (http:/ / www. heise. de/ kiosk/ archiv/ ct/ 2007/<br />

01/ 162_Die_Krise_<strong>des</strong>_W3C_und_die_Loesungsansaetze), c’t 1/2007, S. 162–169.<br />

Weblinks<br />

• Das W3C in sieben Punkten (http:// www. w3c. de/ sieben. html)<br />

• Die W3C-Spezifikationen in deutscher Übersetzung und Kommentierung (http:// www. edition-w3c. de/ )<br />

• Zeitleiste zum zehnjährigen Jubiläum <strong>des</strong> W3C (http:// www. w3. org/ 2005/ 01/ timelines/ timeline-2500x998.<br />

png)<br />

• Webseite der regionalen Büros (http:// www. w3. org/ Consortium/ Offices/ )<br />

• Vortrag zur Aufgabe und Struktur der regionalen Büros (http:// www. w3. org/ Consortium/ Offices/<br />

Presentations/ AboutOffices/ #(1)) (englisch)<br />

• Mitgliederliste <strong>des</strong> W3C (http:// www. w3. org/ Consortium/ Member/ List) (englisch)<br />

• Liste deutscher und österreichischer Mitglieder <strong>des</strong> W3C (http:// www. w3c. de/ dmitgl. html)<br />

• Zugänglichkeitsrichtlinien für Web-Inhalte 1.0 (http:// www. w3. org/ Consortium/ Offices/ Germany/ Trans/<br />

WAI/ webinhalt. html)<br />

• Link und Interviewsammlung zum ct-Artikel „Webstandards im Wandel“ zur Krise <strong>des</strong> W3C von Herbert Braun<br />

(http:// www. heise. de/ ct/ Redaktion/ heb/ w3c/ )<br />

Normdaten (Körperschaft): GND: 6011098-3 (http:// d-nb. info/ gnd/ 6011098-3) | LCCN: no96041976 (http://<br />

lccn. loc. gov/ no96041976) | VIAF: 122285539 (http:// viaf. org/ viaf/ 122285539/ )<br />

W3C Markup Validation Service<br />

Der Markup Validation Service ist ein Validator <strong>des</strong> World Wide Web Consortiums (W3C), mit <strong>des</strong>sen Hilfe<br />

Internetnutzer Dokumente in den Beschreibungssprachen HTML und XHTML auf wohlgeformtes Markup<br />

überprüfen können. Markup-Validierung ist ein wichtiger Schritt, um die technische Qualität von <strong>Internets</strong>eiten zu<br />

gewährleisten; allerdings ist es keine vollständige Maßnahme zur Konformität mit Webstandards. [1]<br />

Geschichte<br />

Der Markup Validation Service begann als ein Projekt von Gerald Oskoboiny unter dem Namen The Kinder, Gentler<br />

HTML Validator. Es wurde als intuitivere Variante <strong>des</strong> ersten Online-HTML-Validator entwickelt, welcher von Dan<br />

Connolly und Mark Gaither geschrieben und am 13. July 1994 angekündigt wurde. [2]<br />

Im September 1997 fing Oskoboiny an, für das W3C zu arbeiten und am 18. Dezember 1997 kündigte das W3C den<br />

W3C HTML Validator an, welcher auf seiner Arbeit basierte.<br />

W3C bietet darüber hinaus Validierungswerkzeuge für verschiedene Web-Technologien neben HTML/XHTML an,<br />

beispielsweise für CSS, XML-Schema und MathML.


W3C Markup Validation Service 30<br />

Versorgung der Browser<br />

Viele große Browser sind oft tolerant in Bezug auf verschiedene Fehlertypen, und stellen ein Dokument meistens<br />

fehlerfrei dar, selbst wenn es nicht syntaktisch korrekt ist. Verschiedene andere XML-Dokumente können auch mit<br />

dem Markup Validation Service validiert werden, sofern sie einen Verweis auf eine interne oder externe DTD<br />

besitzen.<br />

Kritik am Validator<br />

Alle Markup-Validatoren leiden an der Unfähigkeit, das "Gesamtbild" einer Webseite zu sehen. [3] Allerdings tun<br />

sich solche oftmals hervor, wenn es darum geht, fehlende schließende Tags und andere Formalitäten zu finden. Das<br />

bedeutet nicht, dass die Seite in allen Browsern im Sinne <strong>des</strong> Erstellers angezeigt wird.<br />

DTD-basierte Validatoren besitzen außerdem nur begrenzte Fähigkeit, Attributwerte im Sinne der<br />

Spezifikationsdokumente auszuwerten. So wird beispielsweise unter Verwendung <strong>des</strong> Dokumententyps HTML 4.01<br />

DOCTYPE, bgcolor="fffff" als gültig für das "body"-Element akzeptiert, obwohl dem Wert "fffff" ein<br />

vorangestelltes '#'-Zeichen fehlt und es nur 5 (anstatt 6) Hexadezimalwerte enthält. Darüber hinaus wird auch für das<br />

"img"-Element width="really wide" als gültig angesehen. DTD-basierte Validatoren sind technisch nicht in der<br />

Lage, auf diese Arten von Attributwertproblemen hin zu testen.<br />

Darüber hinaus sollten Webseiten in so vielen Browsern wie möglich getestet werden, um sicherzustellen, dass die<br />

Limitierungen <strong>des</strong> Validators ausgeglichen werden und die Webseite korrekt funktioniert.<br />

CSS-Validierung<br />

Während der HTML / XHTML-Validator <strong>des</strong> W3C nur Seiten auswertet, die in solchen Formaten geschrieben sind,<br />

wird ein weiterer Validator, wie der W3C CSS-Validator benötigt, um sicherzustellen, dass sich keine Fehler im<br />

dazugehörigen Cascading Style Sheet befinden. CSS-Validators funktionieren auf eine ähnliche Weise wie HTML<br />

und XHTML-Validatoren, sie wenden aktuelle CSS-Standards auf verwiesene CSS-Dokumente.<br />

Quellen<br />

[1] About the W3C Markup Validation Service (http:// validator. w3. org/ about. html)<br />

[2] ANNOUNCE: HaL Interactive HTML Validation Service (http:// lists. w3. org/ Archives/ Public/ www-html/ 1994Jul/ 0015), Dan Connolly,<br />

www-html-Mailingliste, 13. Juli 1994, abgerufen am 10. Juli 2012<br />

[3] Castro, Elisabeth: HTML, XHTML & CSS, Sixth Edition, page 345-346. Visual Quickstart Gui<strong>des</strong>, Peachpit Press, 2007. ISBN 0-321-43084-0<br />

Weblinks<br />

• Der W3C Markup Validation Service (http:/ / validator. w3. org/ )<br />

• Der W3C CSS Validation Service (http:/ / jigsaw. w3. org/ css-validator/ )


Quelle(n) und Bearbeiter <strong>des</strong>/der Artikel(s) 31<br />

Quelle(n) und Bearbeiter <strong>des</strong>/der Artikel(s)<br />

Geschichte <strong>des</strong> <strong>Internets</strong> Quelle: http://de.wikipedia.org/w/index.php?oldid=123094966 Bearbeiter: 08-15, 790, A.Savin, AF666, Achim Raschka, Ak120, Aka, Alexander Sommer, Alkim Y,<br />

Alnilam, Aloiswuest, Amtiss, AndreasE, Andrest, Androl, Apfel3748, Appaloosa, Armin P., Asb, Aschmidt, Avatar, BJ Axel, Bahnpirat, Baikonur, Baumfreund-FFM, Bdk,<br />

BesondereUmstaende, Beyer, Bijick, Binter, Birger Fricke, Blatand, Blauendorn, Bombenleger, Brix, Capaci34, Carbidfischer, Casp11, Cat, Chaddy, Chrisfrenzel, Chrislb, ChristophDemmer,<br />

Cic, Cologinux, Complex, Contessa, D, DanM, Darkone, David Ludwig, DelSarto, DerGraueWolf, DerHexer, Derschueler, Diba, Diddi, Didym, Domspatz, Dsdvado, ENight, Ebcdic, Eisbaer44,<br />

ElRaki, Elmendo, Entlinkt, Euku, Eweht, Felix König, Filzstift, Fish-guts, Flavia67, Florian Adler, Fomafix, Ford prefect, Frank Jacobsen, Färber, G.kunter, Gedeon, Geos, Ghghg, Ghoffart,<br />

Gleiberg, Groucho M, Grumblies, Gugerell, Gum'Mib'Aer, H.Marxen, HaSee, HaeB, Hansele, HenHei, Hgulf, Horst Gräbner, Howwi, Hozro, Hubertl, Inkowik, Iste Praetor, Itti, Ixitixel, JAF, JD,<br />

Jergen, JochenF, Jost Riedel, Jpp, JuergenL, JustinSane, Kam Solusar, Karl-Henner, Kdwnv, Kenneth, Kku, Klare Kante, Kolja21, Kuaile Long, Kurt Jansson, LKD, Langohr, Lektorat Cogito,<br />

Leonard Vertighel, Liberal Freemason, Liberaler Humanist, Liebeskind, Liesbeth, Lofor, LogoX, Lukas²³, Lustiger seth, Mac, Magnummandel, Marcadore, Markus Schweiß, MarkusHagenlocher,<br />

Matthias Kampmann, Matthäus Wander, Matzematik, Meiforth, Metallicum, Michi.bo, Mwka, Mynameisafake, München2018, Nicolas G., Nicolas17, Nicor, Nightfly85, Nightflyer, Nikkis,<br />

Nilles, Ningling, Ninjamask, Novovirus, O.Koslowski, Olei, Oreg, P. Birken, PDD, Paddy, Pco, PeeCee, Peter200, Pfieffer Latsch, Philipendula, Pittimann, Poxy, Priwo, Q'Alex, Ralf Roletschek,<br />

Ralf5000, Randolph33, Raymond, Regi51, Revolus, Revvar, Rischmueller, RobertLechner, Roterraecher, Römert, S.K., STBR, Saehrimnir, Sagrontanmutti, Saperaud, Schusch, Scooter, Se4598,<br />

Sebbl2go, Skriptor, Soccus cubitalis, Spuk968, Stefan64, Stern, Stfn, StillesGrinsen, Tambora, Taprogge, Taxiarchos228, Telcontar, Terabyte, TheK, Thorbjoern, Tilla, Timk70, Tiontai, Tomte,<br />

Toytoy, Trustable, Ulm, Ulz, Umweltschützen, Uwe W., Viciarg, Video2005, Voyager, WAH, Wangen, Weede, WikiNick, Wimox, WinfriedSchneider, Wingthom, Wirthi, Wnme, Wo st 01,<br />

Wolle1024, Wst, XXxSupermanxXx, Xxxx14, YMS, YourEyesOnly, Zahnstein, Zaungast, Zinnmann, ZodiacXP, Zulu55, Вени Марковски, 269 anonyme Bearbeitungen<br />

Ping (Datenübertragung) Quelle: http://de.wikipedia.org/w/index.php?oldid=123964721 Bearbeiter: -jha-, 24-online, 2A00:EB0:100:A017:A85F:754E:4C4E:BB9B, Abe Lincoln, Abubiju,<br />

Ahellwig, Ahoerstemeier, Aka, Alnilam, Andreas 06, Apokalypse, Arx, Avoided, B. Wolterding, BBitterwolf, BD, Bassti, Benji, Bigbenno, Bijick, Birger Fricke, Björn Bornhöft, Calined,<br />

Cbuehler, Ch.Boesch, Cjesch, Codc, CommonsDelinker, Daniel FR, Dapete, Darkking3, DasBee, Defox, Der Franke, Der Messer, DerGraueWolf, DerHexer, Diba, Diddi, Eatapple, Eidab,<br />

Eisenberg, ElRaki, Engie, Ephraim33, Erusx, Euku, Exxylan, Fleasoft, Flominator, Flygare, Fomafix, Frankee 67, Gbeckmann, Gozifozi, Gustavf, Haeber, He3nry, Head, Hmilch, Howwi,<br />

Inkowik, Itu, Joachim Köhler, KL47, Kgfleischmann, Krawi, Krille, LKD, Ldi91, Learny, Liquidat, Lordoberon, Louis Bafrance, Lucario100, Löschfix, Magnus, Martin Aggel, Martin-vogel,<br />

Martin1978, Matthäus Wander, Max Vallender, Meph666, Mfb, Michail, Micwil, Milvus, Morla, Mps, Nerdi, Ot, Pendulin, Perhelion, Peter200, PeterZF, Philipendula, Pistazienfresser, Pit,<br />

Pittimann, Polluks, Q'Alex, Raph, Raven, Rdb, Res-1, Revolus, RnBandCrunk, Robert Wünsche, STBR, Sargoth, Schweikhardt, Scooty, Seewolf, Seth Cohen, Shinryuu, Singsangsung, Sinn,<br />

StYxXx, Staro1, Tante ju, TherealdonL, Thomas Springer, Tobias1983, TomK32, Totie, Tschäfer, Tsor, Varanus, WaltR, Walter Koch, Wdwd, Wnme, WortUmBruch, Wutzofant, Yersinia<br />

Pestis, Zinnmann, Zois, 262 anonyme Bearbeitungen<br />

Traceroute Quelle: http://de.wikipedia.org/w/index.php?oldid=123404038 Bearbeiter: AWak3N, Aka, Appaloosa, Asoedler, Benji, Carter666, D0ktorz, D235, Dalvin, Derschueler, Diddi,<br />

Dork, Duracell, Ein anderer, Fg68at, Folke, Fomafix, Frankee 67, Freerk, H-stt, Kai-Hendrik, Kdwnv, Kgfleischmann, Kotasik, Krawi, Kruemelmo, LKD, Lbraun, Lex parsimoniae, Liquidat,<br />

Manuel Bieling, MaxMerz, Mnh, Mps, NCC1291, Nyks, PM3, Parzi, Penosa, Phrood, Pittimann, Polluks, Reinhard Kraasch, RolfS, Schweikhardt, Stefan Kühn, Theophilius, Thomas Springer,<br />

TomK32, Trustable, Tsor, Xqt, YMS, YourEyesOnly, Zero Thrust, 66 anonyme Bearbeitungen<br />

World Wide Web Consortium Quelle: http://de.wikipedia.org/w/index.php?oldid=121013485 Bearbeiter: 790, AcE, Acka47, Anatom5, Benji, Bernard Ladenthin, Bierdimpfl, Blubber313,<br />

Borstel, ChristophDemmer, D, DSign, Der.Traeumer, Didym, Domspatz, Einfach, Ellipse, Enomine, Esommer, Firefox13, Fit, Flash1984, Fleminra, Fomafix, FutureCrash, Groucho M, Hafex,<br />

Hardenacke, Head, Horst Gräbner, HyP3r92, Inkowik, Itti, JakobVoss, Jaybee, Johannes Ries, Jon Harald Søby, JuTa, Juncensis, Karl-Henner, Ketamino, Kghbln, Krawi, Leithian, MAK,<br />

Mannerheim, Marti7D3, Martin-vogel, Medusa, MegaMew, Miaow Miaow, Mikl, Mikue, Mueslifix, Mullkubel, Nachtgestalt, Nightfly85, Norro, Ordnung, Pandorra1975, PeterZF, Phanti,<br />

PsY.cHo, Reclus, Robert Weemeyer, Roterraecher, Sbezold, Sj363, Sokai, Solphusion, Staro1, Stefan Kühn, Stephanbim, ThePeritus, Thire, Thomas R. Schwarz, TomK32, Tomreplay,<br />

Trockennasenaffe, Uwe W., VanGore, Villem, W. Edlmeier, Wolfgang1018, Xqt, YetiSportsAG, Zeno Gantner, 74 anonyme Bearbeitungen<br />

W3C Markup Validation Service Quelle: http://de.wikipedia.org/w/index.php?oldid=117000081 Bearbeiter: AVRS, Ahunt, Alaz, AltairGaming, Beao, Beetstra, Booyabazooka, BorgHunter,<br />

Boulevardier, CesarB, Cyrius, Dandelions, Doc z, Dr. Slow Decay, Drkirkby, Emufarmers, Eubuli<strong>des</strong>, Fede Reghe, Hammersoft, JakobVoss, Jatkins, Jellybellie, Jwilkinson, Lady Tenar,<br />

Leighman, LittleBenW, MPK100, Makivan, Marcotulio, Marcus492, Matt Edward, Mjb, Morten Haan, Nunchuks, Pereant antiburchius, Phileplanet, Robert Weemeyer, Skybon, Tauriel-1,<br />

Thexudox, TobbiM, Toussaint, W3cvalidation, WhatamIdoing, Yano, Zahnradzacken, Zshzn, 52 anonyme Bearbeitungen


Quelle(n), Lizenz(en) und Autor(en) <strong>des</strong> Bil<strong>des</strong> 32<br />

Quelle(n), Lizenz(en) und Autor(en) <strong>des</strong> Bil<strong>des</strong><br />

Datei:Leonard-Kleinrock-and-IMP1.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Leonard-Kleinrock-and-IMP1.png Lizenz: Public Domain Bearbeiter: Leonard Kleinrock<br />

Datei:Vint Cerf - 2010.jpg Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Vint_Cerf_-_2010.jpg Lizenz: Creative Commons Attribution 3.0 Bearbeiter: Вени Марковски Veni<br />

Markovski<br />

Datei:Bob_Kahn.jpg Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Bob_Kahn.jpg Lizenz: Creative Commons Attribution-Sharealike 3.0 Bearbeiter: User:Вени Марковски<br />

Datei:Internet01.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Internet01.png Lizenz: GNU Free Documentation License Bearbeiter: Markus Schweiss<br />

Datei:CERN NEXT Server 2010-07-01.jpg Quelle: http://de.wikipedia.org/w/index.php?title=Datei:CERN_NEXT_Server_2010-07-01.jpg Lizenz: Creative Commons Attribution-Sharealike<br />

3.0,2.5,2.0,1.0 Bearbeiter: Henry Mühlpfordt<br />

Datei:WorldWideWebAroundWikipedia.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:WorldWideWebAroundWikipedia.png Lizenz: GNU Free Documentation License<br />

Bearbeiter: User:Chris 73<br />

Datei:NASDAQ IXIC - dot-com bubble.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:NASDAQ_IXIC_-_dot-com_bubble.png Lizenz: Public Domain Bearbeiter: User:Ed g2s<br />

Datei:Ping deny.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Ping_deny.png Lizenz: Public Domain Bearbeiter: Thingg⊕⊗<br />

Datei:W3C Icon.svg Quelle: http://de.wikipedia.org/w/index.php?title=Datei:W3C_Icon.svg Lizenz: Trademarked Bearbeiter: Adrignola, Cy21, Fleshgrinder, MainFrame, Palosirkka,<br />

Rezonansowy, Sven, WikipediaMaster, 2 anonyme Bearbeitungen


Lizenz 33<br />

Lizenz<br />

Wichtiger Hinweis zu den Lizenzen<br />

Die nachfolgenden Lizenzen bezieht sich auf den Artikeltext. Im Artikel gezeigte Bilder und Grafiken können unter einer anderen Lizenz stehen sowie von Autoren erstellt worden sein, die nicht in der Autorenliste<br />

erscheinen. Durch eine noch vorhandene technische Einschränkung werden die Lizenzinformationen für Bilder und Grafiken daher nicht angezeigt. An der Behebung dieser Einschränkung wird gearbeitet.<br />

Das PDF ist daher nur für den privaten Gebrauch bestimmt. Eine Weiterverbreitung kann eine Urheberrechtsverletzung bedeuten.<br />

Creative Commons Attribution-ShareAlike 3.0 Unported - Deed<br />

Diese "Commons Deed" ist lediglich eine vereinfachte Zusammenfassung <strong>des</strong> rechtsverbindlichen Lizenzvertrages (http:/ / de. wikipedia. org/ wiki/ Wikipedia:Lizenzbestimmungen_Commons_Attribution-ShareAlike_3. 0_Unported)<br />

in allgemeinverständlicher Sprache.<br />

Sie dürfen:<br />

• das Werk bzw. den Inhalt vervielfältigen, verbreiten und öffentlich zugänglich machen<br />

• Abwandlungen und Bearbeitungen <strong>des</strong> Werkes bzw. Inhaltes anfertigen<br />

Zu den folgenden Bedingungen:<br />

• Namensnennung — Sie müssen den Namen <strong>des</strong> Autors/Rechteinhabers in der von ihm festgelegten Weise nennen.<br />

• Weitergabe unter gleichen Bedingungen — Wenn Sie das lizenzierte Werk bzw. den lizenzierten Inhalt bearbeiten, abwandeln oder in anderer Weise erkennbar als Grundlage für eigenes Schaffen verwenden, dürfen Sie die<br />

daraufhin neu entstandenen Werke bzw. Inhalte nur unter Verwendung von Lizenzbedingungen weitergeben, die mit denen dieses Lizenzvertrages identisch, vergleichbar oder kompatibel sind.<br />

Wobei gilt:<br />

• Verzichtserklärung — Jede der vorgenannten Bedingungen kann aufgehoben werden, sofern Sie die ausdrückliche Einwilligung <strong>des</strong> Rechteinhabers dazu erhalten.<br />

• Sonstige Rechte — Die Lizenz hat keinerlei Einfluss auf die folgenden Rechte:<br />

• Die gesetzlichen Schranken <strong>des</strong> Urheberrechts und sonstigen Befugnisse zur privaten Nutzung;<br />

• Das Urheberpersönlichkeitsrecht <strong>des</strong> Rechteinhabers;<br />

• Rechte anderer Personen, entweder am Lizenzgegenstand selber oder bezüglich seiner Verwendung, zum Beispiel Persönlichkeitsrechte abgebildeter Personen.<br />

• Hinweis — Im Falle einer Verbreitung müssen Sie anderen alle Lizenzbedingungen mitteilen, die für dieses Werk gelten. Am einfachsten ist es, an entsprechender Stelle einen Link auf http:/ / creativecommons. org/ licenses/<br />

by-sa/ 3. 0/ deed. de einzubinden.<br />

Haftungsbeschränkung<br />

Die „Commons Deed“ ist kein Lizenzvertrag. Sie ist lediglich ein Referenztext, der den zugrundeliegenden Lizenzvertrag übersichtlich und in allgemeinverständlicher Sprache, aber auch stark vereinfacht wiedergibt. Die Deed selbst<br />

entfaltet keine juristische Wirkung und erscheint im eigentlichen Lizenzvertrag nicht.<br />

GNU Free Documentation License<br />

Version 1.2, November 2002<br />

Copyright (C) 2000,2001,2002 Free Software Foundation, Inc.<br />

51 Franklin St, Fifth Floor, Boston, MA 02110-1301 USA<br />

Everyone is permitted to copy and distribute verbatim copies<br />

of this license document, but changing it is not allowed.<br />

0. PREAMBLE<br />

The purpose of this License is to make a manual, textbook, or other functional and useful document "free" in the sense of freedom: to assure everyone the effective freedom to copy and redistribute it, with or without modifying it,<br />

either commercially or noncommercially. Secondarily, this License preserves for the author and publisher a way to get credit for their work, while not being considered responsible for modifications made by others.<br />

This License is a kind of "copyleft", which means that derivative works of the document must themselves be free in the same sense. It complements the GNU General Public License, which is a copyleft license <strong>des</strong>igned for free<br />

software.<br />

We have <strong>des</strong>igned this License in order to use it for manuals for free software, because free software needs free documentation: a free program should come with manuals providing the same freedoms that the software does. But this<br />

License is not limited to software manuals; it can be used for any textual work, regardless of subject matter or whether it is published as a printed book. We recommend this License principally for works whose purpose is instruction or<br />

reference.<br />

1. APPLICABILITY AND DEFINITIONS<br />

This License applies to any manual or other work, in any medium, that contains a notice placed by the copyright holder saying it can be distributed under the terms of this License. Such a notice grants a world-wide, royalty-free<br />

license, unlimited in duration, to use that work under the conditions stated herein. The "Document", below, refers to any such manual or work. Any member of the public is a licensee, and is addressed as "you". You accept the license<br />

if you copy, modify or distribute the work in a way requiring permission under copyright law.<br />

A "Modified Version" of the Document means any work containing the Document or a portion of it, either copied verbatim, or with modifications and/or translated into another language.<br />

A "Secondary Section" is a named appendix or a front-matter section of the Document that deals exclusively with the relationship of the publishers or authors of the Document to the Document's overall subject (or to related matters)<br />

and contains nothing that could fall directly within that overall subject. (Thus, if the Document is in part a textbook of mathematics, a Secondary Section may not explain any mathematics.) The relationship could be a matter of<br />

historical connection with the subject or with related matters, or of legal, commercial, philosophical, ethical or political position regarding them.<br />

The "Invariant Sections" are certain Secondary Sections whose titles are <strong>des</strong>ignated, as being those of Invariant Sections, in the notice that says that the Document is released under this License. If a section does not fit the above<br />

definition of Secondary then it is not allowed to be <strong>des</strong>ignated as Invariant. The Document may contain zero Invariant Sections. If the Document does not identify any Invariant Sections then there are none.<br />

The "Cover Texts" are certain short passages of text that are listed, as Front-Cover Texts or Back-Cover Texts, in the notice that says that the Document is released under this License. A Front-Cover Text may be at most 5 words, and a<br />

Back-Cover Text may be at most 25 words.<br />

A "Transparent" copy of the Document means a machine-readable copy, represented in a format whose specification is available to the general public, that is suitable for revising the document straightforwardly with generic text editors<br />

or (for images composed of pixels) generic paint programs or (for drawings) some widely available drawing editor, and that is suitable for input to text formatters or for automatic translation to a variety of formats suitable for input to<br />

text formatters. A copy made in an otherwise Transparent file format whose markup, or absence of markup, has been arranged to thwart or discourage subsequent modification by readers is not Transparent. An image format is not<br />

Transparent if used for any substantial amount of text. A copy that is not "Transparent" is called "Opaque".<br />

Examples of suitable formats for Transparent copies include plain ASCII without markup, Texinfo input format, LaTeX input format, SGML or XML using a publicly available DTD, and standard-conforming simple HTML,<br />

PostScript or PDF <strong>des</strong>igned for human modification. Examples of transparent image formats include PNG, XCF and JPG. Opaque formats include proprietary formats that can be read and edited only by proprietary word processors,<br />

SGML or XML for which the DTD and/or processing tools are not generally available, and the machine-generated HTML, PostScript or PDF produced by some word processors for output purposes only.<br />

The "Title Page" means, for a printed book, the title page itself, plus such following pages as are needed to hold, legibly, the material this License requires to appear in the title page. For works in formats which do not have any title<br />

page as such, "Title Page" means the text near the most prominent appearance of the work's title, preceding the beginning of the body of the text.<br />

A section "Entitled XYZ" means a named subunit of the Document whose title either is precisely XYZ or contains XYZ in parentheses following text that translates XYZ in another language. (Here XYZ stands for a specific section<br />

name mentioned below, such as "Acknowledgements", "Dedications", "Endorsements", or "History".) To "Preserve the Title" of such a section when you modify the Document means that it remains a section "Entitled XYZ" according<br />

to this definition.<br />

The Document may include Warranty Disclaimers next to the notice which states that this License applies to the Document. These Warranty Disclaimers are considered to be included by reference in this License, but only as regards<br />

disclaiming warranties: any other implication that these Warranty Disclaimers may have is void and has no effect on the meaning of this License.<br />

2. VERBATIM COPYING<br />

You may copy and distribute the Document in any medium, either commercially or noncommercially, provided that this License, the copyright notices, and the license notice saying this License applies to the Document are reproduced<br />

in all copies, and that you add no other conditions whatsoever to those of this License. You may not use technical measures to obstruct or control the reading or further copying of the copies you make or distribute. However, you may<br />

accept compensation in exchange for copies. If you distribute a large enough number of copies you must also follow the conditions in section 3.<br />

You may also lend copies, under the same conditions stated above, and you may publicly display copies.<br />

3. COPYING IN QUANTITY<br />

If you publish printed copies (or copies in media that commonly have printed covers) of the Document, numbering more than 100, and the Document's license notice requires Cover Texts, you must enclose the copies in covers that<br />

carry, clearly and legibly, all these Cover Texts: Front-Cover Texts on the front cover, and Back-Cover Texts on the back cover. Both covers must also clearly and legibly identify you as the publisher of these copies. The front cover<br />

must present the full title with all words of the title equally prominent and visible. You may add other material on the covers in addition. Copying with changes limited to the covers, as long as they preserve the title of the Document<br />

and satisfy these conditions, can be treated as verbatim copying in other respects.<br />

If the required texts for either cover are too voluminous to fit legibly, you should put the first ones listed (as many as fit reasonably) on the actual cover, and continue the rest onto adjacent pages.<br />

If you publish or distribute Opaque copies of the Document numbering more than 100, you must either include a machine-readable Transparent copy along with each Opaque copy, or state in or with each Opaque copy a<br />

computer-network location from which the general network-using public has access to download using public-standard network protocols a complete Transparent copy of the Document, free of added material. If you use the latter<br />

option, you must take reasonably prudent steps, when you begin distribution of Opaque copies in quantity, to ensure that this Transparent copy will remain thus accessible at the stated location until at least one year after the last time<br />

you distribute an Opaque copy (directly or through your agents or retailers) of that edition to the public.<br />

It is requested, but not required, that you contact the authors of the Document well before redistributing any large number of copies, to give them a chance to provide you with an updated version of the Document.<br />

4. MODIFICATIONS<br />

You may copy and distribute a Modified Version of the Document under the conditions of sections 2 and 3 above, provided that you release the Modified Version under precisely this License, with the Modified Version filling the role<br />

of the Document, thus licensing distribution and modification of the Modified Version to whoever possesses a copy of it. In addition, you must do these things in the Modified Version:<br />

• A. Use in the Title Page (and on the covers, if any) a title distinct from that of the Document, and from those of previous versions (which should, if there were any, be listed in the History section of the Document). You may use<br />

the same title as a previous version if the original publisher of that version gives permission.<br />

• B. List on the Title Page, as authors, one or more persons or entities responsible for authorship of the modifications in the Modified Version, together with at least five of the principal authors of the Document (all of its principal<br />

authors, if it has fewer than five), unless they release you from this requirement.<br />

• C. State on the Title page the name of the publisher of the Modified Version, as the publisher.<br />

• D. Preserve all the copyright notices of the Document.<br />

• E. Add an appropriate copyright notice for your modifications adjacent to the other copyright notices.<br />

• F. Include, immediately after the copyright notices, a license notice giving the public permission to use the Modified Version under the terms of this License, in the form shown in the Addendum below.<br />

• G. Preserve in that license notice the full lists of Invariant Sections and required Cover Texts given in the Document's license notice.<br />

• H. Include an unaltered copy of this License.<br />

• I. Preserve the section Entitled "History", Preserve its Title, and add to it an item stating at least the title, year, new authors, and publisher of the Modified Version as given on the Title Page. If there is no section Entitled<br />

"History" in the Document, create one stating the title, year, authors, and publisher of the Document as given on its Title Page, then add an item <strong>des</strong>cribing the Modified Version as stated in the previous sentence.<br />

• J. Preserve the network location, if any, given in the Document for public access to a Transparent copy of the Document, and likewise the network locations given in the Document for previous versions it was based on. These<br />

may be placed in the "History" section. You may omit a network location for a work that was published at least four years before the Document itself, or if the original publisher of the version it refers to gives permission.<br />

• K. For any section Entitled "Acknowledgements" or "Dedications", Preserve the Title of the section, and preserve in the section all the substance and tone of each of the contributor acknowledgements and/or dedications given<br />

therein.<br />

• L. Preserve all the Invariant Sections of the Document, unaltered in their text and in their titles. Section numbers or the equivalent are not considered part of the section titles.<br />

• M. Delete any section Entitled "Endorsements". Such a section may not be included in the Modified Version.<br />

• N. Do not retitle any existing section to be Entitled "Endorsements" or to conflict in title with any Invariant Section.<br />

• O. Preserve any Warranty Disclaimers.<br />

If the Modified Version inclu<strong>des</strong> new front-matter sections or appendices that qualify as Secondary Sections and contain no material copied from the Document, you may at your option <strong>des</strong>ignate some or all of these sections as<br />

invariant. To do this, add their titles to the list of Invariant Sections in the Modified Version's license notice. These titles must be distinct from any other section titles.<br />

You may add a section Entitled "Endorsements", provided it contains nothing but endorsements of your Modified Version by various parties--for example, statements of peer review or that the text has been approved by an organization<br />

as the authoritative definition of a standard.<br />

You may add a passage of up to five words as a Front-Cover Text, and a passage of up to 25 words as a Back-Cover Text, to the end of the list of Cover Texts in the Modified Version. Only one passage of Front-Cover Text and one of<br />

Back-Cover Text may be added by (or through arrangements made by) any one entity. If the Document already inclu<strong>des</strong> a cover text for the same cover, previously added by you or by arrangement made by the same entity you are<br />

acting on behalf of, you may not add another; but you may replace the old one, on explicit permission from the previous publisher that added the old one.<br />

The author(s) and publisher(s) of the Document do not by this License give permission to use their names for publicity for or to assert or imply endorsement of any Modified Version.<br />

5. COMBINING DOCUMENTS<br />

You may combine the Document with other documents released under this License, under the terms defined in section 4 above for modified versions, provided that you include in the combination all of the Invariant Sections of all of<br />

the original documents, unmodified, and list them all as Invariant Sections of your combined work in its license notice, and that you preserve all their Warranty Disclaimers.<br />

The combined work need only contain one copy of this License, and multiple identical Invariant Sections may be replaced with a single copy. If there are multiple Invariant Sections with the same name but different contents, make the<br />

title of each such section unique by adding at the end of it, in parentheses, the name of the original author or publisher of that section if known, or else a unique number. Make the same adjustment to the section titles in the list of<br />

Invariant Sections in the license notice of the combined work.


Lizenz 34<br />

In the combination, you must combine any sections Entitled "History" in the various original documents, forming one section Entitled "History"; likewise combine any sections Entitled "Acknowledgements", and any sections Entitled<br />

"Dedications". You must delete all sections Entitled "Endorsements".<br />

6. COLLECTIONS OF DOCUMENTS<br />

You may make a collection consisting of the Document and other documents released under this License, and replace the individual copies of this License in the various documents with a single copy that is included in the collection,<br />

provided that you follow the rules of this License for verbatim copying of each of the documents in all other respects.<br />

You may extract a single document from such a collection, and distribute it individually under this License, provided you insert a copy of this License into the extracted document, and follow this License in all other respects regarding<br />

verbatim copying of that document.<br />

7. AGGREGATION WITH INDEPENDENT WORKS<br />

A compilation of the Document or its derivatives with other separate and independent documents or works, in or on a volume of a storage or distribution medium, is called an "aggregate" if the copyright resulting from the compilation<br />

is not used to limit the legal rights of the compilation's users beyond what the individual works permit. When the Document is included in an aggregate, this License does not apply to the other works in the aggregate which are not<br />

themselves derivative works of the Document.<br />

If the Cover Text requirement of section 3 is applicable to these copies of the Document, then if the Document is less than one half of the entire aggregate, the Document's Cover Texts may be placed on covers that bracket the<br />

Document within the aggregate, or the electronic equivalent of covers if the Document is in electronic form. Otherwise they must appear on printed covers that bracket the whole aggregate.<br />

8. TRANSLATION<br />

Translation is considered a kind of modification, so you may distribute translations of the Document under the terms of section 4. Replacing Invariant Sections with translations requires special permission from their copyright holders,<br />

but you may include translations of some or all Invariant Sections in addition to the original versions of these Invariant Sections. You may include a translation of this License, and all the license notices in the Document, and any<br />

Warranty Disclaimers, provided that you also include the original English version of this License and the original versions of those notices and disclaimers. In case of a disagreement between the translation and the original version of<br />

this License or a notice or disclaimer, the original version will prevail.<br />

If a section in the Document is Entitled "Acknowledgements", "Dedications", or "History", the requirement (section 4) to Preserve its Title (section 1) will typically require changing the actual title.<br />

9. TERMINATION<br />

You may not copy, modify, sublicense, or distribute the Document except as expressly provided for under this License. Any other attempt to copy, modify, sublicense or distribute the Document is void, and will automatically terminate<br />

your rights under this License. However, parties who have received copies, or rights, from you under this License will not have their licenses terminated so long as such parties remain in full compliance.<br />

10. FUTURE REVISIONS OF THIS LICENSE<br />

The Free Software Foundation may publish new, revised versions of the GNU Free Documentation License from time to time. Such new versions will be similar in spirit to the present version, but may differ in detail to address new<br />

problems or concerns. See http:/ / www. gnu. org/ copyleft/ .<br />

Each version of the License is given a distinguishing version number. If the Document specifies that a particular numbered version of this License "or any later version" applies to it, you have the option of following the terms and<br />

conditions either of that specified version or of any later version that has been published (not as a draft) by the Free Software Foundation. If the Document does not specify a version number of this License, you may choose any version<br />

ever published (not as a draft) by the Free Software Foundation.<br />

ADDENDUM: How to use this License for your documents<br />

To use this License in a document you have written, include a copy of the License in the document and put the following copyright and license notices just after the title page:<br />

Copyright (c) YEAR YOUR NAME.<br />

Permission is granted to copy, distribute and/or modify this document<br />

under the terms of the GNU Free Documentation License, Version 1.2<br />

or any later version published by the Free Software Foundation;<br />

with no Invariant Sections, no Front-Cover Texts, and no Back-Cover Texts.<br />

A copy of the license is included in the section entitled<br />

"GNU Free Documentation License".<br />

If you have Invariant Sections, Front-Cover Texts and Back-Cover Texts, replace the "with...Texts." line with this:<br />

with the Invariant Sections being LIST THEIR TITLES, with the<br />

Front-Cover Texts being LIST, and with the Back-Cover Texts being LIST.<br />

If you have Invariant Sections without Cover Texts, or some other combination of the three, merge those two alternatives to suit the situation.<br />

If your document contains nontrivial examples of program code, we recommend releasing these examples in parallel under your choice of free software license, such as the GNU General Public License, to permit their use in free<br />

software.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!