30 Jahre World Wide Web – ein Weg in 10 Etappen

Autor / Redakteur: Franz Graser / Sebastian Gerstl

Vor 30 Jahren, am 12. März 1989, legte Tim Berners-Lee am Kernforschungszentrum CERN in Genf ein Konzept für ein auf Servern, Links und Browsern basierendes, weltweites Netzwerk vor: Das World Wide Web (WWW) war geboren. Zum Geburtstag liefern wir einen Überblick über die Meilensteine, die das Internet seither absolvierte.

Firma zum Thema

(Bild: Cern)

Der Schöpfer – Tim Berners-Lee

Das Internet hat viele Väter, und demgemäß auch viele Zeitpunkte an denen man gemeinläufig den Geburtstag festmachen könnte. Wenn es aber um das WWW geht, wie wir es heute kennen – ein Netzwerk, dass auf Seiten beruht, die auf verschiedenen Servern weltweit gehostet werden, die mit Hyperlinks aufeinander verweisen und die mit Hilfe von Browsern allgemein zugänglich aufgerufen werden können – dann gilt allgemein ein Mann als der Erfinder: Der britische Physiker Tim Berners-Lee.

Die Idee eines globalen Netzwerks, das unterschiedliche Standorte miteinander verband, und über das auch Nachrichten gesendet werden konnten, war in den 1980er Jahren bereits nichts grundlegend neues: Schon seit 1969 existierte mit dem Arpanet ein Netzwerk, das Militär- und Forschungseinrichtungen miteinander vernetzte und das den Nutzern erlaubte, eine Art von elektronischer Mail und Daten auszutauschen. Doch das Arpanet war schwierig zu handhaben: Für jeden Rechner, auf dem Daten bereitslagen, waren in der Regel eigene Logins nötig, verschiedene Einrichungen verwendeten unterschiedliche Programme für dieselbe Aufgabe, und einfache, direkte Verweise auf Dokumente, die aber auf einem anderen Computer lagen, waren nicht möglich.

Bildergalerie
Bildergalerie mit 14 Bildern

Der gebürtige Londoner Tim Berners-Lee hatte im Sinn, ein System zu schaffen, mit dem sich Forscher und Wissenschaftler weltweit besser austauschen können. Schon 1980, als er als technischer Dienstleister am Kernforschungszentrum CERN tätig war, schlug er erstmals eine Lösung vor, die auf dem Hypertext-Prinzip basierte – verschiedene Texte sollten untereinander durch Hyperlinks verbunden sein.

In großen Lexika gab es ja schon lange Verweise zwischen einzelnen Lexikonartikeln. der Vorteil eines Hyperlinks war jedoch, dass man augenblicklich zum referenzierten Artikel springen konnte, ohne manuell blättern zu müssen. Damals entwickelte er bereits ein Hypertext-System namens Enquire. Zu diesem Zeitpunkt fand es aber allenfalls räumlich begrenzt Anwendung.

Als Berners-Lee 1984 ans CERN zurückkehrte, verfolgte er seine Idee weiter. am 12. März 1989 stellte er am Forschungszentrum einen neuen Entwurf für ein besseres Netzwerk vor. Der bahnbrechende neue Ansatz des Briten war, die Hypertext-Idee mit der bereits existierenden Technik des Internet zu koppeln – denn das Transmission Control Protocol (TCP) und das Domänen-Namenssystem des Internet existierten bereits. Ein Vorgesetzter kommentierte das Papier mit der Notiz „Vage, aber interessant" - und Berners-Lee durfte seine Idee weiterverfolgen.

Was noch fehlte, war ein einfacher Standard, wie man Inhalte für dieses angedachte Informationsnetzwerk aufbereiten konnte. Berners-Lee orientierte sich an der Auszeichnungssprache Standard Generalized Markup Language, die in den sechziger Jahren des vorigen Jahrhunderts entwickelt worden war, und spezifizierte in Anlehnung daran HTML, die Hypertext Markup Language.

Die in HTML definierten Markierungen – sogenannte Tags – bestimmen die Formatierung von Textinhalten und erlauben auch das Einbetten von Multimedia-Inhalten wie Bildern und Sounddateien. Ein spezielles Programm – der sogenannte Browser – übernimmt die Wiedergabe der in HTML formatierten Informationen. Diesen ersten Browser programmierte Berners-Lee auf einer NeXT-Maschine, die zugleich als erster Webserver dienen sollte.

1990 veröffentlichte Tim Berners-Lee zusammen mit Robert Cailliau ein Konzept für ein weltweites Hypertext-Projekt. In der Folgezeit entwickelte Berners-Lee die Seitenbeschreibungssprache HTML, das Transferprotokoll HTTP, die URL (der Name kam allerdings erst später), den ersten Browser WorldWideWeb und den ersten Webserver CERN httpd unter dem Betriebssystem NeXTStep. Dies sollte den Ursprung des World Wide Web darstellen.

Berners-Lee erstellte als erstes Konzept die erste Webpräsenz, http://info.cern.ch. Diese Website gibt es bis heute; allerdings existiert von dem ursprünglichen Inhalt nur noch eine Kopie aus dem Jahr 1992. Am 30. April 1993 schaltete Tim Berners-Lee am Kernforschungszentrum CERN in Genf das World Wide Web schließlich für die Weltöffentlichkeit frei – und läutete damit eine neue Ära der Telekommunikation ein.

Heute hält der Erfinder mahnende Worte bereit

Heute, am 12. 3., den Tag, an dem Berners-Lee sein Konzeptpapier vorlegte, feiert CERN den 30. Geburtstag des World Wide Webs. Der 63-jährige Tim Berners-Lee nahm diesen Festakt zum Anlass, um in einem offenen Brief einige mahnende Worte zum heutigen Gebrauch seiner Erfindung auszusprechen.

„Der Kampf für das Web ist eines der wichtigsten Anliegen unserer Zeit,“ schrieb Berners-Lee. „Angesichts der Artikel über den Missbrauch des Webs ist es verständlich, dass viele Leute sich sorgen und unsicher sind, ob das Web wirklich einen positiven Einfluss hat“, schrieb Berners-Lee. „Aber es wäre defätistisch und einfallslos anzunehmen, dass das Web in seiner heutigen Form in den nächsten 30 Jahren nicht zum Besseren verändert werden kann.“

Insbesondere warnt Berners-Lee in seinem Brief vor Datenmissbrauch, Desinformationen, Hassreden und Zensur – und spricht sich für eine vorsichtige Regulierung aus. Absichtlich verbreiteten böswilligen Inhalten könne beispielsweise mit Gesetzen und Computercode entgegengewirkt werden. Geschäftsmodelle, die die Weiterverbreitung von Falschinformationen fördern, könnten so unterbunden werden. „Unternehmen müssen mehr tun, um sicherzustellen, dass ihr Gewinnstreben nicht auf Kosten von Menschenrechten, Demokratie, wissenschaftlichen Fakten und öffentlicher Sicherheit geht“, schrieb Berners-Lee. Er wirbt mit seiner Stiftung (Web Foundation) dafür, das Firmen, Regierungen und die Zivilgesellschaft einen Vertrag für ein besseres Web ausarbeiten.

Meilensteine des World Wide Webs

In den 30 Jahren seit seiner Konzipierung hat das Internet einige bemerkenswerte Veränderungen durchgemacht. Im Folgenden wollen wir 10 besondere Evolutionsschritte noch einmal näher betrachten.

Die erste Website der Welt

Die erste Website der Welt war noch rein textbasiert.
Die erste Website der Welt war noch rein textbasiert.
(Bild: CERN)

Dieser erste Webserver – und die darauf erstellte erste Website – gingen am Heiligabend 1990 online, allerdings zunächst praktisch unter Ausschluss der Öffentlichkeit.

Berners-Lee entschuldigte sich später dafür, dass die beiden Schrägstriche am Beginn jeder Webadresse (http://) eigentlich unnötig seien. „Damals schien es eine gute Idee zu sein“, witzelte er 2009 in einem Artikel für die Londoner Times. Anlässlich des Jubiläums ist die erste Website der Welt wieder online zugänglich gemacht worden.

Bildergalerie
Bildergalerie mit 14 Bildern

Die erste Website der Welt, in ihrer ursprünglichsten Form, ist von jeher äußerst spartanisch: Sie erläutert das Projekt WWW, listet beteiligte Personen auf und zeigt, welche Software man braucht, um das WWW zu nutzen, und wie diese installiert werden kann. Die Liste der unterstützten Systeme mutet aus heutiger Sicht natürlich museal an.

Heute arbeitet Berners-Lee zusammen mit der britischen Regierung an einem Projekt, das alle nicht-personenbezogenen Daten, über die die britische Regierung verfügt, offen legen soll. Zudem engagiert er sich für die Netz-Neutralität. Im vergangenen Jahr war er einer der Stargäste bei der Eröffnungsfeier der Olympischen Sommerspiele in London.

Der Webserver

Der Computerhersteller NeXT war ein Kind von Steve Jobs. 1985 hatte Jobs Apple nach Meinungsverschiedenheiten mit dem damaligen Vorstandschef John Sculley verlassen und ein neues Unternehmen gegründet. Ein Teil des Startkapitals wurde von dem texanischen Milliardär und späteren Präsidentschaftskandidaten Ross Perot zugeschossen.

NeXT spezialisierte sich auf Highend-Workstations. Die erste Generation der Workstations, die 1988 auf den Markt kam, war würfelförmig und besaß eine Kantenlänge von 30,5 Zentimetern.

Wegen seines hohen Preises blieb dem NeXT der breite Erfolg verwehrt. Allerdings landete ein solcher Rechner, der nach Überzeugung von Steve Jobs seiner Zeit voraus war, im Jahr 1989 auf dem Schreibtisch von Tim Berners-Lee. Das Unix-basierte Betriebssystem und die objektorientierten Entwicklungswerkzeuge waren damals auf dem neuesten Stand der Technik und erleichterten dem Briten die Programmierung der Web-Serversoftware CERN HTTPd und des ersten Browsers.

Hardwareseitig waren die NeXT-Computer nach heutigen Maßstäben spartanisch ausgestattet. Der Zentralprozessor, ein Motorola 68030, war mit gerade 25 Megahertz getaktet, standardmäßig waren die Geräte mit 8 Megabyte Hauptspeicher ausgerüstet. Damals stellte diese Ausstattung allerdings die Crème de la Crème für persönliche Workstations dar.

Der Netscape-Browser

Mitte der neunziger Jahre war der Netscape-Browser der am weitesten verbreitete Schlüssel zum Internet. Der spektakuläre Börsengang des Unternehmens leitete den Dotcom-Boom ein.
Mitte der neunziger Jahre war der Netscape-Browser der am weitesten verbreitete Schlüssel zum Internet. Der spektakuläre Börsengang des Unternehmens leitete den Dotcom-Boom ein.
(Bild: Netscape/AOL)

1994 steckte das Web noch in den Kinderschuhen. Aber mit Netscape entstand das erste Unternehmen, das versuchte, mit dem neuen Medium Geld zu verdienen. Gründer waren der damals erst 23-jährige Marc Andreessen, der als Student den Web-Browser NCSA Mosaic entwickelt hatte, und Branchenveteran Jim Clark, der das Unternehmen Silicon Graphics ins Leben gerufen hatte.

Der Browser Mosaic erlaubte es, Bilder und Grafiken nicht in separaten Fenstern, sondern eingebettet in den Text anzuzeigen. Darüber hinaus war er auch für Rechner mit Microsoft-Betriebssystemen verfügbar. Erstmals war es möglich, Web-Inhalte auf vergleichsweise komfortable Weise mit einem mausgesteuerten Interface zu durchforsten.

Bildergalerie
Bildergalerie mit 14 Bildern

Der Netscape-Browser baute zwar auf den Erfahrungen von Mosaic auf, enthielt aber keinen Code des Vorgängers. Die erste Version des Netscape-Browsers erblickte im Oktober 1994 das Licht der Öffentlichkeit, allerdings noch unter dem Namen Mosaic Netscape. Erst kurz darauf wurden die Firmierung und auch der Name des Browsers in Netscape geändert.

Der Netscape-Browser war schneller als das Mosaic-Programm. Zudem erhielt die zweite Version des Browsers ein E-Mail-Programm, das Mails, die in HTML formatiert waren, korrekt darstellen konnte. Zudem entwickelte Netscape den Secure Socket Layer für die sichere Datenübertragung im Netz – wichtig für den Handel im Internet – und die Skriptsprache Javascript.

Netscape vertrieb seine Browser kommerziell, darüber hinaus stellte das Unternehmen auch kommerzielle Webserver-Software her. Als das Unternehmen 1995 an die Börse ging, schoss der Wert der Aktie bereits am Ausgabetag von eigentlich vorgesehenen 28 Dollar auf zwischenzeitliche 75 Dollar.

Als die Börse schloss, betrug der Aktienkurs 58,25 Dollar und Netscape war 2,9 Milliarden Dollar wert, obwohl es bis dahin noch keinen Gewinn gemacht hatte. Der spektakuläre Börsengang löste eine wahre Internet-Euphorie an den Aktienmärkten aus, die erst nach der Jahrtausendwende abebbte.

Mit dem großen Erfolg machte sich Netscape aber alsbald den mächtigen Softwarekonzern Microsoft zum Feind. Netscape propagierte Ideen, die man als Vorläufer des Cloud-Computing werten kann. Dies hätte aber Betriebssysteme wie Windows auf Dauer irrelevant gemacht. Microsoft reagierte, indem es den Browser Internet Explorer – der seinerseits auf einer Mosaic-Variante basierte – entwickeln ließ und ab Windows 98 mit dem Betriebssystem bündelte.

Damit war Netscape eine Umsatzquelle entzogen, denn Windows-User hatten nun einen vorinstallierten Browser und brauchten Netscape nicht mehr extra zu kaufen. Dazu kam, dass spätere Versionen des Netscape-Browsers mit langen Entwicklungszeiten und Stabilitätsproblemen zu kämpfen hatten. Dieser sogenannte Browser-Krieg führte dazu, dass Microsofts Internet Explorer nach wenigen Jahren den Markt für Internet-Zugangsprogramme dominierte.

Das Unternehmen Netscape wurde 1997 von AOL übernommen. Kurz zuvor wurde der Quellcode der Netscape-Browsersoftware freigegeben und an die Mozilla Foundation übergeben. Insofern ist der quelloffene Firefox-Browser, der von Mozilla stammt, ein entfernter Nachfahre des Browser-Pioniers.

Disketten und CDs für den Internet-Zugang

Für viele Internetnutzer erleichterten Disketten und CDs von America Online die ersten Schritte ins Web. Leider erwiesen sich die per Direktmarketing verschickten und auf Zeitschriften prangenden CDs mit der Zeit zur Plage.
Für viele Internetnutzer erleichterten Disketten und CDs von America Online die ersten Schritte ins Web. Leider erwiesen sich die per Direktmarketing verschickten und auf Zeitschriften prangenden CDs mit der Zeit zur Plage.
(Bild: AOL)

Für viele User, die hierzulande in den neunziger Jahren das Internet entdeckten, waren entweder die Telekom-Tochter T-Online oder America Online (AOL) die ersten Provider – unter anderem, weil sie relativ preiswerte Einwahlgebühren für die mehrheitlich mit einem Analogmodem ausgestatteten Privatkunden boten.

Ein Vorteil von AOL war, dass die User einfach nur die Zugangssoftware installieren mussten und dann sofort loslegen konnten. Zudem lockte AOL oft mit Kostenlos-Angeboten, bei denen die Neukunden eine Zeitlang gratis (abgesehen von den Telefon-Verbindungsgebühren) surfen konnten.

Bildergalerie
Bildergalerie mit 14 Bildern

Um Neukunden zu gewinnen, warf AOL deshalb die CD-Presse an. Passte die erste Version der Zugangssoftware noch auf eine Diskette, so war für spätere Varianten schon die CD als Speichermedium notwendig. Ende der neunziger Jahre prangten auf fast allen Computerzeitschriften AOL-Zugangs-CDs, zudem erhielten Bestandskunden die aktuelle Softwareversion auf CD zugeschickt. Viele AOL-CDs endeten deshalb als Hightech-Bierdeckel, als Zifferblatt für CD-Uhren oder wanderten einfach in den Müll.

Dem Vernehmen nach trug zu dieser Zeit jede zweite weltweit produzierte CD das AOL-Logo. Initiativen zur Müllvermeidung gründeten sich, die die Ressourcenverschwendung des amerikanischen Konzerns anprangerten. Insgesamt soll AOL rund 300 Millionen US-Dollar in diese Form des Marketings gesteckt haben.

Die Webcam und die Kaffeemaschine

Die berühmte Kaffeemaschine im Trojan Room der Universität Cambridge
Die berühmte Kaffeemaschine im Trojan Room der Universität Cambridge
(Bild: Quentin Stafford-Fraser, Wikimedia Commons, gemeinfrei / CC0 )

High Tech meets Low Tech – dieses Motto kommt einem in den Sinn, wenn man sich überlegt, wofür die erste Webcam der Geschichte eingesetzt wurde. Da Softwareentwicklern und Informatikstudenten ein immenser Kaffeedurst nachgesagt wird – Softwareentwicklung wird ja oft als ein Prozess definiert, der Kaffee in Codezeilen verwandelt – wurde die Kaffeemaschine vor den Rechnerlabors der University of Cambridge natürlich häufig frequentiert.

Mancher Student oder Dozent, dem der Sinn nach einer Tasse Kaffee stand, musste jedoch unverrichteter Dinge wieder abziehen, wenn kein Kaffee mehr in der Kanne war. Um derlei Frust zu vermeiden, überlegte man sich 1991 eine Lösung mit hohem Nerd-Appeal. Eine Videokamera wurde auf die Kaffeemaschine gerichtet und mit einem Framegrabber gekoppelt, der Bildsignale digitalisieren konnte. Hierfür wurde ein Acorn-Archimedes-Rechner herangezogen. Ein Server- und ein Client-Programm für die Unix-basierte Rechner mit X-Window-Oberflächen ermöglichte es den Usern im lokalen Netzwerk, per Mausklick den aktuellen Füllstand der Kaffeemaschine einzusehen.

Bildergalerie
Bildergalerie mit 14 Bildern

Ein paar Jahre später setzte sich das World Wide Web durch, und die Webbrowser boten die Möglichkeit, nicht nur Text, sondern auch Bildinformationen darzustellen. Deshalb wurde das Kamerasystem 1993 an das World Wide Web angeschlossen. Auf diese Weise hatte jeder Web-Nutzer die Möglichkeit, zu jeder Tages- und Nachtzeit die Kaffeemaschine zu beobachten. Die Bildqualität entsprach zwar in etwa der der ersten Mondlandung, aber von nun an wussten Nerds in aller Welt, wieviel Kaffee sich noch in der Maschine befand.

Als die Informatik-Fakultät 2001 in neue Gebäude umzog, wurde diese erste Webcam der Geschichte endgültig abgeschaltet. Das Online-Magazin Spiegel Online ersteigerte in einer Internet-Auktion die Kaffeemaschine. Sie kann heute noch in der Hamburger Redaktion von Spiegel Online beobachtet werden.

Java

James Gosling gilt als Vater der Programmiersprache Java.
James Gosling gilt als Vater der Programmiersprache Java.
(Bild: Sun Microsystems/Oracle)

Die frühen Websites waren zwar faszinierend, sie hatten aber einen entscheidenden Nachteil: Sie waren statisch. Interaktivität war nur durch das Anklicken von Hyperlinks möglich, die auf andere Seiten verwiesen. Das änderte sich erst durch Techniken wie Javascript oder PHP, die es erlaubten, entweder auf der Client- oder der Serverseite Programmlogik in die Websites zu integrieren. Mitte der neunziger Jahre kam die Programmiersprache Java hinzu, mit der es möglich war, kleine Programme – sogenannte Applets – in Websites einzubetten.

Java war ursprünglich als Embedded-Programmiersprache für TV-Set-Top-Boxen entwickelt worden. Das aufkommende Internet erweiterte jedoch den Anwendungsbereich der Technik ganz entscheidend.

Bildergalerie
Bildergalerie mit 14 Bildern

Da Java-Programme in einer virtuellen Maschine (VM) ausgeführt werden und nur diese VM speziell für die Zielplattform geschrieben werden muss, sind Java-Applikationen prinzipiell auf jeder Hardware und jedem Betriebssystem lauffähig. Das bedeutet, dass auch die eingebetteten Applet-Programme nur einmal geschrieben und kompiliert werden mussten und somit weltweit genutzt werden konnten.

Als Sun Microsystems die nach der Kaffeesorte Java benannte Softwareplattform 1995 veröffentlichte, führte der Internet-Boom deshalb auch schnell zu einem Java-Hype. Daran änderten die Nachteile der Applet-Technik zunächst nichts: Die Java-Programme mussten erst einmal über das Netz geladen werden, was bei schmalbandigen Verbindungen durchaus einige Minuten dauern konnte. Zudem waren die frühen Virtual Machines noch nicht sehr leistungsfähig, so dass Java-Applets im Ruf standen, ein zähes Vergnügen zu sein.

All das tat der Java-Begeisterung zunächst keinen Abbruch. Sun veröffentlichte relativ rasch die stark verbesserte Java-2-Plattform, die auch die Entwicklung unternehmensweiter Webanwendungen mit Java unterstützte. Allerdings erwies sich die Java 2 Enterprise Edition als reichlich komplexe Architektur, die als zentrale Komponente einen sogenannten Applikationsserver vorsah. Dieser beherbergte die Geschäftslogik und führte quasi Datenbankinhalte und deren Darstellung im Web zusammen.

Zwar wurden viele Web-Applikationen auf Basis dieser Architektur erstellt, doch die komplizierte Struktur und die mitunter problematische Wartbarkeit führen dazu, dass sich viele mittelständische Betriebe nach anderen Lösungen umsahen.

Skriptsprachen wie PHP, die sich einfach in den HTML-Code einer Website integrieren ließen, boten hier viele Vorteile. Deshalb basieren heute viele Content-Management-Systeme oder E-Commerce-Lösungen auf PHP und anderen Skriptsprachen. Dagegen ist Java gewissermaßen zum Ausgangspunkt zurückgekehrt, denn die meisten Applikationen für das Smartphone-Betriebssystem Android sind in Java geschrieben.

Musiktausch mit Napster

Aufnahme von Sean Parker aus dem Jahr 2011. Der Co-Entwickler von Napster blieb den wichtigen Entwicklungen des Internets nahe verbunden: Er war einer der ersten Investoren des sozialen Netzwerks Facebook und war maßgeblich an der Namensgebung der Plattform beteiligt.
Aufnahme von Sean Parker aus dem Jahr 2011. Der Co-Entwickler von Napster blieb den wichtigen Entwicklungen des Internets nahe verbunden: Er war einer der ersten Investoren des sozialen Netzwerks Facebook und war maßgeblich an der Namensgebung der Plattform beteiligt.
(Bild: Sean Parker 2011 / Sean Parker 2011 / Amager / CC BY-SA 2.0 / BY-SA 2.0)

Um die Jahrtausendwende war neben E-Mail und dem Browsen im Web der Musiktausch mit Napster eine der Killeranwendungen des Web. Napster war 1999 von den Brüdern Shawn und John Fanning entwickelt worden. Nachdem die Brüder zusammen mit ihrem Bekannten Sean Parker die gleichnamige Musiktauschböse ins Leben gerufen hatten, verbreitete sich der zugehörige Softwareclient wie ein Lauffeuer im Internet.

Die Anwendung erlaubte es, Listen mit im digitalen MP3-Format gespeicherten Audiodateien ins Netz zu stellen und im Peer-to-Peer-Sharing-Verfahren herunterzuladen. Wer sich bei Napster registrierte – was zwischen 1999 und 2001 rund 80 Millionen Menschen taten –, hatte Zugriff auf eine gewaltige Musikbibliothek und konnte sich abgesehen von den Verbindungsgebühren praktisch kostenlos bedienen. Ein Schuldbewusstsein aufgrund des Verstoßes gegen Urheberrechte hatten zudem nur die wenigsten User.

Bildergalerie
Bildergalerie mit 14 Bildern

Die Musikindustrie wurde durch Zufälle auf den Musiktauschdienst aufmerksam. Einige Songs kursierten im Napster-Netz bereits vor der offiziellen Veröffentlichung. Das führte dazu, dass US-Radiostationen Lieder spielten, die es offiziell noch gar nicht zu kaufen gab. Im Jahr 2000 klagte zum Beispiel die Band Metallica gegen die Tauschbörse, weil ihr Song I Disappear auf diese Weise vorzeitig in Umlauf gekommen war und die Musikmanager erschrocken feststellten, dass praktisch alle Titel der Band auf Napster kostenlos verfügbar waren.

Der Klagewelle, die nun auf die Tauschbörse zurollte, waren die Gründer nicht gewachsen. Mitte 2001 wurden die Napster-Server abgeschaltet. Damit war die Episode als Tauschbörse vorbei. Der Name Napster lebt zwar als kommerzeller Online-Musikservice weiter. Die einstige Bedeutung wurde aber nicht wieder erreicht.

In den Fußspuren von Napster folgten weitere Musiktauschnetzwerke von zum Teil zweifelhafter Legalität. So war zum Beispiel der Filesharing-Service Kazaa in Deutschland eine Zeitlang recht populär. Die offizielle Client-Software von Kazaa war jedoch auch als Adware-Schleuder berüchtigt.

Napster-Mitbegründer Sean Parker sollte viele Jahre später noch an einer weiteren maßgeblichen Entwicklung, zumindest periphär, beteiligt sein: er gilt als einer der ersten Investoren in die Social-Media-Plattform Facebook und soll 2011 maßgeblich dazu beigetragen haben, dass die Seite von The-Facebook.com in ihren heute geläufigeren Namen umbenannt wurde.

Google – aus dem Nichts zur bedeutendsten Suchmaschine

Dieses Google-Doodle lehnt sich an den Londoner U-Bahn-Streckenplan an.
Dieses Google-Doodle lehnt sich an den Londoner U-Bahn-Streckenplan an.
(Bild: Google)

Google gilt heute als Synonym für die Suche im World Wide Web. Das war nicht immer so – wer sich seit Mitte der neunziger Jahre im Netz bewegt, hat seitdem eine ganze Reihe von Web-Verzeichnissen und Suchmaschinen ausprobiert.

Zu den Pionieren, die es heute noch gibt, gehört Yahoo!, das versucht, einen Teil seiner einstige Bedeutung wieder zu erlangen. Daneben gab es die Suchmaschine Altavista, die von Digital Equipment entwickelt worden war, aber auch Excite, Lycos und HotBot sowie Fireball im deutschen Sprachraum waren eine Zeitlang populär.

Bildergalerie
Bildergalerie mit 14 Bildern

Seit 1998 ist jedoch Google online, das innerhalb vergleichsweise kurzer Zeit zum Spitzenreiter unter den Suchmaschinen aufstieg und diesen Rang bisher nicht mehr hergegeben hat.

Google setzt autonome Suchprogramme, sogenannte Webcrawler ein, die den Internetlinks folgen und die gefundenen Seiten indexieren. Die Kalifornier sortieren die gefundenen Ergebnisse nach Relevanzkriterien. Dafür wurde ein Messwert, der sogenannte PageRank, entwickelt. Je nachdem wie viele Links zu einer bestimmten Seite verweisen, desto höher wird die Relevanz bewertet. Darüber hinaus wertet Google das Vorkommen von Schlüsselwörtern in Überschriften aus.

Der ursprüngliche PageRank-Algorithmus wurde immer weiter verfeinert, so dass heute angeblich mehr als 200 Faktoren in die Bewertung einfließen, so etwa der Ort, an dem der User seine Suchanfrage eingibt, oder auch, ob er mit einem PC oder einem mobilen Endgerät arbeitet.

Während Google in der westlichen Welt die dominierende Suchmaschine ist – woran sich in absehbarer Zeit nichts ändern dürfte –, gibt es in bestimmten Weltregionen populäre Konkurrenten, so etwa Baidu in China, Naver in Südkorea oder Yandex in Russland.

Der Name „Google“ leitet sich übrigens von der Bezeichnung „Googol“ für eine Zahl ab, die aus einer 1 mit 100 Nullen besteht. Der neunjährige Neffe des amerikanischen Mathematikers Edward Kasner hatte die Bezeichnung aus Spaß erfunden, dieser popularisierte den Namen später in seinen wissenschaftlichen Veröffentlichungen.

Die Google-Gründer wählten die Bezeichnung, um damit die gewaltigen Möglichkeiten des Internets auszudrücken. Als sie die Marke anmeldeten, unterlief ihnen jedoch ein Schreibfehler und aus „Googol“ wurde „Google“.

boo.com und das Ende des Dotcom-Booms

Der weibliche Avatar „Miss Boo“ sollte die Kunden auf ihrer Shopping-Tour auf der Website boo.com begleiten.
Der weibliche Avatar „Miss Boo“ sollte die Kunden auf ihrer Shopping-Tour auf der Website boo.com begleiten.
(Bild: Boo.com)

In den Anfängen des Internetzeitalters stellten vor allem Geschäftsleute immer wieder dieselbe Frage: „Wie kann man im Netz Geld verdienen?“ Lange nämlich galt das Web als Spielwiese für Nerds, die dort abseitiges Wissen veröffentlichten. Aber abgesehen von den Firmen, die Infrastruktur-Software für das Netz herstellten, schien der kommerzielle Nutzen des Webs zweifelhaft zu sein.

Internethändler wie Amazon.com bewiesen zwar früh, dass sich das Geschäftsmodell des Versandhandels relativ leicht auf das Web übertragen ließ, aber Amazon brauchte fast sieben Jahre, bis es den ersten Gewinn verbuchen konnte. Außerdem verlegte sich Amazon auf Bücher – also eine Warengruppe, die nicht verderben kann, keinen Moden unterliegt und leicht transportierbar ist.

Bildergalerie
Bildergalerie mit 14 Bildern

Riskanter war da schon der Online-Modeshop boo.com, der 1999 von einem schwedischen Unternehmerpaar gegründet wurde. Boo.com spezialisierte sich auf teure Markenkleidung, unterhielt ein repräsentatives Hauptquartier in London und wurde schon vor dem Verkauf des ersten Kleidungsstücks als eine der coolsten Firmen Europas gefeiert.

Boo.com machte jedoch so viele Fehler, dass es als exemplarisches Beispiel dafür dienen kann, wie man ein Internet-Startup besser nicht aufzieht. Ein Problem war zum Beispiel die mangelnde Benutzerfreundlichkeit der Website. Die Datenmengen, die zu laden waren, bevor man die Eingangsseite überhaupt sehen konnte, betrugen mehrere hundert Kilobyte. In einer Zeit, in der die meisten User noch mit Telefonmodems ins Internet gingen, war dies unzumutbar.

Außerdem machte die Seite sehr viel Gebrauch von Techniken wie Javascript und Flash. Damit sollte eine dreidimensionale Darstellung eines Kleidungsstücks erreicht werden, was aber die technischen Möglichkeiten vieler PCs der damaligen Zeit überforderte.

Dazu kamen organisatorische Probleme, da die Zahl der Mitarbeiter innerhalb weniger Monate von rund 40 auf das Zehnfache anstieg. Auch Gerüchte über extravagante Parties machten die Runde, die die Boo-Gründer aber in Interviews zurückwiesen.

Innerhalb von 18 Monaten wurden 135 Millionen Dollar an Wagniskapital durchgebracht, so dass boo.com im Mai 2000 schließen musste. Die Boo-Pleite löste das Ende des Dotcom-Booms aus, da von da an die Skepsis gegenüber Internet-Startups und der Tragfähigkeit ihrer Geschäftsmodelle zunahm.

Soziale Medien – Twitter, Facebook und Co.

Twitter, Facebook, Pinterest & Co.: Soziale Medien machen heutzutage einen Löwenanteil des kommerziell genutzten Internets aus.
Twitter, Facebook, Pinterest & Co.: Soziale Medien machen heutzutage einen Löwenanteil des kommerziell genutzten Internets aus.
(Bild: Photo Mix auf Pixabay / CC0 )

Der Mikroblog-Dienst Twitter ist der kleine Bruder der Blogs, die in dem ersten Jahrzehnt des 21. Jahrhunderts populär wurden. Twitter erlaubt es seinen Nutzern seit 2006, kurze Nachrichten von maximal 140 Zeichen Länge zu verbreiten. Wer einem User folgt, kann dessen Nachrichten mitlesen und damit an seinem Leben teilhaben. Zudem ist möglich, diese Kurznachrichten auch mit Bildern zu verknüpfen.

Die meisten Twitter-Nachrichten haben mit Banalitäten zu tun. Manchmal aber verändern sie auch die Welt, wie sich am 15. Januar 2009 zeigte. Wenige Tage vor der Amtseinführung von US-Präsident Barack Obama musste ein Airbus A320 der Fluggesellschaft US Airways im Hudson River notwassern.

Bildergalerie
Bildergalerie mit 14 Bildern

Glücklicherweise führte Flugkapitän Chesley Sullenberger das Manöver so präzise aus, dass das Flugzeug beim Aufschlag auf das Wasser nicht auseinanderbrach. Zudem war das Wasser des Hudson River an diesem Wintertag recht ruhig, so dass das gewasserte Flugzeug nicht umkippte.

Daher konnten alle Insassen des Fluges gerettet werden. Die New Yorker, die an diesem Tag unterwegs waren, verbreiteten die Nachricht über die Twitter-Clients ihrer Smartphones, so dass die Twitter-User über die Sensation bereits informiert waren, bevor die Nachrichtensender darüber berichten konnten.

Da sich Twitter-Nachrichten über einen Schneeballeffekt fortpflanzen – ein User schreibt die Nachricht, die seine Follower (also Mitleser) dann wiederum als Retweet an ihre Mitleser weiterreichen können und so weiter – kann so eine Meldung innerhalb kürzester Zeit Millionen von Menschen erreichen. Dieser Mechanismus trägt dazu bei, dass in sozialen Medien Nachrichten ein großes Publikum ansprechen – und zwar ganz ohne Mithilfe der großen Nachrichtenmedien. Ein Nachteil ist jedoch, dass sich über Twitter oder Facebook auch ungeprüfte Gerüchte sehr schnell verbreiten können und wichtige Details einer Meldung sehr oft auf der Strecke bleiben.

Seither sind weitere Social-Media-Plattformen entstanden, von denen viele schnell nur noch ein Schattendasein führten, andere - wie Pinterest oder Instagram - sich bereits ebenfalls als fester Bestandteil des modernen Internets etabliert haben. Zwar wurden bestimmte andere Plattformen immer wieder totgesagt - vor allem dem Kurznachrichtendienst Twitter wird immer wieder von neuem ein baldiges Ende herbeigeredet. Unbestrittener Spitzenreiter der sozialen Medien ist und bleibt derzeit allerdings weiterhin Facebook. Auch wenn Konkurrenz durch andere Dienste, Vorwürfe zwecks laxem Umgang mit dem Thema Datenschutz und erst zuletzt eine Anhörung von Facebook-CEO Mark Zuckerberg vor dem US-Kongress die Plattform in letzter Zeit massiv unter Kritik gebracht haben, scheint ein Ende ihrer Dominanz noch lange nicht absehbar.

Das Darknet – die (weitgehend) anonyme Parallelwelt

Für die einen bietet es Freiheit vor Zensur - für die anderen ist es ein Tummelplatz für Hacker und Markt für illegale Waren: Das Darknet hat in den vergangenen Jahren eher zweifelhaften Ruf erlangt.
Für die einen bietet es Freiheit vor Zensur - für die anderen ist es ein Tummelplatz für Hacker und Markt für illegale Waren: Das Darknet hat in den vergangenen Jahren eher zweifelhaften Ruf erlangt.
(Bild: gemeinfrei / CC0 )

In den vergangenen Jahren hat ein anderer Teilaspekt des Internets einen – zunehmend zweifelhaften – Ruf erlangt: Das sogenannte Darknet, teilweise auch Darkweb genannt, ist nur mit speziellen Browsern zugänglich. Während es sich ähnlich wie das World Wide Web auf serverbasierte Webseiten stützt und eine Form von Hyperlinks einsetzt, liegt hier der Schwerpunkt auf der Anonymität der Nutzer: Die Idee ist, dass der Standort des jeweiligen Nutzers oder der Seite nicht mit einer eindeutigen IP ermittelt werden kann.

„Zunächst einmal bezeichnet der Begriff Darknet lediglich einen Teil des Internets, bei dem die Identität der Teilnehmer im Dunkeln bleibt und dessen Inhalte die meisten Suchmaschinen nicht kennen“, sagt Dr. Roland Bless vom Karlsruher Institut für Technologie.

Bildergalerie
Bildergalerie mit 14 Bildern

Dieser Bereich werde auch keineswegs ausschließlich für illegale Machenschaften genutzt, so der Internet-Experte. Das Darknet sei per se weder gut noch böse, es verspreche den Nutzern im Wesentlichen eines: Anonymität.

Das Darknet besteht aus Web-Servern, die über anonymisierende Netze wie Tor erreichbar sind. Gewöhnliche Webbrowser wie Firefox, Safari oder Google Chrome können darauf gar nicht erst zugreifen. So wird verhindert, dass Dritte Informationen über den Standort beziehungsweise die Identität des Nutzers und seine Surfgewohnheiten abgreifen.

„Das Tor-Netz bildet als sogenanntes Overlay-Netz ein eigenes logisches Netz oberhalb der normalen Internetinfrastruktur und verschleiert durch die Verkettung von mehreren Tor-Servern (auch Tor-Knoten genannt) von welchem Rechner oder Smartphone aus auf welche Inhalte zugegriffen wird, ebenso wie den Server- Standort.

Dazu werden die Informationen entsprechend verschlüsselt, so dass ein Abhören der Kommunikation im Netz keine Rückschlüsse auf Absender oder Empfänger zulassen“, erklärt Bless. Betrieben werde das Tor-Netz von Freiwilligen, welche die nötige Infrastruktur bereitstellen.

Interesse daran, sich anonym im Netz zu bewegen, haben keineswegs nur Kriminelle, sondern neben gewöhnlichen Nutzern, die Wert auf Datensparsamkeit legen, insbesondere Journalisten, Whistleblower oder auch Menschen, die in Ländern mit repressiven Regierungen leben. In der Türkei etwa nimmt sich die Regierung das Recht heraus, Webseiten zu sperren, wenn die „nationale Sicherheit“ bedroht ist.

Unlängst hat es nach Sperrungen bei Twitter, Facebook, Youtube, WhatsApp oder Skype sogar die Internet-Enzyklopädie Wikipedia getroffen. Das Darknet bietet Nutzern dann die Möglichkeit, trotzdem auf die Seiten zuzugreifen.

„Die Nutzer tauschen sich durch die Anonymität ungezwungener aus, insofern wird die Meinungsfreiheit dort geschätzt und Themen diskutiert, die für das normale Web zu risikoreich sind“, sagt der Informatiker, der am KIT regelmäßig Vorlesungen zu Themen wie „Next Generation Internet“, „Netzsicherheit“ und „Multimediakommunikation“ hält.

Einen hundertprozentigen Schutz biete aber auch das Darknet weder Dissidenten noch Gangstern: Denn die ersten beziehungsweise letzten Tor-Server der Kette haben Kenntnis über zumindest einen der Teilnehmer. „Staatliche Stellen können daher versuchen, Tor-Knoten zu unterwandern oder zu kontrollieren“, sagt Bless.

Tor-Knoten werden daher regelmäßig nach ihrer Vertrauenswürdigkeit beurteilt und verdächtige Knoten aus dem Netz ausgeschlossen. Andererseits werde es durch die Anonymisierung auch schwerer, festzustellen, welche Informationen, Angebote oder Dienste vertrauenswürdig sind, da die Identität der Teilnehmer „im Dunkeln“ bleibt.

„Natürlich gibt es auch kriminelle Plattformbetreiber, die versuchen, Kunden zu prellen und dann beispielsweise Waren, die schon bezahlt sind, nicht liefern.“ Ähnlich wie bei normalen Handelsplattformen im Internet, hülfen aber Reputationslisten und Wiki-Seiten um betrügerische Angebote zu entlarven.

Update 1: Das Kapitel über die erste Website der Welt steuerte Harry Jacob von der Zeitschrift IT-BUSINESS bei.

Update 2: Der ursprüngliche Beitrag "20 Jahre WWW" von Elektronikpraxis-Redakteur Franz Graser aus dem Jahr 2013 wurde aufgrund des aktuellen Jubiläums aktualisiert und neu veröffentlicht.

Update 3:Das Kapitel zum Darknet stammt von unserem Redakteur Benjamin Kirchbeck.

(Titelbild: Cern)

(ID:39373980)