WiWo App 1 Monat für nur 0,99 €
Anzeigen

Kommunikation Tsunami im Netz: Über die Zukunft des Internet

Seite 2/2

Stau durch Videos

Bis heute profitiert das Internet vom Glasfaserfieber vor genau zehn Jahren. Damals, mitten im Internet-Hype, begannen Newcomer wie Worldcom und Global Crossing im großen Stil Glasfaserleitungen zu verbuddeln. In wenigen Monaten entstanden gigantische Überkapazitäten, dass die Preise tief in den Keller rutschten. Wertberichtigungen sorgten für Milliardenverluste in Bilanzen, Anbieter wie Global Crossing mussten sogar Konkurs anmelden. Nahezu kostenlos können sich seitdem Web-Riesen wie Google, Ebay und Amazon auf den abgeschriebenen Infrastrukturen austoben und als Plattform für ihren Siegeszug im Internet nutzen.

Doch der Temporausch wird so nicht weitergehen. Der Preiskampf sorgt dafür, dass die Netzbetreiber deutlich vorsichtiger agieren. Intensiv denken große Konzerne wie die Deutsche Telekom bereits darüber nach, zusätzliche Milliarden nur dann in moderne Internet-Infrastruktur zu investieren, wenn sie eine Dreiklassengesellschaft mit unterschiedlichen Qualitäten und Geschwindigkeiten im Internet durchsetzen können. „Es wird Autobahnen, Bundesstraßen und Landstraßen im Internet geben“, heißt es bei der Deutschen Telekom. Soll heißen: Wer künftig schnell im Internet vorankommen will, muss bald höhere Mautgebühren zahlen.

Doch das reicht nach Ansicht von Experten noch nicht aus. „Viele denken, dass die großen Netzbetreiber das Problem schon in den Griff bekommen werden“, sagt Paul Sagan, Vorstandschef beim amerikanischen Web-Dienstleister Akamai. Doch so leicht ist das nicht: Die Telekommunikationskonzerne kontrollieren nicht die Internet-Infrastruktur. „Auf den Fern- und Interkontinentalstrecken kommt kein einziger Netzbetreiber auf einen Marktanteil von über zehn Prozent“, sagt Sagan. „Die meisten der rund 15.000 Netzanbieter schaffen nicht mal ein Prozent.“ Eine schnelle Lösung sei deshalb nicht in Sicht.

Für Akamai ist das ein Grund, die Abhängigkeit vom Internet zu reduzieren und die Rechnerfarmen zunehmend in die Peripherie des Internets zu verlagern. Besonders zeitkritische Datenpakete, wie etwa Videos, müssen dann nicht mehr die langen Wege durch das gesamte Internet zurücklegen und kommen dadurch mit viel besserer Performance von einem beim örtlichen Internet-Anbieter untergebrachten Rechner beim Kunden an. Ein speziell entwickeltes Steuerungsprogramm sorgt dafür, dass die Dateien genau in den 28.000 Rechnern in aller Welt vorgehalten werden, wo die Nachfrage am größten ist. Ein Kontrollzentrum wacht darüber, dass die Kunden von Engpässen verschont bleiben.

Fast alle Bestandteile des Internets sind von solchen Engpässen betroffen:

Engpass Vermittlungsrechner. In seinem Labor stellt Erich Zielinski schon Geschwindigkeitsrekorde auf. 107 Gigabit hat der Chefentwickler von Alcatel-Lucent und Leiter der Bell Labs in Deutschland durch eine einzelne Glasfaser gejagt – und damit die Hoffnung genährt, dass die Datenpakete im Internet künftig schneller abtransportiert werden.

Zielinski steht an der Spitze eines der ehrgeizigsten Forschungsvorhaben in Europa. 200 Millionen Euro investieren die Deutsche Telekom und die vier größten europäischen Netzausrüster Alcatel-Lucent, Nokia Siemens Networks, Ericsson und Adva Optical Networking in das Projekt mit dem Kürzel „100GET“. Wichtigstes » Ziel: die erwarteten Engpässe im Internet überwinden und die Spitzengeschwindigkeit auf 100 Gigabit pro Sekunde steigern. Das Projekt ist „zeitkritisch“, heißt es in einem gemeinsam verabschiedeten Positionspapier. In fünf Jahren wollen die beteiligten Unternehmen den ersten Vermittlungsrechner vorstellen, der solch riesige Datenpakete verdaut. „Die große Herausforderung ist, 100 Gigabit pro Sekunde ohne Störung über mehr als 100 Kilometer über eine Glasfaser zu schicken“, erklärt Zielinski.

Der Vorstoß dient noch einem anderen Zweck: Er soll auch die Dominanz der Amerikaner im Internet brechen. Unternehmen wie Cisco, JDS Uniphase, Agility Communications und Calient Networks kontrollieren heute den Markt für lokale unternehmenseigene Netze, kurz LAN genannt, und drängen mit dieser Technik jetzt auch ins weltweite Internet.

Unter der Federführung des US-Verteidigungsministerium gründeten die vier Unternehmen dazu vor vier Jahren die Forschungsinitiative Lasor, die Internet-Router mit Spitzengeschwindigkeiten von 100 Terabit pro Sekunde entwickeln soll. Auch das National Coordination Office for Networking and Information Technology Research and Development (NCO/NITRD), eine zentrale Koordinierungsstelle im Weißen Haus, hat Netze mit hohen Übertragungsraten ganz oben auf die Agenda gesetzt. Mit einem Budget von rund 400 Millionen Dollar ist dies einer der am stärksten geförderten Bereiche in der Informationstechnologie.

Es geht um die Vorherrschaft im Internet. Und die Dominanz der Amerikaner wollen die europäischen Netzausrüster nicht einfach hinnehmen. Die bislang eher in der traditionellen leitungsgebundenen Vermittlungstechnik starken Unternehmen sehen gute Wachstumschancen. Mittelfristig streben die am 100GET-Projekt beteiligten Unternehmen Aufträge mit einem Marktvolumen von 500 Millionen Euro pro Jahr an. „Die 100-Gigabit-Technik wird die Wettbewerbsfähigkeit der europäischen Industrie verbessern“, hoffen die Initiatoren.

Erich Zielinski (Alcatel-Lucent) Quelle: Robertino Nikolic für WirtschaftsWoche

Bis dahin ist es allerdings noch ein weiter Weg. Denn die Telekomkonzerne brauchen nicht nur Geschwindigkeitsrekorde, sie haben auch deutlich höhere Anforderungen an die Ausfallsicherheit als die Betreiber von Computernetzen in den Unternehmen. „Die Software muss im laufenden Betrieb ausgetauscht werden können“, sagt T-Home-Technik-Chef Fuß. Unternehmen können ihr internes Netz, meist in der Nacht, auch mal für eine Stunde ausschalten, um neue Programme einzuspielen. Diese Möglichkeit gibt es in den Telekomnetzen nicht.

Engpass Internet-Knoten. Frank Orlowski gehört zu den wenigen Managern, die fast jeden Tag einen neuen Rekord aufstellen. Am frühen Abend, meist gegen 19 oder 20 Uhr, beginnt die Rushhour im Internet – und dann wirft der Direktor Unternehmensentwicklung beim Frankfurter Internet-Knoten DE-CIX gern noch einen Blick auf die Homepage und die im Fünf-Minuten-Rhythmus aktualisierte Verkehrsstatistik. Auf 404,4 Gigabit pro Sekunde schnellte die Kurve am vergangenen Dienstag hoch und bestätigte damit den Trend der vergangenen Monate. Binnen eines Jahres hat sich der Verkehr mehr als verdreifacht – im Februar 2007 lag der Tageshöchstwert noch bei 120 Gigabit pro Sekunde.

Das DE-CIX ist das am schnellsten wachsende Autobahnkreuz im Internet. 219 Web-Anbieter aus aller Welt haben in den fünf, im Frankfurter Stadtgebiet verteilten Rechenzentren ihre Server aufgestellt und tauschen Datenpakete aus. Erst im vergangenen Jahr konnte Frankfurt den Londoner Internet-Knoten von Platz zwei verdrängen. Nur Amsterdam liegt jetzt noch knapp vor Frankfurt. Doch bereits in diesem Jahr könnte das DE-CIX die Holländer überholen.

Die Frankfurter expandieren im Ausland. Ein stetig wachsender Teil des Internet-Verkehrs in Osteuropa und dem Nahen Osten läuft über den Frankfurter Knoten nach Westeuropa und in die USA. Andere Internet-Knoten stoßen schon an ihre Grenzen. Im Londoner Internet Exchange (Linx) ist die Stellfläche für Rechner weitgehend ausgebucht. Hinzu kommen Energieprobleme: Die Rechner fressen mehr Strom als der Versorger liefern kann.

Die Energiezufuhr bereitet den Betreibern der Internet-Knoten immer größere Probleme. In den Rechnerfarmen der Hauptknotenpunkte des Internets beobachtet Professor Gerhard Fettweis von der Technischen Universität Dresden einen Anstieg des Stromverbrauchs von 16 bis 20 Prozent – pro Jahr. „Mittlerweile verbrauchen die Serverfarmen rund 180 Milliarden Kilowatt pro Jahr“, sagt Fettweis. „Das sind ein Prozent des weltweiten Strombedarfs.“ Addiert man den Stromverbrauch der Mobilfunk-, Festnetz- und Internet-Infrstruktur hinzu, wächst der Anteil am Weltstromverbrauch sogar auf drei Prozent.

Für die Anbieter sind das alarmierende Zahlen. Wächst das Internet weiter so wie bisher, frisst allein das Web rechnerisch in 23 Jahren so viel Strom wie heute die gesamte Welt verbraucht. „Um den informationstechnischen Standard der Industrieländer auf die ganze Welt auszudehnen, wären bereits 40 Prozent der weltweiten Kraftwerksleistung notwendig“, sagt Fettweis. „In weniger als zehn Jahren würde die gesamte existierende Kraftwerksleistung für den Betrieb des Internets nicht mehr ausreichen.“

Engpass Glasfaser. Einige Jahre saß Georges Krebs auf dem Trockenen. Nur wenige Aufträge gingen beim Einsatzleiter für die Kabelschiff-Flotte des Netzausrüsters Alcatel-Lucent ein. Insbesondere nach dem Platzen der Internet-Blase im Jahr 2000 stoppten fast alle Netzbetreiber die Verlegung weiterer Unterseekabel. Denn die Überkapazitäten waren damals so groß, dass kein Bedarf für zusätzliche Interkontinental-Verbindungen erkennbar war.

Doch jetzt zieht das Geschäft wieder an. Insbesondere im Indischen Ozean und im Pazifik, den künftigen Rennstrecken im Internet, rollt Krebs derzeit neue Unterseekabel aus. Um über eigene Netzkapazitäten verfügen zu können, baut jetzt sogar der Web-Riese Google die erste eigene Infrastruktur auf und beteiligt sich am ehrgeizigen Pazifik-Projekt Unity. 300 Millionen Euro will Google zusammen mit vier weiteren Investoren aus Indien, Japan, Singapur und Malaysia investieren, um die Bandbreite zwischen den USA und Japan auf 7,68 Terabit pro Sekunde zu erhöhen.

Wie wichtig solche Unterseekabel sind, zeigte sich jüngst im Nahen Osten. Als Ende Januar zwei Unterseekabel vor der ägyptischen Hafenstadt Alexandria von einem Schiffsanker gekappt wurden, fiel das Internet nicht nur in Ägypten aus. Daten stauten sich in der gesamten Golfregion bis nach Indien. Fast eine Woche benötigten Techniker, um die Verbindung wieder zu flicken. Auch in Asien hängt das Internet an wenigen dicken Glasfasersträngen, die bei einer Beschädigung einzelner Kabel – wie bei dem Erdbeben in Taiwan vor anderthalb Jahren – schnell volllaufen und die Datenpakete dann deutlich langsamer transportieren.

Die Wartung der Netze und der Ausbau der Kapazitäten wird in den kommenden Jahren viel Geld verschlingen. Der eine oder andere Telekomkonzern, der sich heute noch auf eigene Infrastrukturen und Internet-Kapazitäten in aller Welt stützt, dürfte darüber ins Grübeln kommen. Marktbeobachter wie Level-3-Manager Nickl erwarten, dass sich viele Betreiber in den nächsten Jahren aus Kostengründen aus dem Infrastrukturgeschäft zurückziehen. „Damit das Internet weiter wachsen kann, müssen Mega-Netzbetreiber entstehen“, glaubt Nickl. „Und um die Kosten niedrig zu halten, müssen die Betreiber die gesamte Infrastruktur kontrollieren.“

Neue Technologien ließen sich dann schneller installieren. Und die Gefahr, dass das Internet wegen Kapazitätsengpässen kollabiert, wäre wohl gebannt.

Inhalt
Artikel auf einer Seite lesen
Zur Startseite
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%