WiWo App 1 Monat für nur 0,99 €
Anzeigen

Kommunikation Tsunami im Netz: Über die Zukunft des Internet

Das Internet wird zum Opfer seines Erfolgs: Telefonate und Videos, TV-Übertragungen und Software-Downloads belasten das Kommunikationsnetz. Ist das Web noch zu retten?

  • Artikel teilen per:
  • Artikel teilen per:
Uwe Nickl (Level 3) Quelle: J. P. Masclet für WirtschaftsWoche

Uwe Nickl gehört zu den Managern, die fast jeden Winkel im Internet kennen. Täglich taucht der Zentral- und Osteuropa-Chef des US-amerikanischen Glasfasernetzbetreibers Level 3 tief ins Web ein, inspiziert Internet-Knoten, Vermittlungsrechner und Leitungen. Was er sieht, gefällt ihm: Mit Lichtgeschwindigkeit schießen die Bits und Bytes durch das 120.000 Kilometer lange Level-3-Netz, das die größten Städte der USA und Europas verbindet.

Dennoch macht sich Nickl Sorgen. Denn die Datenmengen, die über das Netz geschickt werden, wachsen in atemberaubendem Maße. Der Grund: Das einst als Transportweg dröger Datenpakete konzipierte Internet wandelt sich rasant zur Multimedia-Rennbahn. Breitband-Angebote wie Live-Fernsehen oder die Video-Streams von YouTube oder Joost laufen klassischen Internet-Diensten wie E-Mail zunehmend den Rang ab.

Schon drohen erste Staus auf der Datenautobahn. „Der Datenverkehr verdoppelt sich jedes Jahr“, melden die Verkehrsstatistiken. Wenn die Netzbetreiber nicht bald in zusätzliche Kapazitäten investieren, prophezeit der US-Marktforscher Nemertes, gibt es ab 2010 die ersten Engpässe.

Das Internet droht Opfer seines eigenen Erfolgs zu werden. Vorbei sind die Zeiten, als sich ein paar PC-Freaks mal kurz ins Internet einwählten, um E-Mails zu versenden oder im World Wide Web zu surfen. Nur wenige Bits schickten sie dabei auf die Leitung. Die neue Generation der Internet-Nutzer ist den ganzen Tag online, lädt über die schnellen und billigen DSL- oder Kabelanschlüsse Musik, Spiele, Videos und Fernsehen – und verbraucht am Tag so viele Megabits wie früher im ganzen Jahr.

Das ist nur der Anfang: Die Datenflut wird zum Tsunami, weil das Web in den nächsten Jahren die Schwellen- und Entwicklungsländer erobert. Statt der heute eine Milliarde sind dann fünf Milliarden Menschen online – und es droht der große Datenstau.

Die europäischen Netzlieferanten Alcatel-Lucent, Nokia Siemens Networks und Ericsson, die gemeinsam nach schnelleren Übertragungstechniken suchen, schlagen Alarm: Bis zum Jahr 2015 wächst das Internet um den Faktor 100. „Die heute benötigte Netzkapazität beträgt nur ein Prozent der Kapazität, die wir im Jahr 2015 brauchen“, heißt in einem internen Positionspapier. Experten wie der amerikanische Internet-Pionier Lawrence Roberts befürchten schon, dass der Ansturm zum Kollaps führen könnte. „Wenn die Vermittlungsrechner an ihre Kapazitätsgrenzen stoßen, werden die übertragenen Datenpakete beschädigt“, warnt Roberts, der heute Vorstand beim kalifornischen Routing-Spezialisten Anagran ist.

Fest steht: 40 Jahre nach seiner Erfindung steht das Internet vor seiner größten Belastungsprobe. Im großen Stil müssten die Netzbetreiber in neue Infrastrukturen investieren. Für Milliardenprojekte reicht aber die Kapitalausstattung der meisten Betreiber nicht. Viel preiswerter wäre, 100 und mehr Gigabytes mithilfe stärkerer Vermittlungsrechner durch die Glasfaser zu schießen. Nur: die dafür erforderliche Technik braucht noch Jahre, bis sie serienreif ist.

Dabei sind die Telekomkonzerne mehr denn je darauf angewiesen, dass das von Intel-Mitbegründer Gordon Moore aufgestellte Gesetz („Moore’sches Gesetz“) auch im Internet gilt: Der technische Fortschritt sorge dafür, dass es alle zwei Jahre die doppelte Leistung zum gleichen Preis gibt. Jetzt aber bringt die Datenflut das Moore’sche Gesetz zu Fall. „Die Kosten für das gesamte Internet werden sich alle drei Jahre verdoppeln, wenn keine grundlegende technologische Innovation zur Kostenreduzierung eingeführt wird“, befürchtet Level-3-Manager Nickl.

Denn der Verkehr steigt ungebremst stark an. Alleine im Frankfurter Internet-Knoten, dem nach Amsterdam zweitgrößten Internet-Autobahnkreuz der Welt, verdreifachte sich der Datenverkehr in den vergangenen zwölf Monaten. Statt 120 Gigabyte strömen jetzt 400 Gigabyte pro Sekunde durch die fünf im Stadtgebiet verteilten Rechenzentren. Die Maximallast liegt derzeit bei knapp 1200 Gigabyte.

Auch die Deutsche Telekom meldet einen Übertragungsrekord nach dem anderen. Im vergangenen Jahr explodierte das transportierte Datenvolumen in ihren Netzen auf 1,2 Millionen Terabyte. „Wenn wir alle Daten auf CDs brennen und wie im Bücherregal nebeneinanderstellen würden, ergäbe das eine Strecke von 3300 Kilometern“, erklärt Friedrich Fuß, Bereichsvorstand Technik bei der Telekom-Festnetzsparte T-Home. „Das ist die Entfernung zwischen Kopenhagen und Neapel.“ Setze sich das Wachstum fort, würden bereits in sieben Jahren „die aneinandergestellten CDs den Erdball umrunden“, prophezeit Fuß. Einigen Internet-Betreibern wird bei solchen Größenordnungen schummrig. Denn das Internet läuft derzeit von allen Seiten voll:

Ansturm auf das Internet

Mehr Breitbandanschlüsse. Anstelle von Analog- oder ISDN-Anschlüssen mit maximal 64 Kilobit Übertragungsgeschwindigkeit pro Sekunde wechseln immer mehr Haushalte zu superschnellen DSL- oder Kabelanschlüssen mit Übertragungsgeschwindigkeiten von zwei Megabit pro Sekunde und mehr. 220 Millionen Haushalte in den Industrieländern nutzen bereits solch einen Breitbandanschluss. Schon 2012, so die aktuellen Planungen, werden die Festnetzbetreiber fast alle der derzeit weltweit rund 1,2 Milliarden traditionellen Telefon- in Breitbandanschlüsse umgewandelt haben. Die meisten Haushalte werden dann Telefon, Internet und Fernsehen über einen einzigen superschnellen DSL- oder Kabelanschluss beziehen.

Mehr Internet-Handys. Das mobile Internet entwächst den Kinderschuhen. Mobilfunkbetreiber beschleunigen den Ausbau moderner UMTS-Netze, damit auch Laptops, Smartphones und Mobiltelefone einen schnellen Internet-Zugang bekommen. Im Jahr 2015, prophezeit der Vorstandschef von Nokia Siemens Networks, Simon Beresford-Wylie, werden fünf Milliarden Menschen einen Internet-Anschluss haben (siehe WirtschaftsWoche 6/2008). Der größte Zuwachs kommt aus Entwicklungsländern, die ausschließlich via Funk und Handy surfen, da es dort weder PC noch Festnetz gibt.

Mehr Communities. Die Megabit-Anschlüsse verändern die Nutzungsgewohnheiten. Die Kunden beschränken sich nicht mehr auf weniger zeitkritische Dienste wie den Versand von E-Mails (Transportvolumen: wenige Kilobit) oder das Surfen nach Informationen. Das Web ermöglicht auch Live-Fernsehen, den Austausch von Videos und Musik, ausgiebige Spiele-Sessions und dient als Speicher für Software aller Art, die bis zu zehn Megabit und mehr pro Sekunde verschlingen können und keinen Zeitverzug beim Transport dulden. Immer mehr Inhalte produzieren die Nutzer heute selber und stellen sie sofort ins Netz. Allein YouTube ist mit seinen Online-Videos schon für über zehn Prozent des gesamten Internet-Verkehrs verantwortlich.

Mehr Flatrates. Vorbei sind die Zeiten, als sich Internet-Nutzer für eine Stunde vor den PC setzten. Heute sorgen Pauschaltarife (Flatrates) dafür, dass Computer nicht mehr ausgeschaltet werden, sondern den ganzen Tag online sind. Datenpakete werden sofort hin- und hergeschickt und nicht erst, wenn der PC das nächste Mal hochgefahren wird.

Parallel vollzieht sich ein grundlegender technologischer Wandel in der weltumspannenden Kommunikationstechnik: Denn bis 2015 wechselt auch noch der gesamte Telefonverkehr ins Internet. Die großen Telekomkonzerne in den Industrie-ländern wollen ihre alten, leitungsgebundenen Telefonnetze abschalten und den gesamten Telefon- und Datenverkehr einheitlich über das Internet leiten. Das heutige Web, das weltweit aus mehr als 15.000 verschiedenen Teilnetzen besteht, wird dann zum universellen Mega-Netz für alle Formen der Kommunikation und Information.

Das Mega-Netz, in Fachkreisen Next Generation Network genannt, entwickelt sich damit zum weltumspannenden Nervensystem, dass alle Menschen, Haushalte und Büros miteinander verbindet. Sogar Maschinen werden in Zukunft via Internet aus der Ferne gesteuert. Gigantische Wissens- und Datenbanken entstehen, die ständig neue Informationen empfangen, auswerten, weiterverarbeiten und weitergeben – zum Teil schon ohne jegliche Beteiligung von Menschen. „Die Menschheit schafft sich ein technisches Nervennetz und damit einen gewaltigen Intelligenzverstärker“, schreibt der Ulmer Informatik-Professor Franz Josef Radermacher in seinem Bericht an die Global Marshall Plan Initiative. „Die neuen Informations- und Kommunikationstechniken bringen den ultimativen Beschleunigungsschub.“

Eigentlich bildet das Internet dafür eine gute Grundlage. Ursprünglich wollte das US-Verteidigungsministerium in den Sechzigerjahren ein Computernetz entwickeln, das selbst einen russischen Atomangriff übersteht. Die Forscher entdeckten damals die Paketvermittlung als einzige Möglichkeit, die Kommunikation zwischen den Forschungszentren und den militärischen Einrichtungen aufrechtzuerhalten. Elektronische Dateien werden dabei in einzelne Pakete zerlegt, die – mit Adresse und Absender versehen – auf unterschiedlichen Wegen zu ihren Ziel gelangen. Dort werden sie wieder zusammengesetzt und können gelesen werden. Fällt eine Verbindung im Netzwerk aus, weichen die Pakete automatisch auf eine andere Route aus – vorausgesetzt, dort ist freie Fahrt.

Die Glasfaser verschaffte dem Internet den nächsten Entwicklungssprung. Theoretisch können die Lichtwellenleiter beliebig viele Wellenlängen und damit Farben aufnehmen. Jede Farbe stockt die Kapazität um weitere Gigabit auf. Und wenn das noch nicht reicht, gibt es auf den vielgenutzten Rennstrecken in den USA und Europa genug Leerrohre, um ohne zu Buddeln weitere Glasfaserstränge einzuziehen. Zu den am besten versorgten Metropolen in Deutschland zählt die Frankfurter Innenstadt. 16 verschiedene Infrastrukturbetreiber haben dort eigene Citynetze gebaut. Gerade mal ein Prozent der verfügbaren Kapazität wird dort derzeit genutzt. Doch Frankfurt ist ein Sonderfall – außerhalb der Ballungszentren gibt es hierzulande viel weniger Glasfaser. Die Nutzer müssen sich mit viel geringeren Bandbreiten zufriedengeben. Videobilder kommen hier vielfach nur ruckelnd auf den Monitor.

Stau durch Videos

Bis heute profitiert das Internet vom Glasfaserfieber vor genau zehn Jahren. Damals, mitten im Internet-Hype, begannen Newcomer wie Worldcom und Global Crossing im großen Stil Glasfaserleitungen zu verbuddeln. In wenigen Monaten entstanden gigantische Überkapazitäten, dass die Preise tief in den Keller rutschten. Wertberichtigungen sorgten für Milliardenverluste in Bilanzen, Anbieter wie Global Crossing mussten sogar Konkurs anmelden. Nahezu kostenlos können sich seitdem Web-Riesen wie Google, Ebay und Amazon auf den abgeschriebenen Infrastrukturen austoben und als Plattform für ihren Siegeszug im Internet nutzen.

Doch der Temporausch wird so nicht weitergehen. Der Preiskampf sorgt dafür, dass die Netzbetreiber deutlich vorsichtiger agieren. Intensiv denken große Konzerne wie die Deutsche Telekom bereits darüber nach, zusätzliche Milliarden nur dann in moderne Internet-Infrastruktur zu investieren, wenn sie eine Dreiklassengesellschaft mit unterschiedlichen Qualitäten und Geschwindigkeiten im Internet durchsetzen können. „Es wird Autobahnen, Bundesstraßen und Landstraßen im Internet geben“, heißt es bei der Deutschen Telekom. Soll heißen: Wer künftig schnell im Internet vorankommen will, muss bald höhere Mautgebühren zahlen.

Doch das reicht nach Ansicht von Experten noch nicht aus. „Viele denken, dass die großen Netzbetreiber das Problem schon in den Griff bekommen werden“, sagt Paul Sagan, Vorstandschef beim amerikanischen Web-Dienstleister Akamai. Doch so leicht ist das nicht: Die Telekommunikationskonzerne kontrollieren nicht die Internet-Infrastruktur. „Auf den Fern- und Interkontinentalstrecken kommt kein einziger Netzbetreiber auf einen Marktanteil von über zehn Prozent“, sagt Sagan. „Die meisten der rund 15.000 Netzanbieter schaffen nicht mal ein Prozent.“ Eine schnelle Lösung sei deshalb nicht in Sicht.

Für Akamai ist das ein Grund, die Abhängigkeit vom Internet zu reduzieren und die Rechnerfarmen zunehmend in die Peripherie des Internets zu verlagern. Besonders zeitkritische Datenpakete, wie etwa Videos, müssen dann nicht mehr die langen Wege durch das gesamte Internet zurücklegen und kommen dadurch mit viel besserer Performance von einem beim örtlichen Internet-Anbieter untergebrachten Rechner beim Kunden an. Ein speziell entwickeltes Steuerungsprogramm sorgt dafür, dass die Dateien genau in den 28.000 Rechnern in aller Welt vorgehalten werden, wo die Nachfrage am größten ist. Ein Kontrollzentrum wacht darüber, dass die Kunden von Engpässen verschont bleiben.

Fast alle Bestandteile des Internets sind von solchen Engpässen betroffen:

Engpass Vermittlungsrechner. In seinem Labor stellt Erich Zielinski schon Geschwindigkeitsrekorde auf. 107 Gigabit hat der Chefentwickler von Alcatel-Lucent und Leiter der Bell Labs in Deutschland durch eine einzelne Glasfaser gejagt – und damit die Hoffnung genährt, dass die Datenpakete im Internet künftig schneller abtransportiert werden.

Zielinski steht an der Spitze eines der ehrgeizigsten Forschungsvorhaben in Europa. 200 Millionen Euro investieren die Deutsche Telekom und die vier größten europäischen Netzausrüster Alcatel-Lucent, Nokia Siemens Networks, Ericsson und Adva Optical Networking in das Projekt mit dem Kürzel „100GET“. Wichtigstes » Ziel: die erwarteten Engpässe im Internet überwinden und die Spitzengeschwindigkeit auf 100 Gigabit pro Sekunde steigern. Das Projekt ist „zeitkritisch“, heißt es in einem gemeinsam verabschiedeten Positionspapier. In fünf Jahren wollen die beteiligten Unternehmen den ersten Vermittlungsrechner vorstellen, der solch riesige Datenpakete verdaut. „Die große Herausforderung ist, 100 Gigabit pro Sekunde ohne Störung über mehr als 100 Kilometer über eine Glasfaser zu schicken“, erklärt Zielinski.

Der Vorstoß dient noch einem anderen Zweck: Er soll auch die Dominanz der Amerikaner im Internet brechen. Unternehmen wie Cisco, JDS Uniphase, Agility Communications und Calient Networks kontrollieren heute den Markt für lokale unternehmenseigene Netze, kurz LAN genannt, und drängen mit dieser Technik jetzt auch ins weltweite Internet.

Unter der Federführung des US-Verteidigungsministerium gründeten die vier Unternehmen dazu vor vier Jahren die Forschungsinitiative Lasor, die Internet-Router mit Spitzengeschwindigkeiten von 100 Terabit pro Sekunde entwickeln soll. Auch das National Coordination Office for Networking and Information Technology Research and Development (NCO/NITRD), eine zentrale Koordinierungsstelle im Weißen Haus, hat Netze mit hohen Übertragungsraten ganz oben auf die Agenda gesetzt. Mit einem Budget von rund 400 Millionen Dollar ist dies einer der am stärksten geförderten Bereiche in der Informationstechnologie.

Es geht um die Vorherrschaft im Internet. Und die Dominanz der Amerikaner wollen die europäischen Netzausrüster nicht einfach hinnehmen. Die bislang eher in der traditionellen leitungsgebundenen Vermittlungstechnik starken Unternehmen sehen gute Wachstumschancen. Mittelfristig streben die am 100GET-Projekt beteiligten Unternehmen Aufträge mit einem Marktvolumen von 500 Millionen Euro pro Jahr an. „Die 100-Gigabit-Technik wird die Wettbewerbsfähigkeit der europäischen Industrie verbessern“, hoffen die Initiatoren.

Erich Zielinski (Alcatel-Lucent) Quelle: Robertino Nikolic für WirtschaftsWoche

Bis dahin ist es allerdings noch ein weiter Weg. Denn die Telekomkonzerne brauchen nicht nur Geschwindigkeitsrekorde, sie haben auch deutlich höhere Anforderungen an die Ausfallsicherheit als die Betreiber von Computernetzen in den Unternehmen. „Die Software muss im laufenden Betrieb ausgetauscht werden können“, sagt T-Home-Technik-Chef Fuß. Unternehmen können ihr internes Netz, meist in der Nacht, auch mal für eine Stunde ausschalten, um neue Programme einzuspielen. Diese Möglichkeit gibt es in den Telekomnetzen nicht.

Engpass Internet-Knoten. Frank Orlowski gehört zu den wenigen Managern, die fast jeden Tag einen neuen Rekord aufstellen. Am frühen Abend, meist gegen 19 oder 20 Uhr, beginnt die Rushhour im Internet – und dann wirft der Direktor Unternehmensentwicklung beim Frankfurter Internet-Knoten DE-CIX gern noch einen Blick auf die Homepage und die im Fünf-Minuten-Rhythmus aktualisierte Verkehrsstatistik. Auf 404,4 Gigabit pro Sekunde schnellte die Kurve am vergangenen Dienstag hoch und bestätigte damit den Trend der vergangenen Monate. Binnen eines Jahres hat sich der Verkehr mehr als verdreifacht – im Februar 2007 lag der Tageshöchstwert noch bei 120 Gigabit pro Sekunde.

Das DE-CIX ist das am schnellsten wachsende Autobahnkreuz im Internet. 219 Web-Anbieter aus aller Welt haben in den fünf, im Frankfurter Stadtgebiet verteilten Rechenzentren ihre Server aufgestellt und tauschen Datenpakete aus. Erst im vergangenen Jahr konnte Frankfurt den Londoner Internet-Knoten von Platz zwei verdrängen. Nur Amsterdam liegt jetzt noch knapp vor Frankfurt. Doch bereits in diesem Jahr könnte das DE-CIX die Holländer überholen.

Die Frankfurter expandieren im Ausland. Ein stetig wachsender Teil des Internet-Verkehrs in Osteuropa und dem Nahen Osten läuft über den Frankfurter Knoten nach Westeuropa und in die USA. Andere Internet-Knoten stoßen schon an ihre Grenzen. Im Londoner Internet Exchange (Linx) ist die Stellfläche für Rechner weitgehend ausgebucht. Hinzu kommen Energieprobleme: Die Rechner fressen mehr Strom als der Versorger liefern kann.

Die Energiezufuhr bereitet den Betreibern der Internet-Knoten immer größere Probleme. In den Rechnerfarmen der Hauptknotenpunkte des Internets beobachtet Professor Gerhard Fettweis von der Technischen Universität Dresden einen Anstieg des Stromverbrauchs von 16 bis 20 Prozent – pro Jahr. „Mittlerweile verbrauchen die Serverfarmen rund 180 Milliarden Kilowatt pro Jahr“, sagt Fettweis. „Das sind ein Prozent des weltweiten Strombedarfs.“ Addiert man den Stromverbrauch der Mobilfunk-, Festnetz- und Internet-Infrstruktur hinzu, wächst der Anteil am Weltstromverbrauch sogar auf drei Prozent.

Für die Anbieter sind das alarmierende Zahlen. Wächst das Internet weiter so wie bisher, frisst allein das Web rechnerisch in 23 Jahren so viel Strom wie heute die gesamte Welt verbraucht. „Um den informationstechnischen Standard der Industrieländer auf die ganze Welt auszudehnen, wären bereits 40 Prozent der weltweiten Kraftwerksleistung notwendig“, sagt Fettweis. „In weniger als zehn Jahren würde die gesamte existierende Kraftwerksleistung für den Betrieb des Internets nicht mehr ausreichen.“

Engpass Glasfaser. Einige Jahre saß Georges Krebs auf dem Trockenen. Nur wenige Aufträge gingen beim Einsatzleiter für die Kabelschiff-Flotte des Netzausrüsters Alcatel-Lucent ein. Insbesondere nach dem Platzen der Internet-Blase im Jahr 2000 stoppten fast alle Netzbetreiber die Verlegung weiterer Unterseekabel. Denn die Überkapazitäten waren damals so groß, dass kein Bedarf für zusätzliche Interkontinental-Verbindungen erkennbar war.

Doch jetzt zieht das Geschäft wieder an. Insbesondere im Indischen Ozean und im Pazifik, den künftigen Rennstrecken im Internet, rollt Krebs derzeit neue Unterseekabel aus. Um über eigene Netzkapazitäten verfügen zu können, baut jetzt sogar der Web-Riese Google die erste eigene Infrastruktur auf und beteiligt sich am ehrgeizigen Pazifik-Projekt Unity. 300 Millionen Euro will Google zusammen mit vier weiteren Investoren aus Indien, Japan, Singapur und Malaysia investieren, um die Bandbreite zwischen den USA und Japan auf 7,68 Terabit pro Sekunde zu erhöhen.

Wie wichtig solche Unterseekabel sind, zeigte sich jüngst im Nahen Osten. Als Ende Januar zwei Unterseekabel vor der ägyptischen Hafenstadt Alexandria von einem Schiffsanker gekappt wurden, fiel das Internet nicht nur in Ägypten aus. Daten stauten sich in der gesamten Golfregion bis nach Indien. Fast eine Woche benötigten Techniker, um die Verbindung wieder zu flicken. Auch in Asien hängt das Internet an wenigen dicken Glasfasersträngen, die bei einer Beschädigung einzelner Kabel – wie bei dem Erdbeben in Taiwan vor anderthalb Jahren – schnell volllaufen und die Datenpakete dann deutlich langsamer transportieren.

Die Wartung der Netze und der Ausbau der Kapazitäten wird in den kommenden Jahren viel Geld verschlingen. Der eine oder andere Telekomkonzern, der sich heute noch auf eigene Infrastrukturen und Internet-Kapazitäten in aller Welt stützt, dürfte darüber ins Grübeln kommen. Marktbeobachter wie Level-3-Manager Nickl erwarten, dass sich viele Betreiber in den nächsten Jahren aus Kostengründen aus dem Infrastrukturgeschäft zurückziehen. „Damit das Internet weiter wachsen kann, müssen Mega-Netzbetreiber entstehen“, glaubt Nickl. „Und um die Kosten niedrig zu halten, müssen die Betreiber die gesamte Infrastruktur kontrollieren.“

Neue Technologien ließen sich dann schneller installieren. Und die Gefahr, dass das Internet wegen Kapazitätsengpässen kollabiert, wäre wohl gebannt.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%