WiWo App 1 Monat für nur 0,99 €
Anzeigen

Informationstechnik Neue Computer braucht das Land

Rechenpower plus Kreativität gleich Wohlstand. Die Gleichung galt, solange Bits und Bytes immer schneller rotierten - doch damit ist es längst vorbei. Die IT-Branche muss den Computer neu erfinden.

  • Artikel teilen per:
  • Artikel teilen per:
Gelenkige PCs und schlaue Shirts
Für die Elektronikbranche ist die Computex eine der wichtigsten Messen, gerade die asiatischen Unternehmen zeigen in Taipeh Präsenz. Was hier gezeigt wird, findet sich später nicht selten auch in deutschen Elektronikmärkten – hier Tablets mit ansteckbaren Tastaturen und ein Notebook in den Händen von drei Models. Quelle: dpa
Notebook und Tablet in einem: Das Transformer Book Flip TP500 von Asus hat bewegliche Scharniere, mit denen man den Bildschirm in die gewünschte Position klappen kann. Das Konzept ist nicht neu, Lenovo hat es bei seinen Ideapad Yoga schon vor zwei Jahren eingeführt. Quelle: Presse
Dieses Konzept sieht bekannt aus: Auch Dell hat ein neues Klappmodell im Angebot. Der Inspiron 13 7000 ist mit einem 13,3-Zoll-Bildschirm ein ausgewachsenes Notebook, er lässt sich aber mit einer Rotation zu einem – etwas wuchtigen – Tablet umbauen. Wie beim Asus-Modell ist das für die Gestensteuerung optimierte Betriebssystem Windows 8.1 installiert. Quelle: Presse
Wie wohl der Klang ist? Diese Lautsprecher sind wasserdicht und eignen sich damit auch für einen feuchtfröhlichen Ausflug ins Schwimmbad oder als Accessoire im Badezimmer. Quelle: dpa
Telefon oder Tablet? Beides: Das Fonepad 8 von Asus ist acht Zoll groß, trotzdem kann man damit telefonieren – auch wenn es skurril aussehen könnte, sich das Gerät ans Ohr zu halten. Quelle: Presse
Google Glass? Nein, diese Brille stammt vom Hersteller Sime Smart Glasses. Auch auf diesem Gerät ist aber das Betriebssystem Android installiert. Welches Gerät auch immer Erfolg haben wird: Der Wettbewerb im Bereich der tragbaren Technologien nimmt weiter zu. Quelle: AP
Auch T-Shirts sind heutzutage auf Elektronikmessen zu sehen – zumindest wenn sie Sensoren enthalten wie dieses Textil der taiwanischen Firma AiuX Smart Clothing. Es misst Puls, Körperfett und Muskelaktivität und funkt die Daten per Bluetooth ans Smartphone. Quelle: dpa

Es ist die perfekte Tarnung: Ein unscheinbarer Industriebau, mehrgeschossig, eine Viertelstunde Fahrt von Hongkongs noblen Central Piers gelegen. Tausende davon gibt es in der chinesischen Megacity. Nichts verrät, dass hier die Schatzgräber des 21. Jahrhunderts arbeiten. Inkognito natürlich. Wer den Bau nutzt, verrät Alex Kampl nicht, als er die codegesicherten Türen ins Innere öffnet.

Verständlich. Denn die Kunden des 39-jährigen Österreichers produzieren hier Geld. Der Technikchef bei Allied Control, einem Spezialisten für Hochleistungscomputer, hat ihnen aber keine illegalen Notenpressen gebaut, sondern einen Miner, einen hochgezüchteten Spezialrechner. Der hat nur einen Zweck: mithilfe extrem aufwendiger mathematischer Verfahren die virtuelle Währung Bitcoin zu errechnen, das Gold des digitalen Zeitalters.

Damit die Maschinen bei dem immensen Rechenaufwand nicht durchbrennen, ist Kampl auf eine scheinbar absurde Idee verfallen: Er hat seinen Superrechner Immersion II kurzerhand in riesigen Tanks absaufen lassen. Hunderte Rechnerplatinen bringen dort, teils nur noch einen Millimeter voneinander entfernt, mit ihrer Hitze die Flüssigkeit zum Brodeln, wie Koi-Karpfen einen Teich bei der Fütterung.

Die wichtigsten IT-Trends

Die Rechner geben nur deshalb nicht mit blitzenden Kurzschlüssen den Geist auf, weil in den Tanks kein Wasser kocht, sondern Novec, eine vom Mischkonzern 3M entwickelte Spezialflüssigkeit. Sie fühlt sich an wie Wasser, leitet aber keinen Strom und kühlt so selbst sensible Elektronik optimal. „Wir bringen bei gleichem Platzbedarf mehr als 20 Mal so viel Rechenpower unter“, sagt Kampl. „Höchste Leistung, minimaler Platzbedarf und extrem geringer Stromverbrauch für die Kühlung – das ist der nahezu perfekte Mix.“

Schwimmende Server – das mag verrückt klingen. Doch gerade solch ungewöhnliche Konzepte haben in den Forschungsabteilungen der Computerindustrie und an den Hochschulen aktuell Hochkonjunktur: Biomoleküle als Transistoren, Ionen als Speicher, Neuro-Computer oder Chips aus Kohlenstoff – kaum eine Idee klingt zu abseitig, um sie nicht auf ihre Praktikabilität abzuklopfen. Wirtschaft und Wissenschaft gleichermaßen treibt eine Sorge um: Der Innovationsmotor der Computerwelt könnte ins Stottern geraten. Die Hersteller müssen immer mehr Aufwand treiben, um die Leistung der Rechner spürbar zu steigern.

„Miniaturisierung und höhere Taktraten stoßen als Tempotreiber bei Prozessoren an ihre Grenzen“, sagt Matthias Troyer. Der Physikprofessor erforscht an der Eidgenössischen Technischen Hochschule Zürich (ETHZ) neue Rechnerkonzepte. „Inzwischen sind die Strukturen der Leiterbahnen und Transistoren so klein, dass quantenmechanische Effekte wirksam werden und die Elektronen in den Leiterbahnen immer häufiger machen, was sie wollen“, umreißt er das Dilemma der IT-Entwickler.

Wenn sich aber „Kleiner und schneller“ als Sackgasse erweist, welche Technologien und Rechnerkonzepte können dann die digitale Revolution in fast allen Wirtschaftsbereichen weiter befeuern?

Egal, ob Autobau, Luftfahrt oder Medizin, ob Musikmarkt, Logistik oder Wissensmanagement – in jeder Ecke der Wirtschaft sorgen die Rechenhirne seit gut drei Jahrzehnten für sinkende Produktionskosten durch höhere Produktivität. Was wir seither an Wohlstandsgewinn einstrichen, verdanken wir also auch der konstant wachsenden Leistung des Kollegen Computer.

Das Moore’sche Gesetz gerät ins Wanken

Damit das so bleibt, müsse sich die Computerwelt von der Idee verabschieden, glaubt Martin Schmatz vom IBM-Forschungslabor in Rüschlikon bei Zürich . Es gebe die eine, entscheidende Zukunftstechnologie: „Natürlich bleiben Mikroprozessoren für Jahrzehnte die zentralen Datenpumpen. Aber darum herum wird der Computer neu erfunden“, so der Experte für Server-Technologien. Massiv paralleles und neurosynaptisches Rechnen, Spezialprozessoren oder gar Quantencomputer sollen helfen, den digitalen Fortschritt zu retten.

Wie ernst die Lage ist, lässt sich daran erkennen, dass das berühmte Moore’sche Gesetz ins Wanken gerät. Benannt ist es nach dem Mitgründer des Chipriesen Intel, Gordon Moore. Der hatte Mitte der Sechzigerjahre eine Verdoppelung der Leistungsfähigkeit von Computern grob alle zwei Jahre vorhergesagt – ausgelöst durch die Miniaturisierung der Schaltkreise und steigende Taktraten der Mikrochips.

„Die Prognose hat sich als bemerkenswert zutreffend erwiesen“, sagt der Mathematiker Horst Gietl, Mitorganisator der renommierten International Supercomputing Conference (ISC). „Die Frage ist bloß, ob und wie sich dieser Trend in Zukunft beibehalten lässt.“

Gebremster Leistungszuwachs bei den stärksten Computern der Welt Quelle: www.top500.org

In der aktuellsten, vor zwei Wochen bei der ISC 2014 in Leipzig präsentierten Liste der 500 stärksten Hochleistungscomputer zeichnet sich zumindest eine Formkrise der Elektronenhirne ab. An der Spitze tut sich derzeit gar nichts mehr: Der chinesische Supercomputer Tianhe-2 führt das Feld weiter an – ohne auch nur einen Deut schneller geworden zu sein (siehe Grafik).

Was bedeutet das? Werden Wetterprognosen nicht mehr von Jahr zu Jahr verlässlicher, wie wir es bisher gewohnt waren? Stößt die Simulation von Crashtests neuer Autos im Computer an ihre Grenzen? Lassen sich die Wechselwirkungen von Molekülen bei medizinischen Therapien nicht mehr besser vorausberechnen, weil die Rechenpower stockt?

Noch geben die ITler nicht auf. Sie hoffen ausgerechnet auf die Rechenchips, für die sich bisher nur PC-Daddler und Special-Effects-Designer in Hollywood-Studios interessierten: die Grafikkarten, englisch Graphics Processing Units (GPU) genannt. Sie sorgen für die atemberaubenden Videoeffekte in Computerspielen und Filmen. Das können sie besonders gut, gemessen an herkömmlichen Prozessoren sind sie eher simpel gestrickt.

Wie Unternehmen ihre Daten in Schuss bringen können
1. Data Governance: Klare Regeln sind ChefsacheWerden die gleichen Stammdaten in verschiedenen Unternehmensbereichen, auf unterschiedlichen Hierarchie-Ebenen oder in mehreren Geschäftsprozessen genutzt, ist die Einführung einheitlicher Standards, Regeln und Abläufe unumgänglich. Dafür hat sich der Begriff Data Governance eingebürgert. Die Entwicklung einer einheitlichen Strategie und gemeinsamer Prinzipien ist Chefsache. Sie wird ergänzt durch die Definition von verbindlichen Datenpflegeprozessen und die Festlegung von Kennzahlen. Quelle: http://www.humaninference.de/master-data-management Quelle: Fotolia
2. Data Steward: Einer hat den Hut aufImmer freundlich lächeln und das Essen servieren: Trotz des etwas irreführenden Namens hat der Data Steward ganz andere Aufgaben. Als Verantwortlicher für die Verbesserung der Datenqualität soll er die in der Data Governance festgelegten Prinzipien im gesamten Unternehmen durchsetzen, Metriken entwickeln, die Interessen der einzelnen Fachabteilungen miteinander in Einklang bringen und für die nachhaltige Konsistenz und Genauigkeit der Daten sorgen. Quelle: Fotolia
3. Datenmodell: Struktur erkennenAls zentrales Element steuert das Datenmodell sämtliche Prozesse und Ereignisse im Master Data Management. Denn keine Datenquelle ist wie die Andere, und die wertvollen Daten des Unternehmens finden sich oft über eine ganze Reihe von Datenbanken verteilt. Fusionen, Übernahmen und neue Anforderungen erfordern oft Anpassungen des Datenmodells und der benutzten Datenquellen - dementsprechend flexibel sollte es sein. Quelle: Fotolia
4. Datenreinigung: Frühjahrsputz in der DatenbankDaten falsch einzugeben, ist ganz einfach. Ausgesprochen kompliziert dagegen ist es festzustellen, ob Informationen korrekt, eindeutig und vollständig sind. Um dies zu erreichen, wird der gesamte Bestand mit Hilfe einer Datenqualitätssoftware gesäubert. Das Tool erkennt die Struktur von Adressen, Namen, Telefonnummern oder anderen Kundendaten und prüft sie auf ihre Plausibilität – und das für alle Länder. Buchstabendreher und andere Fehler werden automatisch korrigiert. Quelle: Fotolia
5. Data Matching: Dubletten beseitigenFür die Mitarbeiter im Call Center oder im Vertrieb ist es häufig einfacher, einen Kunden neu in der Datenbank anzulegen, statt zunächst zu kontrollieren, ob diese Person bereits bekannt ist. Dadurch wächst der Anteil an Mehrfacheinträgen in vielen Unternehmen jährlich um 20 Prozent, was fatal für eine einheitliche Sicht auf den Kunden ist. Data Matching stellt den Grad der Übereinstimmung zwischen verschiedenen Datensätzen fest und zeigt Dubletten an, damit sie entfernt werden können. Quelle: Fotolia
6. Zusammenführung: Das "Golden Record"Dabei handelt es sich nicht um eine goldene Schallplatte, sondern um den „einzig wahren“ Stammdatensatz. Er wird zentral verwaltet, dient als verlässliche und aktuelle Informationsquelle und kann an den verschiedensten Stellen im Unternehmen genutzt werden. Die Zusammenführung erfolgt nach unterschiedlichen Kriterien, z.B. der Aktualität oder Priorität für eine bestimmte Quelle. Bei Bedarf findet auch noch eine Anreicherung der Datensätze statt. Beispielsweise um Informationen aus den sogenannten "Robinsonlisten", in denen Verbraucher den Versand von Werbung untersagen. Quelle: Creative Commons-Lizenz
7. First Time Right: Gleich alles richtig machenNachdem die Daten mit Hilfe der Datenqualitätssoftware erfolgreich gesäubert wurden, sollte dieser Zustand möglichst erhalten bleiben. Schon bei der Dateneingabe einer neuen Adresse in eines der operationellen Systeme ist deshalb sicherzustellen, dass alle Elemente eines Datensatzes korrekt sind. Dafür sorgt das "First Time Right"-Prinzip, bei dem eine neue Adresse blitzschnell mit den bereits vorhandenen Daten verglichen und auf Fehler überprüft wird. So gelangen nur saubere und korrekte Daten in das Master Data Management-System. Quelle: Fotolia

Dafür stecken bis zu 2880 Rechenkerne in den besten GPUs. Die können so hochkomplexe Aufgaben, etwa Simulationen, gleichzeitig statt nacheinander abarbeiten – ein enormer Zeitgewinn. „Statt in die Höhe wächst Rechenleistung künftig in die Breite“, sagt Sumit Gupta. Der 40-Jährige leitet die Supercomputing-Sparte des kalifornischen Chipproduzenten Nvidia.

Sein Job markiert den radikalen Umbruch der Computerwelt. Auf einmal verwandelt sich Technik zum Leistungsturbo, die früher nur der Unterhaltung am PC diente. „Ob du Lichteffekte für Computerspiele oder aerodynamische Strömungssimulationen, Rauchausbreitung bei Feuer oder die Entwicklung von Staus berechnen lässt, das ist dem Chip völlig egal“ sag Gupta. Nicht aber dem Anwender, der bei Nvidia inzwischen High Tech für den professionellen Einsatz bekommt – zu einem Bruchteil der Kosten konventioneller Rechner. „Supercomputing wird für ganz neue Zielgruppen bezahlbar“, so Gupta.

Supercomputer für alle

Massiv paralleles Rechnen, davon ist auch ISC-Mitorganisator Gietl überzeugt, „ist der entscheidende Treiber für künftige Leistungssprünge in der IT“. Das sehen offenbar auch die Entwickler von Tianhe-2 so, dem aktuell stärksten Rechner der Welt. Er steht in Chinas National Super Computer Center in Guangzhou und vereint die Rechenleistung von 3,12 Millionen Prozessorkernen. „Das sind gut fünf Mal so viele wie bei Titan, dem aktuell auf Rang zwei gelisteten Superrechner des US-Energieministeriums“, rechnet Gietl vor.

Das enorme Potenzial der Parallelisierung kommt aber nur zum Tragen, wenn auch die Softwarehäuser ihre Programme anpassen. Das ist eine Mammutaufgabe: „Denn Software ist traditionell nicht für parallele Systeme entwickelt“, sagt etwa James Goodnight, Chef des auf Datenanalytik spezialisierten US-Softwareunternehmens SAS. „Wir mussten daher die Algorithmen zur Datenverarbeitung in unserer Software komplett erneuern.“

Bei aller Euphorie fürs parallele Rechnen: Experten warnen, dass auch diese Strategie an ihre Grenzen stoßen könnte. „Längst nicht jede Aufgabe lässt sich in Tausende oder gar Millionen parallele Rechenschritte zerlegen“, warnt IBM-Experte Schmatz. Bei extrem großen Prozessorzahlen könnte der Aufwand fürs Management der vielen parallelen Operationen und für den benötigten Datentransfer den Tempogewinn sogar wieder zunichte machen.

Künftig würden daher nicht nur immer mehr Prozessorkerne in Computern stecken, erwartet Schmatz, sondern auch eine Reihe hoch spezialisierter Zusatzbausteine, die gemeinsam für Leistungssprünge sorgen: „Ob für Ver- oder Entschlüsselung von Daten, die Kompression von Bildern, Musik oder Videos oder deren Wiedergabe, für all das gibt es schon Spezialhardware – und viel mehr wird noch kommen.“

Wie Big Data Ihr Leben verändert
Dicht an dicht: Wenn die Autos auf der Straße stehen, lässt sich das mit moderner Technologie leicht nachvollziehen. Zum einen gibt es Sensoren am Straßenrand, zum anderen liefern die Autos und die Smartphones der Insassen inzwischen Informationen über den Verkehrsfluss. Diese Daten lassen sich in Echtzeit auswerten und mit Erfahrungswerten abgleichen – so wird klar, wo gerade ungewöhnlich viel los ist und beispielsweise eine Umleitung Sinn ergeben würde. Ein Pilotprojekt dazu lief in der Rhein-Main-Region, allerdings nur mit rund 120 Autos. Langfristig ist sogar das vollautomatische Autofahren denkbar – der Computer übernimmt das Steuer. Eines ist aber klar: Alle Big-Data-Technologien helfen nichts, wenn zu viele Autos auf zu kleinen Straßen unterwegs sind. Quelle: dpa
Fundgrube für Forscher: Google Books ist nicht nur eine riesige digitale Bibliothek. Die abertausenden eingescannten Texte lassen sich auch bestens analysieren. So kann nachvollzogen werden, welche Namen und Begriffe in welchen Epochen besonders häufig verwendet wurden – ein Einblick in die Denkweise der Menschen. Der Internet-Konzern nutzt den Fundus außerdem, um seinen Übersetzungsdienst Translate zu verbessern. Quelle: dpa Picture-Alliance
Schnupfen, Kopfschmerz, Müdigkeit: Das sind die typischen Symptome der Grippe. Aber wann erreicht die Krankheit eine Region? Bislang konnte man das erst feststellen, wenn es zu spät war. Der Internet-Riese Google hat ein Werkzeug entwickelt, mit dem sich Grippewellen voraussagen lassen: Flu Trends. Bei der Entwicklung hielten die Datenspezialisten nicht nach bestimmten Suchbegriffen Ausschau, sondern nach Korrelationen. Wonach also suchten die Menschen in einer Region, in der sich das Virus ausbreitete? Sie filterten 45 Begriffe heraus, die auf eine unmittelbar anrollende Grippewelle hindeuten – ohne dass irgendein Arzt Proben sammeln müsste. Quelle: dpa Picture-Alliance
Aufwärts oder abwärts? Die Millionen von Kurznachrichten, die jeden Tag über Twitter in die Welt gezwitschert werden, können Aufschluss über die Entwicklung der Börsen geben. Denn aus den 140 Zeichen kurzen Texten lassen sich Stimmungen ablesen – das hat ein Experiment des renommierten Massachusetts Institute of Technology (MIT) gezeigt. Je intensiver die Emotionen, desto stärker die Ausschläge. Marktreife Investitionsmodelle, die auf Tweets setzen, gibt es indes noch nicht. Quelle: dpa
Lotterie am Himmel: Die Preise von Flugtickets lassen sich für Laien kaum nachvollziehen. Auch eine frühe Buchung garantiert kein günstiges Ticket, weil die Fluggesellschaften ständig an der Schraube drehen. Das wollte sich der Informatiker Oren Etzioni nicht gefallen lassen: Er sammelte mit seiner Firma Farecast Millionen von Preisdaten, um künftige Preisbewegungen zu prognostizieren. 2008 kaufte Microsoft das Start-up, die Funktion ist jetzt in die Suchmaschine Bing integriert. Quelle: dpa Picture-Alliance
Jeder Meter kostet Zeit und Geld. Daher wollen Logistikunternehmen ihre Fahrer auf kürzestem Wege zum Kunden lotsen. Der weltgrößte Lieferdienst UPS führt dafür in einem neuen Navigationssystem Daten von Kunden, Fahrern und Transportern zusammen. „Wir nutzen Big Data, um schlauer zu fahren“, sagte der IT-Chef David Barnes der Nachrichtenagentur Bloomberg. Im Hintergrund läuft ein komplexes mathematisches Modell, das auch die von den Kunden gewünschten Lieferzeiten berücksichtigt. Quelle: dpa Picture-Alliance
Es waren nicht nur gute Wünsche, die US-Präsident Barack Obama 2012 zur Wiederwahl verhalfen: Das Wahlkampf-Team des Demokraten wertete Informationen über die Wähler aus, um gerade Unentschlossene zu überzeugen. Dabei griffen die Helfer auch auf Daten aus Registern und Sozialen Netzwerke zurück. So ließen sich die Bürger gezielt ansprechen. Quelle: dpa

Doch egal, ob Computer linear rechnen oder parallel, vor einem Problem stehen Hard- und Softwareentwickler gleichermaßen: Je schneller die Chips arbeiten, desto eher geht ihnen das Futter aus. „Die Datenübertragung aus dem Speicher in die Prozessoren hat mit dem Zuwachs an Rechenleistung nicht Schritt gehalten“, sagt ISC-Experte Gietl. Auch deshalb setzen die Techniker zunehmend darauf, Daten direkt aus dem Arbeitsspeicher zu laden statt wie in der Vergangenheit von den langsameren Festplatten. Das war angesichts der extrem hohen Speicherkosten lange nicht bezahlbar. Inzwischen aber sind die Preise für das In-Memory-Computing (IMC) drastisch gefallen.

Auch der deutsche Softwareriese SAP investiert massiv in die Technik. Mit seiner Hana-Plattform verkürzt er etwa komplexe Preiskalkulationen, mit denen Fluggesellschaften Ticketpreise ermitteln, von zwölf Stunden auf nur noch eine Sekunde. „Die Technik hilft aber auch in der Medizin, Genomanalysen statt in zwei bis drei Tagen in Minuten abzuarbeiten“, sagt Franz Färber, der als Softwarearchitekt maßgeblich an der Hana-Entwicklung mitgearbeitet hat. „Das hilft insbesondere bei der Suche nach speziell auf die Patienten abgestimmten Krebstherapien.“

Leistungssprünge durch bessere Software

Auch das ist wohl nur ein Zwischenschritt. Denn selbst der Arbeitsspeicher wird den Entwicklern schon wieder zu langsam. „Im Grunde müssen wir die Daten noch näher an die Prozessoren heranbringen“, sagt Färber. „Da ist noch mal ein Leistungssprung bis zum Faktor 100 ziemlich realistisch“, glaubt SAP-Experte Färber. Noch ist der erforderliche Spezialspeicher – der Cache – wieder einmal prohibitiv teuer. Das aber wandelt sich gerade. Vor wenigen Tagen erst hat Mark Seager, Technikchef der Abteilung für Hochleistungscomputer beim US-Chipgiganten Intel in Leipzig, neue Spezialprozessoren mit besonders großem Cache vorgestellt.

Bis zu 16 Gigabyte an Daten sollen sich direkt an der neuen Prozessor-Plattform, Codename Knights Landing, ablegen und entsprechend rasant auswerten lassen, wenn die neuen Systeme im nächsten Jahr auf den Markt kommen.

Spätestens dann müssen auch die Softwareentwickler ihre Programme wieder an die neue Technik anpassen. Und wohl nicht nur deshalb. Denn glaubt man Experten wie dem Zürcher Physiker Matthias Troyer, dann liegt genau hier der eigentliche Schlüssel dafür, dass das Moore’sche Gesetz seine Gültigkeit behält: „Das größte Potenzial für künftige Leistungssprünge steckt in besserer Software“, sagt der Wissenschaftler, der auch das Potenzial sogenannter Quantencomputer erforscht.

Diese Zukunftscomputer sollen nicht mehr mit Einsen und Nullen rechnen, sondern – mithilfe der Quantenmechanik – unter anderem heute noch unlösbare Verschlüsselungsverfahren knacken können. Doch bis es, vorsichtig geschätzt in 20 bis 30 Jahren, so weit ist, gelte es erst einmal, die Software radikal auf Effizienz zu trimmen, fordert Troyer.

In Arbeit
Bitte entschuldigen Sie. Dieses Element gibt es nicht mehr.

Um zu zeigen, was möglich ist, hat er mit seinen Kollegen modernste, optimierte Simulationsprogramme auf 20 Jahre alten Rechnern laufen lassen – und 20 Jahre alte Simulationssoftware auf den schnellsten Rechnern. „Das Ergebnis war eindeutig“, sagt der Zürcher Wissenschaftler, „die neue Software lief auf den alten Rechnern viel schneller als umgekehrt.“

Zumindest theoretisch. Denn tatsächlich haben die großen Softwarekonzerne ihre Computerprogramme über Jahre fast durchweg mit immer neuen, immer komplexeren Funktionen ausgestattet. Die forderten immer mehr Leistung, was nur so lange kein Problem war, wie – Moore sei Dank – die Chips zugleich verlässlich schneller und leistungsstärker wurden.

„Insofern“, sagt Troyer, „ist es vielleicht gar kein Nachteil, wenn uns der Technikwandel künftig bessere, weil effizientere Software beschert.“

Dem Autor auf Twitter folgen:

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%