WiWo App 1 Monat für nur 0,99 €
Anzeigen

Informationstechnik Neue Computer braucht das Land

Seite 3/4

Supercomputer für alle

Massiv paralleles Rechnen, davon ist auch ISC-Mitorganisator Gietl überzeugt, „ist der entscheidende Treiber für künftige Leistungssprünge in der IT“. Das sehen offenbar auch die Entwickler von Tianhe-2 so, dem aktuell stärksten Rechner der Welt. Er steht in Chinas National Super Computer Center in Guangzhou und vereint die Rechenleistung von 3,12 Millionen Prozessorkernen. „Das sind gut fünf Mal so viele wie bei Titan, dem aktuell auf Rang zwei gelisteten Superrechner des US-Energieministeriums“, rechnet Gietl vor.

Das enorme Potenzial der Parallelisierung kommt aber nur zum Tragen, wenn auch die Softwarehäuser ihre Programme anpassen. Das ist eine Mammutaufgabe: „Denn Software ist traditionell nicht für parallele Systeme entwickelt“, sagt etwa James Goodnight, Chef des auf Datenanalytik spezialisierten US-Softwareunternehmens SAS. „Wir mussten daher die Algorithmen zur Datenverarbeitung in unserer Software komplett erneuern.“

Bei aller Euphorie fürs parallele Rechnen: Experten warnen, dass auch diese Strategie an ihre Grenzen stoßen könnte. „Längst nicht jede Aufgabe lässt sich in Tausende oder gar Millionen parallele Rechenschritte zerlegen“, warnt IBM-Experte Schmatz. Bei extrem großen Prozessorzahlen könnte der Aufwand fürs Management der vielen parallelen Operationen und für den benötigten Datentransfer den Tempogewinn sogar wieder zunichte machen.

Künftig würden daher nicht nur immer mehr Prozessorkerne in Computern stecken, erwartet Schmatz, sondern auch eine Reihe hoch spezialisierter Zusatzbausteine, die gemeinsam für Leistungssprünge sorgen: „Ob für Ver- oder Entschlüsselung von Daten, die Kompression von Bildern, Musik oder Videos oder deren Wiedergabe, für all das gibt es schon Spezialhardware – und viel mehr wird noch kommen.“

Wie Big Data Ihr Leben verändert
Dicht an dicht: Wenn die Autos auf der Straße stehen, lässt sich das mit moderner Technologie leicht nachvollziehen. Zum einen gibt es Sensoren am Straßenrand, zum anderen liefern die Autos und die Smartphones der Insassen inzwischen Informationen über den Verkehrsfluss. Diese Daten lassen sich in Echtzeit auswerten und mit Erfahrungswerten abgleichen – so wird klar, wo gerade ungewöhnlich viel los ist und beispielsweise eine Umleitung Sinn ergeben würde. Ein Pilotprojekt dazu lief in der Rhein-Main-Region, allerdings nur mit rund 120 Autos. Langfristig ist sogar das vollautomatische Autofahren denkbar – der Computer übernimmt das Steuer. Eines ist aber klar: Alle Big-Data-Technologien helfen nichts, wenn zu viele Autos auf zu kleinen Straßen unterwegs sind. Quelle: dpa
Fundgrube für Forscher: Google Books ist nicht nur eine riesige digitale Bibliothek. Die abertausenden eingescannten Texte lassen sich auch bestens analysieren. So kann nachvollzogen werden, welche Namen und Begriffe in welchen Epochen besonders häufig verwendet wurden – ein Einblick in die Denkweise der Menschen. Der Internet-Konzern nutzt den Fundus außerdem, um seinen Übersetzungsdienst Translate zu verbessern. Quelle: dpa Picture-Alliance
Schnupfen, Kopfschmerz, Müdigkeit: Das sind die typischen Symptome der Grippe. Aber wann erreicht die Krankheit eine Region? Bislang konnte man das erst feststellen, wenn es zu spät war. Der Internet-Riese Google hat ein Werkzeug entwickelt, mit dem sich Grippewellen voraussagen lassen: Flu Trends. Bei der Entwicklung hielten die Datenspezialisten nicht nach bestimmten Suchbegriffen Ausschau, sondern nach Korrelationen. Wonach also suchten die Menschen in einer Region, in der sich das Virus ausbreitete? Sie filterten 45 Begriffe heraus, die auf eine unmittelbar anrollende Grippewelle hindeuten – ohne dass irgendein Arzt Proben sammeln müsste. Quelle: dpa Picture-Alliance
Aufwärts oder abwärts? Die Millionen von Kurznachrichten, die jeden Tag über Twitter in die Welt gezwitschert werden, können Aufschluss über die Entwicklung der Börsen geben. Denn aus den 140 Zeichen kurzen Texten lassen sich Stimmungen ablesen – das hat ein Experiment des renommierten Massachusetts Institute of Technology (MIT) gezeigt. Je intensiver die Emotionen, desto stärker die Ausschläge. Marktreife Investitionsmodelle, die auf Tweets setzen, gibt es indes noch nicht. Quelle: dpa
Lotterie am Himmel: Die Preise von Flugtickets lassen sich für Laien kaum nachvollziehen. Auch eine frühe Buchung garantiert kein günstiges Ticket, weil die Fluggesellschaften ständig an der Schraube drehen. Das wollte sich der Informatiker Oren Etzioni nicht gefallen lassen: Er sammelte mit seiner Firma Farecast Millionen von Preisdaten, um künftige Preisbewegungen zu prognostizieren. 2008 kaufte Microsoft das Start-up, die Funktion ist jetzt in die Suchmaschine Bing integriert. Quelle: dpa Picture-Alliance
Jeder Meter kostet Zeit und Geld. Daher wollen Logistikunternehmen ihre Fahrer auf kürzestem Wege zum Kunden lotsen. Der weltgrößte Lieferdienst UPS führt dafür in einem neuen Navigationssystem Daten von Kunden, Fahrern und Transportern zusammen. „Wir nutzen Big Data, um schlauer zu fahren“, sagte der IT-Chef David Barnes der Nachrichtenagentur Bloomberg. Im Hintergrund läuft ein komplexes mathematisches Modell, das auch die von den Kunden gewünschten Lieferzeiten berücksichtigt. Quelle: dpa Picture-Alliance
Es waren nicht nur gute Wünsche, die US-Präsident Barack Obama 2012 zur Wiederwahl verhalfen: Das Wahlkampf-Team des Demokraten wertete Informationen über die Wähler aus, um gerade Unentschlossene zu überzeugen. Dabei griffen die Helfer auch auf Daten aus Registern und Sozialen Netzwerke zurück. So ließen sich die Bürger gezielt ansprechen. Quelle: dpa

Doch egal, ob Computer linear rechnen oder parallel, vor einem Problem stehen Hard- und Softwareentwickler gleichermaßen: Je schneller die Chips arbeiten, desto eher geht ihnen das Futter aus. „Die Datenübertragung aus dem Speicher in die Prozessoren hat mit dem Zuwachs an Rechenleistung nicht Schritt gehalten“, sagt ISC-Experte Gietl. Auch deshalb setzen die Techniker zunehmend darauf, Daten direkt aus dem Arbeitsspeicher zu laden statt wie in der Vergangenheit von den langsameren Festplatten. Das war angesichts der extrem hohen Speicherkosten lange nicht bezahlbar. Inzwischen aber sind die Preise für das In-Memory-Computing (IMC) drastisch gefallen.

Auch der deutsche Softwareriese SAP investiert massiv in die Technik. Mit seiner Hana-Plattform verkürzt er etwa komplexe Preiskalkulationen, mit denen Fluggesellschaften Ticketpreise ermitteln, von zwölf Stunden auf nur noch eine Sekunde. „Die Technik hilft aber auch in der Medizin, Genomanalysen statt in zwei bis drei Tagen in Minuten abzuarbeiten“, sagt Franz Färber, der als Softwarearchitekt maßgeblich an der Hana-Entwicklung mitgearbeitet hat. „Das hilft insbesondere bei der Suche nach speziell auf die Patienten abgestimmten Krebstherapien.“

Inhalt
Artikel auf einer Seite lesen
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%