WiWo App 1 Monat für nur 0,99 €
Anzeigen

Informationstechnik Neue Computer braucht das Land

Seite 2/4

Das Moore’sche Gesetz gerät ins Wanken

Damit das so bleibt, müsse sich die Computerwelt von der Idee verabschieden, glaubt Martin Schmatz vom IBM-Forschungslabor in Rüschlikon bei Zürich . Es gebe die eine, entscheidende Zukunftstechnologie: „Natürlich bleiben Mikroprozessoren für Jahrzehnte die zentralen Datenpumpen. Aber darum herum wird der Computer neu erfunden“, so der Experte für Server-Technologien. Massiv paralleles und neurosynaptisches Rechnen, Spezialprozessoren oder gar Quantencomputer sollen helfen, den digitalen Fortschritt zu retten.

Wie ernst die Lage ist, lässt sich daran erkennen, dass das berühmte Moore’sche Gesetz ins Wanken gerät. Benannt ist es nach dem Mitgründer des Chipriesen Intel, Gordon Moore. Der hatte Mitte der Sechzigerjahre eine Verdoppelung der Leistungsfähigkeit von Computern grob alle zwei Jahre vorhergesagt – ausgelöst durch die Miniaturisierung der Schaltkreise und steigende Taktraten der Mikrochips.

„Die Prognose hat sich als bemerkenswert zutreffend erwiesen“, sagt der Mathematiker Horst Gietl, Mitorganisator der renommierten International Supercomputing Conference (ISC). „Die Frage ist bloß, ob und wie sich dieser Trend in Zukunft beibehalten lässt.“

Gebremster Leistungszuwachs bei den stärksten Computern der Welt Quelle: www.top500.org

In der aktuellsten, vor zwei Wochen bei der ISC 2014 in Leipzig präsentierten Liste der 500 stärksten Hochleistungscomputer zeichnet sich zumindest eine Formkrise der Elektronenhirne ab. An der Spitze tut sich derzeit gar nichts mehr: Der chinesische Supercomputer Tianhe-2 führt das Feld weiter an – ohne auch nur einen Deut schneller geworden zu sein (siehe Grafik).

Was bedeutet das? Werden Wetterprognosen nicht mehr von Jahr zu Jahr verlässlicher, wie wir es bisher gewohnt waren? Stößt die Simulation von Crashtests neuer Autos im Computer an ihre Grenzen? Lassen sich die Wechselwirkungen von Molekülen bei medizinischen Therapien nicht mehr besser vorausberechnen, weil die Rechenpower stockt?

Noch geben die ITler nicht auf. Sie hoffen ausgerechnet auf die Rechenchips, für die sich bisher nur PC-Daddler und Special-Effects-Designer in Hollywood-Studios interessierten: die Grafikkarten, englisch Graphics Processing Units (GPU) genannt. Sie sorgen für die atemberaubenden Videoeffekte in Computerspielen und Filmen. Das können sie besonders gut, gemessen an herkömmlichen Prozessoren sind sie eher simpel gestrickt.

Wie Unternehmen ihre Daten in Schuss bringen können
1. Data Governance: Klare Regeln sind ChefsacheWerden die gleichen Stammdaten in verschiedenen Unternehmensbereichen, auf unterschiedlichen Hierarchie-Ebenen oder in mehreren Geschäftsprozessen genutzt, ist die Einführung einheitlicher Standards, Regeln und Abläufe unumgänglich. Dafür hat sich der Begriff Data Governance eingebürgert. Die Entwicklung einer einheitlichen Strategie und gemeinsamer Prinzipien ist Chefsache. Sie wird ergänzt durch die Definition von verbindlichen Datenpflegeprozessen und die Festlegung von Kennzahlen. Quelle: http://www.humaninference.de/master-data-management Quelle: Fotolia
2. Data Steward: Einer hat den Hut aufImmer freundlich lächeln und das Essen servieren: Trotz des etwas irreführenden Namens hat der Data Steward ganz andere Aufgaben. Als Verantwortlicher für die Verbesserung der Datenqualität soll er die in der Data Governance festgelegten Prinzipien im gesamten Unternehmen durchsetzen, Metriken entwickeln, die Interessen der einzelnen Fachabteilungen miteinander in Einklang bringen und für die nachhaltige Konsistenz und Genauigkeit der Daten sorgen. Quelle: Fotolia
3. Datenmodell: Struktur erkennenAls zentrales Element steuert das Datenmodell sämtliche Prozesse und Ereignisse im Master Data Management. Denn keine Datenquelle ist wie die Andere, und die wertvollen Daten des Unternehmens finden sich oft über eine ganze Reihe von Datenbanken verteilt. Fusionen, Übernahmen und neue Anforderungen erfordern oft Anpassungen des Datenmodells und der benutzten Datenquellen - dementsprechend flexibel sollte es sein. Quelle: Fotolia
4. Datenreinigung: Frühjahrsputz in der DatenbankDaten falsch einzugeben, ist ganz einfach. Ausgesprochen kompliziert dagegen ist es festzustellen, ob Informationen korrekt, eindeutig und vollständig sind. Um dies zu erreichen, wird der gesamte Bestand mit Hilfe einer Datenqualitätssoftware gesäubert. Das Tool erkennt die Struktur von Adressen, Namen, Telefonnummern oder anderen Kundendaten und prüft sie auf ihre Plausibilität – und das für alle Länder. Buchstabendreher und andere Fehler werden automatisch korrigiert. Quelle: Fotolia
5. Data Matching: Dubletten beseitigenFür die Mitarbeiter im Call Center oder im Vertrieb ist es häufig einfacher, einen Kunden neu in der Datenbank anzulegen, statt zunächst zu kontrollieren, ob diese Person bereits bekannt ist. Dadurch wächst der Anteil an Mehrfacheinträgen in vielen Unternehmen jährlich um 20 Prozent, was fatal für eine einheitliche Sicht auf den Kunden ist. Data Matching stellt den Grad der Übereinstimmung zwischen verschiedenen Datensätzen fest und zeigt Dubletten an, damit sie entfernt werden können. Quelle: Fotolia
6. Zusammenführung: Das "Golden Record"Dabei handelt es sich nicht um eine goldene Schallplatte, sondern um den „einzig wahren“ Stammdatensatz. Er wird zentral verwaltet, dient als verlässliche und aktuelle Informationsquelle und kann an den verschiedensten Stellen im Unternehmen genutzt werden. Die Zusammenführung erfolgt nach unterschiedlichen Kriterien, z.B. der Aktualität oder Priorität für eine bestimmte Quelle. Bei Bedarf findet auch noch eine Anreicherung der Datensätze statt. Beispielsweise um Informationen aus den sogenannten "Robinsonlisten", in denen Verbraucher den Versand von Werbung untersagen. Quelle: Creative Commons-Lizenz
7. First Time Right: Gleich alles richtig machenNachdem die Daten mit Hilfe der Datenqualitätssoftware erfolgreich gesäubert wurden, sollte dieser Zustand möglichst erhalten bleiben. Schon bei der Dateneingabe einer neuen Adresse in eines der operationellen Systeme ist deshalb sicherzustellen, dass alle Elemente eines Datensatzes korrekt sind. Dafür sorgt das "First Time Right"-Prinzip, bei dem eine neue Adresse blitzschnell mit den bereits vorhandenen Daten verglichen und auf Fehler überprüft wird. So gelangen nur saubere und korrekte Daten in das Master Data Management-System. Quelle: Fotolia

Dafür stecken bis zu 2880 Rechenkerne in den besten GPUs. Die können so hochkomplexe Aufgaben, etwa Simulationen, gleichzeitig statt nacheinander abarbeiten – ein enormer Zeitgewinn. „Statt in die Höhe wächst Rechenleistung künftig in die Breite“, sagt Sumit Gupta. Der 40-Jährige leitet die Supercomputing-Sparte des kalifornischen Chipproduzenten Nvidia.

Sein Job markiert den radikalen Umbruch der Computerwelt. Auf einmal verwandelt sich Technik zum Leistungsturbo, die früher nur der Unterhaltung am PC diente. „Ob du Lichteffekte für Computerspiele oder aerodynamische Strömungssimulationen, Rauchausbreitung bei Feuer oder die Entwicklung von Staus berechnen lässt, das ist dem Chip völlig egal“ sag Gupta. Nicht aber dem Anwender, der bei Nvidia inzwischen High Tech für den professionellen Einsatz bekommt – zu einem Bruchteil der Kosten konventioneller Rechner. „Supercomputing wird für ganz neue Zielgruppen bezahlbar“, so Gupta.

Inhalt
Artikel auf einer Seite lesen
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%