Serie: Künstliche Intelligenz Teil II: Kannibalisiere dich selbst

Serie: Künstliche Intelligenz Teil II: Der Mann, der Maschinen ein Gehirn gibt

Kannibalisiere dich selbst

Später ziehen Huangs Eltern in die USA nach und holen ihn nach Oregon. Dort studiert er Elektroingenieurwesen und schafft es bis ganz nach oben: An der renommierten Stanford-Universität macht er seinen Master-Abschluss. Nach dem Studium entwickelt er Mikrochips beim Branchenriesen AMD. Bis er im Alter von 30 Jahren zusammen mit zwei Gleichgesinnten, Chris Malachowsky und Curtis Priem, auf eine ganz eigene Idee kommt.

Es ist die Zeit, als Computer noch mit Windows 3.1 laufen, kaum jemand das Internet kennt und Videospiele aus zweidimensionalen Bildern bestehen. „Der schnellste Prozessor“, rekapituliert Huang, „hatte 66 Megahertz. So einen Rechner würde man heute nicht mal im vernetzten Tennisschuh nutzen.“ Huang aber will ein neues Universum schaffen, eine Welt im Computer, er denkt nicht in Schrittchen, sondern in Quantensprüngen. „Die Killer-Applikation“, so der Plan, „waren dreidimensionale Videospiele.“ Und den Rechner dafür würde Huang entwickeln.

Die Entwicklungsstufen Künstlicher Intelligenz

  • 1950 - Alan Turing

    Der britische Informatiker entwickelt den nach ihm benannten Test. Er soll ermitteln, ob eine Maschine denken kann wie ein Mensch. Ein russischer Chat-Roboter soll ihn 2014 erstmals bestanden haben.

  • 1956 - Dartmouth-Konferenz

    Experten einigen sich auf den Begriff "Künstliche Intelligenz". Der Rechner IBM 702 dient ersten Forschungen.

  • 1974 - Erster KI-Winter

    Katerstimmung bei den Forschern: Die Fortschritte bleiben hinter den Erwartungen zurück. Computer sind zu langsam, ihre Speicher zu klein, um die Daten von Bildern oder Tönen zu verarbeiten. Budgets werden gestrichen, erst ab 1980 geht es wieder voran.

  • 1997 - Deep Blue

    Der Supercomputer von IBM siegt im Schachduell gegen Weltmeister Garry Kasparov. Die Maschine bewertete 200 Millionen Positionen pro Sekunde. 2011 siegt IBMs Software Watson in der Quizsendung "Jeopardy".

  • 2005 - Ray Kurzweil

    Der KI-Forscher sagt in einem Buch für das Jahr 2045 den Moment der "Singularität" voraus: Die Rechenleistung aller Computer erreicht die aller menschlichen Gehirne. Seit 2012 arbeitet Kurzweil für Google an KI-Systemen.

  • 2014 - KI-Boom

    Ein Google-Programm beschreibt präzise in ganzen Sätzen, was auf Fotos zu sehen ist. Nahrungsmittelkonzern Nestlé kündigt an, 1000 sprechende Roboter namens Pepper in seinen Kaffeeläden in Japan als Verkäufer einzusetzen. Physiker Stephen Hawking warnt: KI könne eines Tages superschlau werden – und die Menschheit vernichten.

  • 2045 - Roboter-Revolution

    Computer sind schlau wie Menschen – und machen sogar Witze. Fabriken, Verkehr und Landwirtschaft sind nahezu komplett automatisiert.

„Warum suchst du dir nicht lieber einen neuen Job?“, fragte seine Mutter. Huang hört auf seine eigene Stimme. 1993 gründet er mit seinen beiden Kompagnons Nvidia. Es ist der Beginn einer Karriere, die selbst für die Maßstäbe des Silicon Valley ziemlich steil verläuft.

1995 bringt Nvidia seinen ersten Grafikprozessor auf den Markt. Der ist, auch dank der Entwicklerkünste des Chefs, so sagenhaft, dass bald darauf Microsoft entscheidet, Nvidia-Chips in seine Spielkonsole Xbox einzubauen. Kontrahent Sony klopft wenig später an und bittet Huang um Mitarbeit an seiner Playstation-3-Konsole.

Ende der 2000er ist Nvidia unangefochtener König auf dem Milliardenmarkt der Grafikkarten für Videospiele. Zocker geben mehr für die Nvidia-Prozessoren aus als für den restlichen Computer. Es ist ein sehr profitables Geschäft: Die Nvidia-Aktie steigt von 1999 bis 2007 um das 27-Fache und damit stärker als die Apple-Papiere im gleichen Zeitraum.

Aber Huang ist keiner, der sich auf Erfolgen ausruht. „Wenn du dich nicht permanent neu erfindest“, predigte er schon vor einer Weile Studenten in Stanford, „liegst du in Wahrheit nur langsam im Sterben.“ Noch so eine Huang-Weisheit? „Und wenn du dich nicht selbst kannibalisiert, wird es jemand anderes tun.“

Ab 2012 kontaktieren ihn plötzlich Forscher, die entdeckt haben, dass seine Grafikkarten perfekt mit einer neuen Methode zusammenarbeiten, von der sie sich große Fortschritte in der Entwicklung künstlicher Intelligenz versprechen. Dem Vordenker wird wieder einmal klar, dass sich etwas Gewaltiges anbahnt in der Computertechnik.

Internet-Ethiker Luciano Floridi Künstliche Intelligenz macht arbeitslos - gut so

Jeder ein Rentner, ohne in Ruhestand gehen zu müssen. Der Netzphilosoph Luciano Floridi propagiert die Chancen künstlicher Intelligenz - und fordert eine fairere Verteilung der Gewinne durch neue Techniken.

Künstliche Intelligenz: Werden bald Roboter unsere Arbeit machen? Quelle: Getty Images

Deep Learning, so das Verfahren, imitiert die Netzwerke menschlicher Gehirnzellen. Programmierer erzeugen Abertausende virtuelle Nervenzellen und teilen sie in Dutzende, gar Hunderte Ebenen ein. Unzählige dieser virtuellen Nervenzellen werden gleichzeitig aktiv, wenn sie etwa ein bestimmtes Muster in einem Foto erfassen. Die Signale durchlaufen Hunderte Ebenen, bis die Software beispielsweise ein menschliches Gesicht erkennt.

Anzeige
Anzeige
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%