WiWo App Jetzt gratis testen
Anzeigen

Künstliche Intelligenz Digitale Alchemie – Wie lernende Maschinen den Menschen überflügeln

Maschinen eignen sich Jahrtausende menschlichen Wissens selbstständig in wenigen Tagen an. Selbst Experten ist nicht immer völlig klar, wie das geht.

  • Artikel teilen per:
  • Artikel teilen per:
Im Wettkampf mit dem weltbesten Go-Spieler Lee Sedol behielt die selbstlernende Google-Software AlphaGo klar die Oberhand. Quelle: AP

Berlin Das asiatische Brettspiel Go ist 2500 Jahre alt und komplizierter als Schach. Einige Menschen widmen ihr ganzes Leben dem Versuch, es zu meistern. Künstliche Intelligenz (KI) dagegen braucht inzwischen nicht mal eine Woche, um Go praktisch perfekt zu spielen – selbst wenn sie von Null anfängt.

Im vergangenen Jahr wurden dem Programm AlphaGo Zero nur die Regeln von Go erklärt, dann spielte es zufällig darauf los und lernte aus Erfahrung. Nach drei Tagen besiegte es die Vorgängervariante AlphaGo Lee in 100 zu 0 Spielen – die Version, die ihrerseits den weltbesten Go-Meister Lee Sedol medienwirksam geschlagen hatte.

AlphaGo Zero wurde von der Firma DeepMind mit Sitz in London entwickelt und ist ein „Deep Neural Network“ – ein dem Nervensystem nachempfundenes Netzwerk, das durch Rückkopplung immer besser wird. In diesem Fall waren es 4,9 Millionen Partien, die das Programm gegen sich selbst spielte.

„AlphaGo Zero wird sein eigener Lehrer“, schrieben die Forscher im Oktober im Wissenschaftsmagazin „Nature“. Sie stellten diesen Lernweg älteren Systemen gegenüber, die unter der Aufsicht eines menschlichen Experten lernen und dabei von menschlichem Fachwissen ausgehen, wie es etwa in Go-Büchern steht.

Diverse KI-Verfahren können dazu führen, dass die Maschinen über den Wissensstand des Menschen hinauswachsen – und zwar schnell. Auch das sieht man bei den Brettspiel-Programmen. Bei einer der Partien gegen Lee 2016 machte AlphaGo den inzwischen berühmten 37. Zug, der Experten zuerst verwunderte, dann begeisterte. Der europäische Go-Meister Fan Hui, der gegen eine noch frühere Version von AlphaGo verloren hatte, nannte ihn wunderschön. Allerdings: „Es ist kein Zug eines Menschen“, sagte er dem Technik-Magazin "Wired".

Der Chef von DeepMind, Demis Hassabis, selbst Schachspieler, spricht von ähnlichen Erfahrungen beim Spiel der Könige. Eine Schach-Variante von AlphaGo habe wertvolle Figuren wie Läufer und selbst die Dame geopfert, um eine bessere und am Ende siegreiche Stellung zu erreichen: „Es ist wie Schach aus einer anderen Dimension.“

Hassabis gehört zu den Experten, die Emmanuel Macron im März zu einem KI-Gipfel nach Paris einlud. Dem französischen Präsidenten dürfte es nicht um eine Führungsposition seines Landes bei Brettspielen gehen. Weltweit besteht die Hoffnung, dass maschinelles Lernen sich mit ähnlich spektakulären Ergebnissen auf andere Bereiche wie Bild- und Stimmerkennung übertragen lässt.

Wie realistisch das ist, zeigen die Meldungen der vergangenen Wochen. Eine Forschergruppe aus Heidelberg berichtete im Mai von einer Variante eines neuralen Netzwerks, die im Schnitt Hautkrebs besser erkennt als Ärzte. Ihr Bericht im Fachblatt „Annals of Oncology“ steht unter dem Titel „Man against machine“ – Mensch gegen Maschine.

Die Vorteile der Maschinen in diesem Wettstreit gehen über ihre Lerngeschwindigkeit hinaus. Menschliche Experten gehen irgendwann in Rente, womit ihr Fachwissen verschwindet. Das Hautkrebsprogramm könnte dagegen theoretisch endlos laufen. Zudem gibt es bei der Qualität eines KI-Systems idealerweise kein Zurück mehr: AlphaGo wird nie schlechter Go spielen als jetzt, während junge menschliche Experten nicht zwangsläufig besser sind als die alten, die sie ablösen.

Mehr noch: Expertensysteme können je nach Aufbau ihr Wissen eins-zu-eins miteinander teilen. So werden die Erfahrungen, die mit einem selbstfahrenden Auto gewonnen werden, beim nächsten Software-Update an alle anderen dieses Modells weitergereicht.

Die neue Technologie bleibt jedoch nicht ohne Kritiker. Selbst den Experten ist etwa nicht immer klar, wie genau die Systeme an ihre Ergebnisse gelangen. Der KI-Forscher Ali Rahimi von Google sorgte im Dezember für Unruhe unter seinen Kollegen, als er maschinelles Lernen mit der Alchemie verglich.

Das sei zwar grundsätzlich in Ordnung, sagte er: Schließlich hätten die Alchemisten Verfahren zur Arzneimittelherstellung, Textilfärbung und Glasherstellung entdeckt. Aber heute gehe es um Systeme, die unsere Gesundheitsversorgung und unsere Teilnahme an öffentlichen Debatten regelten. „Ich will in einer Welt leben, deren Systeme auf rigorosem, verlässlichem, überprüfbarem Wissen basieren und nicht auf Alchemie“, so Rahimi.

Andere KI-Experten reagieren erbost auf solche Kritik. Rahimis Kollege Yann LeCun von Facebook etwa nannte die Darstellung eine Beleidigung und schlicht falsch. In der Geschichte der Wissenschaft seien „Artefakte des Maschinenbaus“ fast immer vor den theoretischen Einsichten gekommen: „Das ist keine Alchemie, das ist Ingenieurswesen.“

Diesen Artikel teilen:
  • Artikel teilen per:
  • Artikel teilen per:
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%