Mozilla-Chef Surman: „Autobauer haben auch nicht gejubelt, als sie Sicherheitsgurte einbauen mussten“
WirtschaftsWoche: Herr Surman, Ihre Mozilla-Stiftung, die auch den gleichnamigen Browser betreibt, sieht sich als Teil einer „Allianz der Rebellen“, ein Begriff aus Star Wars. Was ist das „böse Imperium“, das da bekämpft wird?
Mark Surman: Das böse Imperium ist die Vorstellung, dass wenige Großkonzerne kontrollieren, wie das Internet, wie KI und damit im Grunde die ganze Welt funktioniert. Das Internet versprach Kreativität und Wettbewerb. Das ist nicht möglich, wenn es drei, vier oder fünf Unternehmen kontrollieren. Dieses Oligopol ist – um in der Star-Wars-Analogie zu bleiben – der Todesstern, den man nur mit einer bunt zusammengewürfelten Truppe aus vielen Leuten bekämpfen kann, die ihre eigene Geschichte, Kultur, Erfahrungen und Talente einbringen.
Was macht Sie optimistisch, dass das gelingen kann?
Wir haben das ja schon mal geschafft, als Microsoft vor zwanzig Jahren dabei war, das Internet und damit die Techbranche unter seine Kontrolle zu bringen. Wir haben Microsoft vielleicht nicht besiegt, dafür aber in ein verantwortungsbewussteres Unternehmen verwandelt. Und es war eine Allianz aus vielen. Nicht nur der Firefox-Browser von Mozilla, sondern auch Wikipedia bei Online-Nachschlagewerken, Linux bei Betriebssystemen und Apache bei Webservern.
Wer ist heute bei Künstlicher Intelligenz das böse Imperium? Ist es OpenAI mit Microsoft? Oder Google?
Es ist nicht mehr nur ein Unternehmen, so wie vor 20 Jahren Microsoft, das ein Monopol hatte. Sondern eine Kombination von Akteuren, die ein großes, eigenes Ökosystem geschaffen haben, das von ihnen kontrolliert wird. Und gegen das niemand konkurrieren kann, weil die Kontrolle über den jeweiligen Markt so dominant ist. Also Apple, Microsoft, Google und bis zu einem gewissen Grad auch Meta und Amazon.
Mozilla-Chef Mark Surman
Foto: PRWas könnte die Alternative von kommerziell kontrollierter KI sein, sozusagen das Firefox oder Linux der KI?
Wir brauchen etwas Neues. Etwas, was sicherstellt, dass die KI für ihre Nutzer entwickelt wird – und nicht gegen sie. Im Kern geht es um Open Source, um quelloffene KI, die wir unbedingt benötigen.
Meta stellt doch sein Sprachmodell Llama als Open Source bereit, oder?
Ja, aber das ist kein Open Source im Sinne der Definition, also dass man wirklich sehen kann, wie das funktioniert. Dass man es auseinandernehmen und sich zu eigen machen kann. Llamas Code ist öffentlich verfügbar, wie auch die Gewichte des Modells. Aber nicht die Trainingsdaten und das genaue Trainingsverfahren. Entwickler können zwar Llama weiterentwickeln und anpassen, müssen sich aber an Metas Lizenzbedingungen halten. Das ist kein wirkliches Open Source.
Gibt es denn dieses wahre Open Source in KI?
Ja, offene Alternativen sind Modelle wie Mistral oder Falcon. Wenn es gelingt, all diese großartigen Open-Source-Dinge so zusammenzufassen, dass alle Entwickler bequem und effizient auf sie zugreifen können – dann kann das Linux der KI-Ära geschaffen werden.
Nun werden viele große Open-Source-Projekte oft von Unternehmen finanziert und maßgeblich mitentwickelt oder verwaltet. Kann man ohne Kommerz auskommen?
Wir wollen ja nicht auf kommerzielle KI verzichten. Aber wir brauchen eine öffentliche Alternative. So wie das öffentliche Straßennetz. Das steht allen offen, egal ob man mit einem Lieferwagen darauf fährt oder seine Familie zum Strand kutschiert. Die Idee des öffentlichen Guts, das dem Gemeinwohl dient, ist meiner Meinung nach in der Tech-Ära etwas untergegangen. Wir benötigen eine Option als Gegengewicht zu Projekten wie Stargate, die nur einem oder wenigen Unternehmen zugutekommen.
Aber gerade bei der KI kostet das alles kräftig. Wer soll diese öffentliche KI finanzieren und wer sie verwalten?
Es wird nicht nur ein Verwalter und Geldgeber sein. Ich denke, dass staatliche Forschungseinrichtungen und Non-Profit-Organisationen eine wichtige Rolle spielen werden. Im Bereich der KI bin ich ein großer Fan des Allen Institute für KI aus Seattle, das von Microsoft-Mitgründer Paul Allen gestiftet wurde. Es arbeitet nicht nur an interessanten Open-Source-Modellen, sondern ist wie Wikimedia oder Mozilla eine gemeinnützige Organisation. In den Vereinigten Arabischen Emiraten gibt es die Falcon Foundation, die Ähnliches tut. Frankreich engagiert sich in gleich mehreren Projekten.
Sie engagieren sich auch stark für sogenannte „vertrauenswürdige KI“. Wie definieren Sie diese?
Zunächst, dass die Nutzer der KI die Kontrolle über sie haben, also tatsächlich verifizieren oder sich sicher sein können, dass die KI in ihrem Interesse handelt – und das nicht nur vorgibt, wie wir es von vielen Empfehlungsalgorithmen in den sozialen Medien bitter erfahren mussten. Und dann eine Rechenschaftspflicht, die Leitplanken einbaut, für den Fall, dass etwas schiefläuft. Wenn ich diskriminiert werde oder mein Geld gestohlen wird, zum Beispiel.
Wie sehen Sie unter diesem Aspekt die Regulierung der KI in Europa, die sehr umstritten ist?
Einen Rechtsrahmen für ein neues Phänomen zu schaffen, ist immer schwierig. Aber die Idee, zunächst zu schauen, wo die wirklich riskanten Dinge liegen, und zu versuchen, diese zu regulieren, ist richtig. Das ist die Basis für vertrauenswürdige KI.
Viele Unternehmer in Europa sehen diese KI-Regulierung jedoch als Überregulierung und damit als Nachteil im internationalen Wettbewerb.
Ich weiß, dass meine Meinung nicht sehr beliebt ist. Was auch damit zu tun hat, dass wir 30 oder 40 Jahre damit gelebt haben, dass es für Software keine Haftung gibt, wie das für viele andere Waren der Fall ist. Die Autohersteller haben auch nicht gejubelt, als sie Sicherheitsgurte einbauen mussten. Trotzdem war diese gesetzliche Auflage richtig.
In den USA hat Präsident Donald Trump kürzlich per Dekret die KI-Regulierungen seines Vorgängers abgeschafft. Haben die USA damit einen unfairen Vorteil?
Man muss das nuanciert betrachten. Es wurde nicht gesagt, dass alle Leitlinien generell abgeschafft, sondern dass diese überarbeitet werden. Ich hoffe, dass sich Einsichten des gesunden Menschenverstands durchsetzen. Beispielsweise, dass man Sicherheitstests für KI benötigt, worüber man sich im Grundsatz in den vergangenen Jahren einig war – und zwar überparteilich.
War das wirklich so? In Kalifornien ist ein Gesetz, das große KI-Modelle regulieren sollte, am Veto des Gouverneurs Gavin Newsom gescheitert.
Dass man Sicherheitsstandards braucht, darüber waren sich alle einig. Nur die Art und Weise, wie sie durchgesetzt werden sollten, war umstritten. Wir bei der Mozilla Foundation waren auch gegen den Gesetzentwurf, weil er unserer Meinung nach dem Wettbewerb und Open Source sehr geschadet hätte. Wir haben den Gouverneur ermutigt, es nochmal zu versuchen.
Mozilla ist vor allem durch seinen Firefox-Browser bekannt. Haben Browser in einer Welt, in der Chatbots immer wichtiger werden, noch eine Zukunft?
Ja. Seine Funktion, dass der Nutzer mit ihm seine Absichten in der digitalen Welt ausdrückt, bleibt erhalten und wird sogar noch wichtiger. Aber der Browser der Zukunft wird radikal anders aussehen.
Wie radikal anders?
Wir sind dabei, das herauszufinden. Dafür haben wir Mozilla Ventures gegründet, das zu 80 Prozent in KI investiert. Und das Start-up Mozilla.ai ins Leben gerufen. Ein wichtiger Aspekt wird dabei vertrauenswürdige KI sein. Wie hilft mir der Browser unter den Millionen von KI-Agenten, die richtigen herauszusuchen, die tatsächlich für mich arbeiten und meine Interessen im Blick haben?
Werden solche KI-Funktionen bereits in Firefox integriert?
Ja, wobei wir noch am Anfang stehen. Beispielsweise durch eine Seitenleiste, über die man verschiedene KI-Chatbots auswählen kann. So kann man beispielsweise Inhalte zusammenfassen, ohne die Webseite verlassen zu müssen. Es geht uns darum, mehr Auswahl zu schaffen. Oder Orbit, was ein KI-gestütztes Add-on für den Firefox Browser ist. Mit Orbit kann man lange Dokumente oder Artikel schnell zusammenfassen, ohne dass die Privatsphäre gefährdet wird.
Was tut Mozilla für die Transparenz der KI-Systeme, von denen die meisten nicht nachvollziehbare Black-Boxen sind, sprich, man weiß nicht genau, wie sie zu ihren Aussagen kommen?
Indem wir Open Source verlangen und fördern. Sie ist der Kern für die Weiterentwicklung der KI. Wenn Dinge wirklich vollständig quelloffen sind und nicht nur zum Teil, erst dann kann man verstehen, wie diese Systeme funktionieren.
Lesen Sie auch: Warum die chinesische KI Deepseek von einigen Experten als Bluff betrachtet wird