Mehr Schutz Wie Microsoft seinen KI-Copilot zuverlässiger machen will

Microsoft integriert seinen KI-gestützten Software-Assistenten „Copilot“ in immer mehr Anwendungen – von Office über den Browser „Edge“ bis in das Betriebssystem Windows. Quelle: AP

Generative KI fasziniert mit geschliffenen Texten, smarten Analysen und beeindruckenden Bildern – ist aber auch anfällig für Irrtümer und Missbrauch. Microsoft will mit besseren Filtern nun dagegen halten.

  • Teilen per:
  • Teilen per:

Eine asiatische Päpstin, dunkelhäutige Wehrmachtssoldaten oder Wikinger mit modernen Prothesen – es ist erst wenige Tage her, dass solche mit Hilfe künstlicher Intelligenz erzeugten Bilder im Netz für Aufsehen sorgten. Die Software hatte Aufnahmen generiert, die technisch exzellent, im historischen oder gesellschaftlichen Kontext aber völlig unpassend und damit für Menschen sofort als das Fantasieprodukt einer Maschine erkennbar waren.

Doch längst nicht immer sind solche – im KI-Jargon auch als Halluzinationen bezeichneten – Erfindungen oder Falschdarstellungen so leicht erkennbar. Speziell bei schriftlichen Antworten fallen Halluzinationen vielfach nur Fachleuten auf. Wer, speziell im beruflichen Umfeld, KI-Antworten vertraut, läuft daher immer Gefahr, sich günstigstenfalls zu blamieren. Wie jener US-Anwalt, der im vergangenen Jahr ChatGPT nach Präzedenzfällen zu einem Verfahren befragte, die Antwort ungeprüft übernahm und vor Gericht erkennen musste, dass die KI alles erfunden hatte.

Um speziell Unternehmenskunden, die seine „Azure KI“ genannten generativen Softwaresysteme, Sprachmodelle oder Algorithmen einsetzen, besser gegen solch allzu kreative Einfälle der KI abzusichern, erweitert der Software-Konzern Microsoft seine KI-Plattform nun um eine Reihe zusätzlicher Filter und Prüfsysteme. Mit denen sollen die Kunden zum einen wirksamer als bisher unterbinden können, dass die KI bei Analysen oder Abfragen vorgebliche Fakten ausspuckt, die nicht durch belastbare Daten gestützt sind. 

In verschiedenen Testszenarien bei der Präsentation der Software markierte das Kontrollmodul jeweils maschinell generierte Antworten, die nicht durch Belege in der Datenbasis der KI-Systeme gestützt waren. Warum Microsoft die rigide Faktenkontrolle nicht grundsätzlich bei allen KI-Abfragen aktiviert, begründet Sarah Bird, Produktchefin für die „Responsible AI“ genannten Schutzmodule, mit dem Zielkonflikt, dass – je nach Anwendungsszenario, etwa beim Entwickeln von Ideen – mitunter auch besonders kreative und fantasievolle Antworten der KI gewünscht seien. „Die Nutzer können das künftig nach Bedarf justieren.“

Schutzschild gegen Hacker und Hater

Andere Filter sollen zudem verhindern, dass Hacker oder andere Kriminelle KI-gestützte Sprach-Bots durch gezielte Aufforderungen – sogenannte Prompts – dazu verleiten, beispielsweise unangemessene Antworten zu geben, Schadcode für Cyberattacken zu programmieren oder etwa Hassbotschaften zu formulieren und zu verbreiten. Mit Hilfe individueller Regler lässt sich künftig einstellen, wie rigide die KI-Systeme etwa Antworten unterbinden sollen, die Gewaltbezug haben, Hassbotschaften enthalten, selbstverletzendes Handeln auslösen oder sexuell unangemessene Inhalte verbreiten sollen.

Neben solchen „Prompt-Injection“ genannten Angriffen sollen zusätzliche Filter auch sogenannte indirekte Attacken unterbinden. Bei dieser recht neuen Form des Missbrauchs von KI-Systemen versuchen Angreifer, die Algorithmen oder Sprach- und Wissensmodelle durch das Einspielen speziell modifizierter Dokumente zu beeinflussen. Zum einen, weil die zusätzlichen Informationen die Datenbasis der trainierten KI modifizieren, zum anderen, weil sich auch in den Dokumenten Arbeitsanweisungen für die künstliche Intelligenz verbergen können, die die Software anschließend ausführt.

„Wir nutzen die entsprechenden Technologien bereits selbst in den Copilot-Anwendungen im Unternehmen“, sagt Microsoft-KI-Spezialistin Bird. Im ersten Schritt integriere Microsoft sie nun auch in seine kommerziellen Produkte, „anschließend werden die Schutzfunktionen, so weit sinnvoll, auch Teil von KI-Angeboten wie dem Copilot in der Bing-Suche oder dem Edge-Browser für Konsumenten.“

Entgeltumwandlung Lohnt sich betriebliche Altersvorsorge?

Einen Teil des Gehalts für betrieblich Altersvorsorge einsetzen: Rechnet sich das? Und: Geht es auch mit Aktien? Eine Fallanalyse.

Rezept zum Reichwerden? Das steckt hinter dem System von Deven Schuller

Ein selbsternannter Finanzexperte will seinen Kunden laut eigener Aussage dabei helfen, finanzielle Freiheit zu erreichen, und pflastert das Internet mit Werbung. Was steckt dahinter? Ein Selbstversuch.

Freiberufler-Report So viel verdienen Selbstständige in Deutschland

Zwei Euro mehr pro Stunde – und kaum noch ein Gender Pay Gap: Selbstständigen geht es auch in der aktuell schwierigen Lage recht gut. In welchen Bereichen sie am meisten verdienen.

 Weitere Plus-Artikel lesen Sie hier

Dass Microsoft mit den zusätzlichen Sicherheitsfunktionen auch versucht, Probleme einzudämmen, die ohne die Entwicklung auch der eigenen KI-Systeme womöglich gar nicht existierten, stellt Bird nicht in Abrede. Verlässliche und zuverlässige KI sei deshalb auch kein Zustand, sondern ein Prozess, der sich daraus ableitet, wie Menschen KI einsetzten, sagt die Managerin. „In dem Maße, in dem Anwender das enorme ökonomische und kreative Potenzial der Technik austesten, wird es immer auch Leute geben, die das in unangemessener Weise tun“, so Bird. „Deshalb schaffen wir entsprechende Sicherheitsmechanismen, mit denen sich das unterbinden lässt.“

Lesen Sie auch: Sind mobile KI-Assistenten das nächste große Ding?

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%