Europol warnt Waffen, Drogen, Terror – was Kriminelle mit ChatGPT treiben

Bereits seit 2013 betreibt die europäische Polizeibehörde Europol mit dem

Analysen von Europol zeigen auf, wo Hacker und Kriminelle bereits KI-Systeme wie ChatGPT für ihre Zwecke nutzen und wie das Missbrauchsrisiko zunimmt. Italien hat die Datenverarbeitung durch OpenAI vorerst verboten.

  • Teilen per:
  • Teilen per:

Sex und Kriminalität – wenn es darum geht, neue Technologien zu nutzen, erschließen sich diese Wirtschaftszweige Neuerungen ökonomisch stets mit am schnellsten. Im Fall der kriminellen Schattenwirtschaft gilt das auch für neue, hoch leistungsfähige KI-Sprachmodelle, die wie etwa ChatGPT seit Ende 2022 öffentlich im Netz erreichbar sind. Das belegt eine aktuelle Analyse von Fachleuten des Europol Innovation Lab, die der WirtschaftsWoche vorliegt.

ChatGPT, wie stelle ich synthetische Drogen her?

Der sogenannte Tech Watch Flash der Europäischen Polizeibehörde beschreibt mögliche Auswirkungen der sogenannten „Großen Sprachmodelle“ – auf Englisch Large Language Modells (LLM) genannt –, auf die kriminelle Bedrohungslage. Und die Analysen am Beispiel der Plattform ChatGPT bestätigen, was IT-Sicherheitsfachleute bereits kurz nach deren öffentlicher Verfügbarkeit im Netz befürchtet hatten: Die KI-getriebene Wissensmaschine wird auch von Kriminellen bereits intensiv genutzt

Konkret berichten die Europol-Analysten, dass Kriminelle sich mithilfe von ChatGPT bereits über den Bau von Rohrbomben beziehungsweise zur Herstellung von Drogen informiert hätten. Die Plattform biete Straftätern ein mächtiges Recherchewerkzeug „um sich über eine Vielzahl potenzieller Kriminalitätsbereiche ohne Vorkenntnisse zu informieren“, diese reichten von „Einbrüchen in ein Haus bis hin zu Terrorismus, Cyberkriminalität und sexuellem Missbrauch von Kindern“.

Und das ist nicht das einzige juristische Problem, mit dem der Entwickler von ChatGPT, das US-Start-up OpenAI, aktuell konfrontiert ist. Ende der Woche hat Italiens Datenschutzbehörde dem Unternehmen bis auf Weiteres die Verarbeitung von Daten italienischer Nutzer untersagt. Es fehle unter anderem „die Rechtsgrundlage für eine massenhafte Erhebung und Speicherung personenbezogener Daten, um die der Plattform zugrunde liegenden Algorithmen zu trainieren“, so die Behörde.

Noch deutlich brisanter allerdings scheinen die Erkenntnisse der Europol-Fachleute, was das Missbrauchspotenzial der Plattform durch Kriminelle angeht: So monieren die Ermittler, es gelinge Kriminellen offenbar ohne Probleme, die von den KI-Entwicklern installierten Filter und Schutzmechanismen gegen Missbrauch zu umgehen. Möglich sei das etwa durch komplexe Abfragestrategien oder Schwachstellen in der Zugriffsverwaltung auf die Datenbestände. 

Bereits im Dezember war es Hackern beispielsweise gelungen, ChatGPT so zu manipulieren, dass der Chatbot trotz bestehenden Themenfilters Hinweise zur Herstellung von Molotowcocktails oder einer Bombe gab. „Die dargestellten Anwendungsfälle geben nur einen kleinen Einblick in das, was mit ChatGPT heute schon möglich sind, aber sie lassen erahnen, was in naher Zukunft noch auf uns zukommen könnte – egal ob bei Terrorismus, Propaganda, Betrug oder der Programmierung von Schadcode mithilfe von KI“, warnen die Europol-Experten.

Und noch eine Sorge treibt die Ermittler um: Noch seien die Informationen der KI-Systeme zwar alles andere als fehlerfrei. Aber es sei durchaus denkbar, dass finanzkräftige Hackergruppen mit großer IT-Kompetenz eigene Versionen von LLM-Plattformen aufbauten. 

Kommt bald eine eigene Gauner-KI?

Auf Basis gesicherten Wissens aus Hackerforen und -portalen sowie anderer schädlicher Inhalte könnten Kriminelle im Netz KI-Modelle trainieren, so die Fachleute bei Europol. „Die könnten dann wiederum im Dark Web gehostet werden.“ Auch das ist ein Szenario, vor dem IT-Sicherheitsexperten bereits gewarnt haben: Selbst der Betrieb kommerzieller, krimineller KI-Dienste durch die Schattenwirtschaft im Netz sei denkbar.

Um die Folgen solcher KI-gestützten Verbrechen möglichst zu minimieren, fordern die Kriminalisten nicht bloß die Entwickler der LLM-Plattformen auf, ihre Dienste wirksamer gegen Missbrauch zu sichern und noch rascher als bisher auf entdeckte Schwachstellen zu reagieren. Zugleich müssten auch die Strafverfolgungsbehörden rasch eigene Kompetenzteams aufbauen, die sich mit dem Einsatz von KI-Systemen durch Hacker und Kriminelle befassten. 

Kaffee und Kram Lässt sich Tchibos Niedergang aufhalten?

75 Jahre nach der Gründung bröckelt die Geschäftsbasis von Tchibo. Konzernpatron Michael Herz stemmt sich gegen den Niedergang des Kaffeehändlers.

Eskalation der Geopolitik China bereitet sich auf künftige Sanktionen des Westens vor

China bereitet sich auf eine Eskalation der geopolitischen Konflikte vor – mit massiven Goldkäufen, neuen Handelsrouten und einer verstärkten Abkehr vom Dollar.

Ab ins Umland Die Stadtflucht erreicht eine neue Stufe

Familien und Ältere verlassen schon länger die Städte, um im Umland eine Immobilie zu erwerben. Doch jetzt greift die Stadtflucht auch auf andere Gruppen über.

 Weitere Plus-Artikel lesen Sie hier

Zugleich aber sollten sich die Ermittler die Möglichkeiten mächtigen Sprachmodelle auch selbst erschließen, so das Fazit des Europol-Berichts: „Die KI macht es Kriminellen leichter, verfügbares Wissen für bösartige Zwecke zu missbrauchen, aber sie bietet auch den Strafverfolgern neue Möglichkeiten, gegen die Kriminalität vorzugehen.“

Lesen Sie auch: Der ChatGPT-Entwickler OpenAI wird von Microsoft unterstützt. Konkurrent Google kontert mit seinem Chatbot Bard. Wer hat die Nase vorn?

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%