Zähmung der Maschinen So sollen Roboter sicherer werden

Seite 3/3

Definition von Schmerzgrenzen

Seither definieren die Fachleute zum Beispiel erstmals Schmerzgrenzen. Deutschland leistet dabei Pionierarbeit. Führend ist etwa das Magdeburger IFF. Mit einer Art Hammer traktieren die Ingenieure freiwillige Probanden, bis diese Aua rufen. So finden sie heraus, wie empfindlich Menschen auf Druck und Stöße reagieren. Unter strenger Aufsicht einer Kommission gehen sie noch einen Schritt weiter. Im Labor testen sie, wann eine Kollision zu Verletzungen führt.

Die Ergebnisse fließen ein in eine Richtlinie der Internationalen Standardisierungsorganisation ISO. Sie will bis Ende des Jahres Grenzwerte festlegen, wie schmerzhaft ein Zusammenprall sein darf und welche Verletzungen allenfalls auftreten dürfen, wenn Mensch und Maschine trotz aller Vorsichtsmaßnahmen kollidieren: Leichte Schwellungen, Blutergüsse und ein kurzer leichter Schmerz werden voraussichtlich erlaubt, aber auf keinen Fall darf eine offene Wunde entstehen oder gar ein Knochen brechen.

Das Versprechen mancher Hersteller, einen sicheren Roboter anzubieten, kritisiert IFF-Forscher Elkmann gleichwohl als „irreführend“. Wann die bisher schützenden Käfige abgebaut werden können, hänge immer auch von der Anwendung ab, erläutert der Robo-Entwickler und illustriert das an einem Beispiel: Bestückt der Nutzer den Arm der Maschine mit einem spitzen Bohrer, kann er sich in unvorsichtige Finger bohren, bei einem stumpfen Greifer passiert wahrscheinlich nicht viel. Elkmanns Schlussfolgerung: „Die Anwender tragen genau so viel Verantwortung für die Sicherheit.“

Mehr Sicherheit führt zu höheren Kosten

Risikoanalysen und Grenzwerte bilden die Basis, auf der die Hersteller erst entscheiden können, welche Sicherheitstechniken sie den Geräten sinnvollerweise mitgeben. Bei der Strategie können sie auf ein ganzes Arsenal an Möglichkeiten zugreifen. In einem einfachen Szenario darf sich der Roboter nur bewegen, wenn der Mensch ihn führt: entweder per Hand oder etwa über einen Joystick, wie ihn die Piloten haben. Bei einem etwas anspruchsvolleren System überwachen Kameras und Laserscanner die Szenerie; sie bremsen oder stoppen den Roboter ganz, wenn ihm ein Mensch zu nahe kommt. Schließlich lässt sich die Geschwindigkeit des Roboters so kontrollieren, dass selbst eine Kollision glimpflich ausgeht. Natürlich wird nie die ganze Palette zum Einsatz kommen. Sonst würden die Maschinenhelfer so teuer, dass sie unwirtschaftlich sind.

Für viele Anwendungen dürfte es ausreichen, die Arme der Robo-Diener mit einer künstlichen Haut zu überziehen, wie sie Ingenieure des IFF und der Technischen Universität München unabhängig voneinander entwickelt haben: Sensoren spüren genau, wo und wie fest der Roboter angefasst wird. Zusätzlich erzeugen sie ein schwaches elektrisches Feld. Es verrät, wann sich ein Mensch nähert und aus welcher Richtung. Die Maschine kann dann ausweichen, sich nur noch in Zeitlupe bewegen oder anhalten – je nachdem, wie die Situation und das Gefahrenpotenzial es erfordern.

Solange Roboter nur Rasen mähen, Böden saugen und uns in der Fabrik klar definierte Handgriffe abnehmen, braucht niemand um Leib und Leben zu fürchten. Die Technik für einen friedlichen und sicheren Umgang ist heute vorhanden.

Was aber, wenn Forscher die Systeme so aufrüsten, dass sie ständig dazulernen, eigenständig entscheiden und wir ihnen überlassen, uns sicher von A nach B zu fahren? Können wir ihnen dann auch noch vertrauen?

Selbst die US-Technologie-Ikone Elon Musk, Gründer des Elektroautoherstellers Tesla und Vorkämpfer des autonomen Fahrens, hegt Zweifel. Gerade erst hat er der Bostoner Denkfabrik Future of Life zehn Millionen Dollar gespendet. Der Auftrag: Die Experten sollen herausfinden, wie schlaue Roboter beschaffen sein müssen, damit sie den Menschen wirklich nützen.

von Rüdiger Kiani-Kreß, Florian Willershausen

Auch Stuart Russell, Computerforscher an der Universität von Kalifornien und führender Experte für künstliche Intelligenz, sieht kompliziertere Herausforderungen auf uns zukommen. Wie verhindern wir etwa, dass ein autonom agierender Heimroboter beschließt, die Familienkatze im Ofen zu braten, weil die Kinder Hunger haben, der Kühlschrank aber leer ist, fragt er.

Russells Antwort: Wir müssen den Maschinen ethische Regeln mitgeben, um krasse Fehlentscheidungen dieser Art zu verhindern. Noch weiß niemand, wie diese zuverlässig zu definieren sind. Blind zu vertrauen, so viel ist klar, ist spätestens dann keine Alternative mehr.

Inhalt
Artikel auf einer Seite lesen
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%