Intel schnappt sich Movidius: Computer sollen sehen lernen
Intel kauft das KI-Start-up Movidius
Foto: REUTERSGroße Innovationen haben im digitalen Zeitalter mitunter winzig kleine Maße. Die Neuheit etwa, die Remi El-Ouazzane beim Treffen mit der WirtschaftsWoche vor ein paar Wochen in Berlin aus der Jackettasche zieht, hat das Format eines Fingernagels: Myriad, ein cleverer Computerchip. "Damit", sagt El-Ouazzane, Chef des Start-ups Movidius aus der irischen Hauptstadt Dublin, "bilden wir Ihren visuellen Kortex nach."
Das ist ein großes Wort. Der visuelle Kortex, das ist immerhin jener Teil des Großhirns, in dem die Sehfähigkeit angesiedelt ist. Gelingt es, ihn in Silizium zu pressen, könnten Computer lernen, die Welt zu sehen, ähnlich wie der Mensch. Das eröffne, schwärmt El-Ouazzane, "eine Fülle neuer Möglichkeiten."
Davon ist offenbar auch der Chiphersteller Intel überzeugt. Wie das Unternehmen am Montag bekannt gab, plant Intel die Übernahme von Movidius für eine nicht genannte Summe. Intel möchte damit sein Portfolio in Computer Vision und der KI-Technik Deep Learning stärken. Im Mai hatte Intel bereits das Computer-Vision-Start-up Itseez gekauft und im vergangenen Herbst das KI-Start-up Saffron. Im Januar kaufte Intel das deutsche Drohnen-Unternehmen Ascending Technologies.
Im Geschäft persönlich vom Roboter begrüßt zu werden - auch das kann bald für mehr Menschen Realität sein. „Pepper“ hat Knopfaugen, und er ist in astreinem Deutsch recht schonungslos: „Meiner bescheidenen Meinung nach ist dieses Modell nicht besonders schmeichelhaft für Ihre Figur. Dürfte ich Ihnen ein paar neu eingetroffene Modelle zeigen, die mir für Sie besonders gut gefallen?“ Eigene Infos werden per QR-Code auf dem Smartphone gespeichert, den der Roboter im Geschäft dann scannt. In Japan ist Pepper (von SoftBank) bereits aktiv.
Foto: dpa„iPal“ ist ein künstlicher Freund und Spielgefährte. Der Roboter ist so groß wie ein sechsjähriges Kind. Er kann singen und tanzen, Geschichten vorlesen und spielen.
Durch Gesichtserkennung und automatisches Lernen wird „iPal“ mit der Zeit immer schlauer. Er erinnert sich an Vorlieben und Interessen des Kindes. „iPal“ ist keine gefühllose Maschine“, behauptet John Ostrem vom Hersteller AvatarMind. „Er kann Emotionen erspüren und fühlt, wenn das Kind traurig ist.“ Der Roboter, der in rosa oder hellblau angeboten wird, übernimmt auch gleich ein paar vielleicht leidige Erziehungspflichten: Der eingebaute Wecker holt das Kind aus dem Schlaf. Die Wetter-App sagt ihm, was es anziehen soll, und eine Gesundheits-App erinnert ans Händewaschen.
„iPal“ wurde vor allem für den chinesischen Markt entwickelt. Ostrem erläutert: „Dort gibt es in den Ein-Kind-Familien viele einsame Kinder, deren Eltern wenig Zeit haben und die einfach niemanden zum Spielen haben.“ Anfang 2016 soll es „iPal“ dort für etwa 1000 US-Dollar (knapp 900 Euro) geben.
Foto: dpaWer auf Reisen die Zahnbürste vergessen hat, kann sie bald von einer freundlichen Maschine aufs Zimmer gebracht bekommen. „Relay“, der Service-Roboter, wird in einigen US-Hotels im Silicon Valley getestet. Die Rezeptionistin legt Zahnbürste, Cola oder Sandwich in eine Box im Roboter, dann gibt sie die Zimmernummer des Gastes ein. „Relay“ kann sich selbst den Fahrstuhl rufen – auch wenn er noch ziemlich lange braucht, um wirklich einzusteigen. Er scannt vorher sehr ausgiebig seine gesamte Umgebung, um ja niemanden umzufahren. Vor der Zimmertür angekommen, ruft der Roboter auf dem Zimmertelefon an.
Wenn der Hotelgast öffnet, signalisiert ihm „Relay“ per Touchscreen: Klappe öffnen, Zahnbürste rausnehmen, Klappe wieder schließen. „Das Hotel ist für uns erst der Anfang“, sagt Adrian Canoso vom Hersteller Savioke. „Wir wollen „Relay“ auch in Krankenhäuser, Altenheime und Restaurants bringen, einfach überall dahin, wo Menschen essen oder schlafen.“
Foto: PR„Budgee“ trägt die Einkäufe und rollt hinterher. Per Funksender in der Hand oder am Gürtel gesteuert, kann er bis zu 22 Kilogramm schleppen, so der US-Hersteller. Er folgt Herrchen oder Frauchen mit mehr als 6 Kilometern pro Stunde. Die Batterie hält angeblich zehn Stunden. „Budgee“ lässt sich zusammenklappen und im Kofferraum verstauen. Die ersten Vorbestellungen werden ausgeliefert, Stückpreis rund 1400 US-Dollar.
Foto: PRRoboter können nicht nur Einkäufe schleppen, sondern auch für viele Menschen unliebsame Arbeiten im Haushalt abnehmen – und damit sind nicht nur die Staubsaug-Roboter gemeint. Der „PR2“ des Institute for Artificial Intelligence (IAI) der Universität Bremen kann auch in der Küche zur Hand gehen, zumindest in der Laborküche.
Foto: dpaJa, heutige Roboter können bereits feinmotorische Aufgaben übernehmen und etwa zuprosten, ohne dass das Sektglas zu Bruch geht. Das ist aber nicht die Besonderheit an diesem Bild. Der Arm rechts gehört Jordi Artigas, Wissenschaftler am Institut für Robotik und Mechatronik des Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Oberpfaffenhofen bei München. Der Roboterarm wird von Sergei Wolkow gesteuert – und der war nicht in Oberpfaffenhofen, sondern auf der Internationalen Raumstation ISS, wie im Hintergrund auf dem Monitor schemenhaft zu erkennen ist. Der „Tele-Handshake“ war nach Angaben des DLR ein weltweit einzigartiges Experiment.
Foto: dpaSolche Aufgaben, wie etwa dieses Zahnrad zu greifen und weiterzugeben, konnte der DLR-Roboter „Justin“ schon 2012. Dass er aus dem All gesteuert wird, ist jedoch neu und bislang einzigartig.
Foto: dpaNeben Spielereien von Wissenschaftlern gibt es aber auch schon konkrete Anwendungen für Roboter, die Menschen helfen. Der „Personal Robot Jaco“ zon Focal Meditec zum Beispiel soll Menschen mit Behinderung individuelle Hilfe leisten – auch das feinmotorisch anspruchsvolle Aufschrauben von Wasserflaschen aus dünnem Kunststoff gehört dazu.
Foto: dpaEtwas verspielter geht es in Japan zu. Hier tanzen rund 100 Roboter bei einem Werbe-Event zum Start eines Roboter-Magazins. Die „Robi“ erscheint seit Januar 2015 jede Woche.
Foto: dpaDoch auch in Japan geht es nicht nur verspielt zu. Aiko Chihira ist eine Mitarbeiterin am Info-Desk in einem Einkaufsladen in Tokio. Und sie ist ein Roboter. Sie kann sich bewegen, sprechen und den Kunden beratend zur Seite stehen.
Foto: dpaAuch aus der Medizin sind Roboter nicht mehr wegzudenken. Mit dem Da-Vinci-Operationssystem werden zum Beispiel minimal-invasive Operationen im urologischen und gynäkologischen Bereich durchgeführt. In Deutschland ist das System in 52 Kliniken im Einsatz, in den USA an mehr als 1400.
Foto: dpaMit Roboter kann auch der Einsatz von Düngemittel und Unkrautvernichtern in der Landwirtschaft reduziert werden. Der Abgrarroboter Bonirob von Bosch fährt über das Feld und kann dabei automatisch erkennen, welche Pflanze unter ihnen eine Nutzpflanze ist und was Unkraut. Die Roboter sind noch im Entwicklungsstadium, 2018 könnten sie kommerziell in den Markt kommen.
Foto: dpaAn anderen Stellen sind Roboter in der Landwirtschaft bereits Realität. Nicht nur Felder werden automatisch gemäht, auch Kühe ohne menschliches Zutun gemolken.
Foto: dpaIn der Produktion werden Roboter seit Jahren eingesetzt – allerdings meist für schwere Lasten und in abgesperrten Sicherheitskäfigen. Inzwischen holen die Hersteller die Roboter aus diesen Käfigen und lassen sie direkt mit den Menschen zusammenarbeiten. Im Bild ist der Kleinroboter YuMi (für You and Me) von ABB, der im vergangenen Jahr auf der Hannover Messe vorgestellt wurde. Die Schweizer sind aber nicht der einzige Anbieter von diesen sogenannten kollaboraitven Robotern.
Foto: dpaAuch Kuka hat einen solchen Roboter im Angebot, wenn auch „nur“ mit einem Arm. Beide Roboter eignen sich für kleinteilige Aufgaben, etwa bei der Smartphone-Montage oder wie hier im Bild auf dem VW-Messestand 2015, wo der Kuka-Roboter Lagerschalen in einen Motorblock einsetzt.
Foto: dpaBislang kannte man Produktionsroboter eher so: Schwere, automatisierte Metallarbeiten am Fließband in einem Schutzkäfig. Die Roboter ermüden nicht und setzen auch noch den tausendsten Schweißpunkt so exakt wie den ersten. Eine moderne Autoproduktion, zumindest bei Volumenmodellen wie dem VW Golf im Bild, wäre ohne Roboter nicht mehr denkbar.
Foto: dpa
Die Übernahmen sollen einen Kurswechsel fördern, mit dem sich Intel vom schrumpfenden PC-Geschäft neuen Computerplattformen zuwenden will: Selbstfahrenden Autos, Drohnen und der virtuellen Realität. Der Zeitpunkt, Maschinen das Sehen beizubringen, ist besser denn je: Kameras sind spottbillig und so klein, dass sie in jedes Gerät passen. Algorithmen für künstliche Intelligenz (KI) erkennen Gegenstände in Bildern so treffsicher wie Menschen. Einzig bei den Computerchips haperte es bis vor Kurzem noch. Sie waren bislang nicht schnell und sparsam genug, um die Abermillionen Rechenschritte auch in Handys oder Drohnen durchzuführen.
Der Myriad-Chip von Movidius passt perfekt in diese neue Maschinenwelt: Das Start-up hat seinen Prozessor darauf getrimmt, Videobilder viel schneller als bestehende Computerchips auszuwerten. "Wir starteten mit Software; am Ende bauten wir die eigene Hardware", erinnert sich El-Ouazzane. Und die punktet mit Sparsamkeit: Weniger als ein Watt Leistung zieht der Chip. Optimal, um damit Drohnen, Roboter oder Datenbrillen auszustatten, die mit Akkus unterwegs sind.
In der Kameradrohne Phantom 4 des chinesischen Herstellers DJI wertet der Chip bereits die Bilder zweier Kameras aus, die in den Beinen des Fliegers stecken. Gestützt auf die Umfelderkennung, weicht das Fluggerät nun wie ein Insekt Bäumen und Wänden aus. Es erkennt Personen am Boden und folgt ihnen. Und es fliegt automatisch zu Objekten, die der Pilot auf dem Kamerabild im Smartphone antippt.
86,5 Millionen Dollar Wagniskapital haben Investoren laut CB Insights in Movidius gesteckt, darunter Robert Bosch Venture Capital aus Deutschland. Auch Google setzte auf die Technik der Iren und wählte das Start-up als Partner für sein Projekt Tango. Dessen Ziel ist, Handys zu bauen, die in Echtzeit 3-D-Karten ihrer Umgebung erstellen. Smartphones sollen erkennen, wo das Telefon im Raum ist, was für Gegenstände vor ihm liegen und wie weit sie weg sind. Damit sollen etwa Computerspiele möglich werden, die Realität und Pixelwelt verschmelzen. 30 Mrd. Dollar Umsatz soll Hard- und Software zur Bilderkennung im Jahr 2020 erwirtschaften.
Die "MIT Technology Review", das Technikmagazin der US-Eliteuni Massachussetts Institute of Technology, wählte die Dubliner in seine Liste der 50 smartesten Unternehmen des Jahres. Auch Martin Reynolds, Analyst beim Marktforscher Gartner, sieht großes Potenzial für die Sehchips.
"Der Markt für Bilderkennungshardware wird enorm groß", sagte Reynolds der WirtschaftsWoche bereits vor zwei Wochen. "Aber Movidius bekommt Konkurrenz und muss seine Technologie daher sehr schnell weiterentwickeln." Auch der Grafikkartenhersteller Nvidia etwa baut mit Google KI-Chips.
Fachforum Autonome Systeme (FAS)
Roboter entwachsen der Fabrik und gelangen nach und nach in unseren Alltag. Einen Ausblick darauf bietet das Fachforum Autonome Systeme auf der Hannover Messe. Henning Kagermann, FAS-Sprecher und Acatech-Präsident, und Fraunhofer-Präsident Reimund Neugebauer stellen Forschungsministerin Johanna Wanka am 25. April einige vielversprechende Prototypen aus Deutschland vor. „Roboter und autonome Systeme können uns sehr nützen, wenn wir sie richtig einsetzen. Dazu brauchen wir noch weitergehende Forschung, die uns in die Lage versetzt, die Vierte Industrielle Revolution erfolgreich gestalten und auch neue Arbeitsplätze schaffen zu können“, sagte Wanka der WirtschaftsWoche. Ersetzen können autonome Systeme den Menschen aber nicht, sagte Kagermann der WirtschaftsWoche. „Ihnen fehlt Alltagsintelligenz und Intuition. Der Mensch wird die Ziele vorgeben, die dann von Maschinen innerhalb ihres Handlungsspielraums ausgeführt werden.“
Foto: dpaABB YuMi
Um den Anforderungen an eine vollflexible Fertigung in der Elektronik- und anderen Industrien gerecht zu werden, hat ABB mit YuMi einen kollaborierenden Zweiarm-Roboter für die Kleinteilmontage entwickelt. Er arbeitet so genau, dass er sogar einen Faden durch ein Nadelöhr führen kann. Der Roboter kann mit dem Menschen Hand in Hand arbeiten, wodurch die Produktion flexibel gestaltet werden kann. Seine Reichweite entspricht dabei in etwa der des menschlichen Arms. Der Platzbedarf für eine Automatisierungslösung mit YuMi lässt sich so auf ein Minimum reduzieren. Die innovative Lead-Through-Programming-Technologie sorgt für eine erhebliche Verkürzung der Programmierzeiten.
Schunk Fünf-Finger-Hand
Greifsysteme, die derzeit in der Industrie im Einsatz sind, sind meist auf ein bestimmtes Werkstück ausgelegt – mehr kann ihr Greifmechanismus nicht. Soll ein Roboter flexibel eingesetzt werden, muss er auch ohne lange Umrüstzeiten unterschiedliche Bauteile greifen können. Der Demonstrator einer Fünf-Finger-Hand von Schunk kann genau das – bis hin zu einer Stecknadel.
Foto: Schunk GmbH & Co. KGDLR IPS-Box
Selbstfahrende Autos müssen den Verkehr um sich herum zuverlässig erfassen und interpretieren können. Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) hat eine integrierbare Sensorbox entwickelt, die mit Kameras, Ortungssensoren und innovativen Algorithmen die Situation um das Auto in Echtzeit erfassen und verarbeiten kann. Das Integrated Positioning System (IPS) wird auf dem Dach montiert und kann mittels der hochauflösenden Stereokamera Objekte identifizieren und mit seiner Software klassifizieren und charakterisieren.
Foto: DLR-Institut für Verkehrssystemtechnik (CC-BY 3.0)Smart Home
Das vernetzte Haus ist seit Jahren in aller Munde – durchgesetzt hat es sich auf dem Massenmarkt aber noch nicht. Vielen Hausbesitzern war bislang die Installation und Konfiguration zu kompliziert. Die Hager Group stellt ein System vor, dass die Nutzer ohne Hilfe installieren können sollen. Das Plug-and-Play-Funksystem soll zum Beispiel auch mit der bekannten „Netatmo“-Wetterstation kompatibel sein. Dank offener Standards soll sich das System auch in bestehende Installationen integrieren lassen.
Foto: HagerFraunhofer Dedave
Wasser bedeckt mehr als 70 Prozent der Erdoberfläche. Aufgrund der am Meeresboden herrschenden menschenfeindlichen Bedingungen (pro zehn Meter Wassertiefe steigt der Druck um rund ein Bar) sind aber weniger als fünf Prozent der Tiefsee erforscht und kartiert. Maschinen kommen in der Tiefsee wesentlich besser zurecht als Menschen. Aktuelle Marktstudien prognostizieren für autonome Unterwasserfahrzeuge (AUV) deshalb in wenigen Jahren eine Vervierfachung der Umsätze. Der Deep Diving AUV for Exploration (Dedave) ist ein vom Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB entwickeltes flexibles Tiefsee-AUV. Dedave kann Unterwasserkarten erstellen, marine Sedimente untersuchen sowie andere Inspektionen und Vermessungen vornehmen. Anwendungsgebiete sind die Meeresforschung, die Vorbereitung der Verlegung von Tiefseekabeln und Pipelines, deren Inspektion im Betrieb, der Tiefsee-Bergbau sowie die maritime Öl- und Gasförderung. Das Unterwasserfahrzeug kann bis zu 6000 Meter tief tauchen und Missionen mit bis zu 20 Stunden Dauer durchführen.
Foto: Fraunhofer IOSBAMFIS
Der mobile Leitstand für Aufklärung mit mobilen und ortsfesten Sensoren im Verbund (AMFIS) wurde vom Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB für heterogene mobile Systeme entwickelt. AMFIS soll fahrende, fliegende oder schwimmende Anwendungen gezielt disponieren und kontrollieren, etwa bei der Erkundung menschenfeindlicher Umgebungen, beim Katastrophenschutz oder bei der Überwachung. Die angebundenen autonomen oder teilautonomen Systeme können über grafische Interfaces auf einheitliche Weise beauftragt und kontrolliert werden. Der einsatzfertige Leitstand ist in einem Mercedes Sprinter untergebracht und verfügt über Schnittstellen zu anderen Leitzentren.
Foto: Fraunhofer IOSBamp.Q1
Der vom Fraunhofer IOSB entwickelte „IOSB.amp.Q1“ steht exemplarisch für einen in das System integrierten Landroboter, ein Unmanned Ground Vehicle (UGV). Das Gerät kann autonom eine unbekannte Umgebung multisensoriell mittels Video, Infrarot und Lidar erkunden sowie 3D-Karten erstellen.
Foto: Fraunhofer IOSBmd4-3000
Ein Beispiel für einen modernen Flugroboter stellt der md4-3000 dar. Der Quadrokopter wurde von Microdrones entwickelt und kann autonom mit Nutzlasten von bis zu rund 4 Kilogramm etwa 45 Minuten in Höhen bis 4000 Meter fliegen.
Foto: Microdrones GmbHSeaCat
Der Unterwasserroboter SeaCat von Atlas Elektronik kann mit diversen austauschbaren Köpfen für die Seebodenkartierung, Inspektionen oder das Auffinden von Chemikalien in Wassertiefen bis 600 Meter autonom oder ferngesteuert bis zu 20 Stunden agieren. SeaCat kann dadurch unter anderem für die Beseitigung von Altlasten, das Aufspüren von Minen, die Inspektion von Windenergieanlagen, den Hafenschutz oder Pre-Lay Surveys für Kabel und Pipelines eingesetzt werden.
Foto: Atlas Elektronik GmbHDFKI Mantis
Autonome Systeme müssen sich schnell auf unvorhergesehene Situationen einstellen und in diesen adäquat handeln können. Dafür müssen sie in der Lage sein, ihre Verhaltensmodelle gemeinsam mit der Hard- und Software abzustimmen und sich somit dynamisch zu rekonfigurieren. Dies ist die Zielsetzung des vom Bildungsministerium geförderten DFKI-Projektes D-Rock. Demonstriert wird der D-Rock-Ansatz anhand von Mantis, einem mehrgliedrigen Laufroboter, der vom DFKI entwickelt wurde. Er kann Objekte bewegen und so beispielsweise bei Katastropheneinsätzen in schwer zugänglichem Gelände bei der Bergung von Überlebenden helfen oder im Team mit anderen Robotern beim Rückbau von Kernkraftwerken eingesetzt werden.
Foto: DFKI GmbH
Intel könnte die Movidius-Technik auch für seine kürzlich vorgestellte Virtual-Reality-Brille brauchen. Die Brillen nämlich müssen jederzeit genau berechnen, wohin ihr Nutzer schaut. Mit dem Movidius-Chip klappt das auf ein Grad genau. Dazu analysiert er die Bilder von Kameras, die in der Brille angebracht sind und den Raum filmen.
Das soll nur der Anfang der Movidius-KI sein. "Dieses Jahr bringen wir Maschinen bei, Gegenstände zu sehen", sagte El-Ouazzane unlängst der WirtschaftsWoche, "nächstes Jahr, sie zu identifizieren." Drohnen können dann nicht nur autonom um Ölplattformen herumfliegen, sondern sie auch selbstständig inspizieren. Logistikroboter könnten Pakete greifen und ausliefern. Und selbstfahrende Autos würden den Lastenträgern verlässlich ausweichen.