Vier Monate später als geplant, startet die Deutsche Bahn Mitte Juni doch noch einen umfassenden Versuch zur automatischen Videoanalyse am Berliner Bahnhof Südkreuz. Das erfuhr die WirtschaftsWoche aus dem Kreis der Projektbeteiligten. Ab dem 18. Juni will das Unternehmen untersuchen, wie zuverlässig Software zur Videoauswertung in der Lage ist, in den Bildern von Überwachungskameras gefährliche Situationen auszumachen, ohne dabei allerdings die Gesichter von Passanten zu identifizieren. Stattdessen sollen Algorithmen in den Aufnahmen gefährliche oder ungewöhnliche Situationen erkennen – und so auf mögliche Sicherheitsrisiken schließen oder automatisch Vorfälle erkennen, die den Bahnbetrieb stören könnten.
Ähnlich wie bei einem großen Test der Mannheimer Polizei geht es darum rechtzeitig zu erkennen, wann es wo zu gefährlichen Situationen kommt – ohne dabei auch nur ein einziges Gesicht zu erfassen. Die Technik könnte so für mehr Sicherheit sorgen und den Menschen zugleich die Angst nehmen, dass die Videokameras auch unbescholtene Bürger durchleuchten.
Ursprünglich hatten die Tests bereits im Februar anlaufen sollen. Sie wurden damals jedoch vom Bahnvorstand angesichts anhaltenden Ärgers um Zugausfälle und Verspätungen kurzfristig gestoppt und für unbestimmte Zeit auf Eis gelegt. Zunächst gebe es drängendere Probleme abzuarbeiten, hieß es damals aus der Bahn. Nun aber gibt es nicht bloß aus dem Bahn-Tower grünes Licht für die Tests, sondern auch von den zuständigen Berliner Datenschutzbehörden, die dem Versuch zustimmen mussten. Die Bahnhofsbereiche, in denen der Test läuft – unter anderem die Bahnhofshallen, ein Bahnsteig und die Treppen zum Parkhaus –, sind durch blaue Markierungen gekennzeichnet.
Bis Ende 2019 will die Bahn dort mithilfe von ausgewählten Darstellern in mehr als 1500 Szenarien typische Situationen untersuchen, die den Betrieb beeinflussen könnten. Sei es, dass Personen ins Gleis laufen, Gepäck herrenlos stehen bleibt oder Reisende aufgrund von Schwächeanfällen plötzlich zu Boden fallen. Dabei setzt sie auf Erkennungstechnik mehrerer deutscher und internationaler Technologie- und Spezialanbieter, darunter Funkwerk, G2K, IBM und Hitachi.
Vor der Bahn hatte bereits die Bundespolizei am Südkreuz 2017 Systeme zur Videoanalyse untersucht. Dabei ging es explizit auch darum, bestimmte als „Verdächtige“ definierte Testpersonen im Strom täglich Tausender Reisender zu identifizieren. Anders als bei den hoch umstrittenen Tests der Bundespolizei kommt bei der Bahn nun aber keine Software zur biometrischen Gesichtserkennung zum Einsatz. Nur wenn die Algorithmen in der Masse der Videobilder am Bahnhof potenziell problematische Szenen erkennen, werden die Aufnahmen auf speziellen Kontrollmonitoren angezeigt und die Tester von Bahn und Bundespolizei mit einem Warnton informiert. Nach spätestens 30 Tagen, so versichern die Projekt Beteiligten, würden alle Aufnahmen wieder gelöscht.