Big Data gegen Algen: In den USA entsteht der intelligenteste See der Welt

Big Data gegen Algen: In den USA entsteht der intelligenteste See der Welt

Der Lake George gilt als Perle. Damit das so bleibt, sammeln Forscher gigantische Datenmengen.

Niemand hatte es kommen sehen: Im vergangenen August vermehrten sich im Eriesee im US-Bundestaat Ohio Algen so stark, dass 400 000 Menschen tagelang kein Leitungswasser nutzen konnten. Das Wasser war mit Toxinen verseucht, die unter anderem zu Leberschäden führen können. Schon 2011 schwappte auf dem See ein blau-grüner Teppich aus Algen. Doch die Forscher hatten nicht voraussagen können, dass die Algen 2014 wieder wuchern würden.

Das soll Lake George im Bundesstaat New York nicht passieren. Er gilt als Königin unter Amerikas Seen, sein Wasser soll auch künftig kristallklar in der Sonne funkeln. Deshalb werden mittels massenhafter Datenerhebung über Sensoren im Wasser und an Land, mit Echt-Zeit-Analysen, Supercomputern und komplizierten mathematischen Modellen gefährliche Außeneinflüsse ausgemacht, bevor sie Schaden anrichten können.

Anzeige

 "Intelligentestes Gewässer der Welt"„Lake George ist ein außergewöhnlich sauberer See“, sagt Harry Kolar. Das Wasser hat Trinkqualität und sprudelt auch aus den regionalen Wasserhähnen. Der Physiker arbeitet für den IT-Konzern IBM und forscht im Rahmen des "Jefferson-Project" an Daten-Modellen, die alle Umwelteinflüsse begreifbar und so Gefahren für den See bezwingbar machen sollen. Lake George soll zum intelligentesten Gewässer der Welt werden, sagen die Organisatoren.

Algen, Abwässer, fremde Arten oder auch der Klimawandel – alle diese Faktoren können für die Biodiversität und die Wasserqualität von Flüssen und Seen zu Problemen werden. In den USA ist es um viele Binnengewässer weitaus schlechter bestellt als in Deutschland. Die intensive Landwirtschaft führt in vielen Regionen immer wieder zu einer gefährlichen Vermehrung giftiger Algen.

Schon im Juni 2013 startete das „Jefferson Project“  zur Analyse von Lake George. Rund 40 Computer-Experten, Biologen, Chemiker, Mathematiker und Wissenschaftler aus anderen Bereichen arbeiten an den Modellen, der Technik und den Datenanalysezentren für die Wasser-Forschung.

Bis 2015 sollen vier verschiedene Arten von Mess-Vorrichtungen im See und an dessen Küsten installiert werden. Zwei Varianten sehen aus wie schwimmende Bojen. Daran befestigt sind Sensoren, die die Temperatur, den pH-Wert, den Algen- und Salzgehalt und auch die im See enthaltene Sauerstoffmenge messen. Auf den Bojen befinden sich zusätzlich kleine Wetter-Messstationen. Jede Wetterveränderung registrieren Sensoren-Stationen zudem auch von den Küsten aus. Dort erfassen sie Daten über die Windgeschwindigkeit  und -richtung sowie über Temperatur, Luftfeuchtigkeit und Luftdruck, Regen und die Stärke der Sonneneinstrahlung. Die Daten werden gebündelt, visualisiert und analysiert. „Das meiste davon passiert in Echtzeit“, erklärt Kolar.

Besonders der steigende Salzgehalt bereitet den Wissenschaftlern Sorgen. Denn Streusalz gegen Straßenglätte gelangt über Schmelzwasser auch in den See. Deshalb sollen die computergesteuerten Messbojen registrieren, wie sich das Salz im Wasser bewegt, sagt Kolar.

Die Daten sollen ermöglichen, Risiken von Ersatzstoffen abzuschätzen: „Wenn das normale Salz etwa durch Calciumchlorid ersetzt wird, dann bauen einige Muschelarten das Calciumchlorid in ihre Panzer ein, was zu neuen Problemen führen kann“, sagt Kolar.

Auch Europas Gewässer sind bedrohtAber auch in Europa befindet sich aktuell mehr als die Hälfte aller Flüsse in einem mittelmäßigen oder sogar schlechten Zustand. Bis 2015 sollten die EU-Staaten die Situation der Seen und Flüsse sowie die Qualität des Grundwassers eigentlich deutlich verbessern. Doch es mangelt an Geld und oft an ausreichenden Informationen über die komplexen Ökosysteme.

In Deutschland gibt es bereits ähnliche Forschungsprojekte. Wissenschaftler des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) analysieren in und um Berlin große Datenmengen, um Veränderungen der Spree und der Binnengewässer Stechlin- und Müggelsee besser zu verstehen. Alle 15 Sekunden sammeln Sensoren Daten.

Big Data liefere den Naturforschern mittlerweile Erkenntnisse, die mit kleineren Stichproben bislang nicht möglich waren, erklärt auch Gunnar Nützmann vom IGB. „Grundsätzlich stimmt: Je mehr ich messe, umso dichter ist der Befund“, so der Gewässer-Experte. Manche Veränderungen, die durch den Klimawandel hervorgerufen werden, ließen sich so besser begreifen.

Auch ein Mega-Forschungsprojekt der Helmholtz-Gesellschaft mit dem Namen TERENO (Terrestrial Environmental Observatories) sei ein gutes Beispiel dafür, welche neuartigen Einblicke in die Natur mit riesigen Datenmengen möglich sind, sagt Nützmann.

"Viele Zusammenhänge noch völlig unklar"Die Forschungs-Initiative soll globale Veränderung wie den Klimawandel, knapper werdende Wasserressourcen oder die Veränderung der chemischen Zusammensetzung der Atmosphäre auf lokaler Ebene beobachtbar machen. Dies soll helfen, Frühwarnsysteme für Unwetter und Überschwemmungen zu entwickeln.

Diese Art der datenintensiven Mega-Forschung kann wertvoll sein, um Wasser, eine immer kostbarer werdende Ressource, zu erhalten. Gleichzeitig meint Nützmann aber auch, dass viele Zusammenhänge in Ökosystemen immer noch völlig unklar seien – trotz ausgeklügelter Hochleistungs-Analysen.

Hier ein Youtube-Video des Jefferson-Projekts:

Anzeige
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%