Big Data – Herausforderung für die Wissenschaft

IPP in Helmholtz-Ausschreibung erfolgreich / Methoden zur Auswertung großer Datenmengen entwickeln

10. Juli 2017

Die Wechselwirkung des Plasmas mit der Gefäßwand ist komplex – eine Fülle von Kenndaten spielt eine Rolle. Bild vergrößern
Die Wechselwirkung des Plasmas mit der Gefäßwand ist komplex – eine Fülle von Kenndaten spielt eine Rolle.

“Umfangreiche wissenschaftliche Datensätze gleichen unerschlossenen Goldminen“, sagt Dr. Jakob Svensson vom IPP-Bereich Stellarator-Dynamik und -Transport. „Die darin enthaltenen Informationen können wegen ihrer schieren Menge und Komplexität mit Standardmethoden häufig nicht vollständig entschlüsselt werden“. Die Herausforderungen, vor denen der Fusionsforscher Svensson steht, wieder­holen sich in ähnlicher Form in anderen Wissenschaften. Sei es personalisierte Medizin, Klimamodellierung oder die Entwicklung selbstlernender Roboter – der Umgang mit riesigen Datenmengen nimmt rasant zu. „Big Data“ gehört damit zu den zurzeit wichtigsten Aufgaben in der Forschung.

Um die vielfältigen Kompetenzen in ihren einzelnen Zentren zu bündeln, hat die Helmholtz-Gemeinschaft deutscher Forschungszentren kürzlich Pilotprojekte im Bereich „Information & Data Science“ ausgeschrieben. In zwei der vier Projekte, die in einem Peer-Review-Verfahren aus 13 eingegangenen Vorschlägen für volle Förderung ausgewählt wurden, ist das IPP vertreten.

Automated Scientific Discovery
So ist Jakob Svensson Koordinator des Projekts „Automated Scientific Discovery“, das von DLR und IPP gemeinsam vorgeschlagen wurde. Mit Methoden der künstlichen Intelligenz, zum Beispiel neuronale Netze oder Bayes’sche Lernsysteme, will man der Komplexität in der Datenflut Herr werden. Diese Methoden sollen auf automatisierte Weise in den Messdaten versteckte Beziehungen entdecken. In einem frühen Stadium des wissenschaftlichen Prozesses soll das zu entwickelnde Werkzeug wertvolle Hinweise liefern, die die Richtung für weitere – dann eher nicht statistisch vorgehende – Forschung weisen können.

Reduced Complexity Models
Das Projekt “Reduced Complexity Models” hat das IPP zusammen mit sechs weiteren Zentren vorgeschlagen. Koordiniert wird es von Professor Corinna Schrum vom Helmholtz-Zentrum Geesthacht. Neue intelligente Methoden sollen helfen, die riesigen Datenmengen komplexer numerischer Simulationen oder hochaufgelöster Messungen zu bewältigen. Sie sollen Unsicherheiten von Simulationen quantifizieren, vereinfachte Modelle liefern und Schlüssel­abhängigkeiten identifizieren.

Das Anwendungsbeispiel aus der Fusionsforschung, das Dr. Udo von Toussaint vom IPP und Dr. Detlev Reiter vom Forschungszentrum Jülich bearbeiten werden: Die Wechselwirkung eines heißen Plasmas mit den Gefäßwänden wird von vielen Effekten bestimmt, die einander beeinflussen. Auf die Wände prallende Plasmateilchen schlagen Atome heraus, die im Plasma nach und nach ionisiert werden, es dabei abkühlen und die weitere Zerstäubung vermindern. Von magnetischen Feldlinien geführt, können die schweren Ionen jedoch auch zurück auf die Wand laufen und dort sekundäre Zerstäubung auslösen. Diese miteinander verketteten Prozesse hängen in ihrem genauen Verlauf von tausenden atomarer und molekularer Kenndaten, Plasma-, Magnetfeld- und Materialeigenschaften ab. Wollte man den realen Vorgang in einer Simulation nachvollziehen – zum Beispiel, um für geplante Anlagen die Belastung der Gefäßwand vorherzuberechnen –  müssten Supercomputer für ein einziges Szenario selbst in einem vereinfachten Modell Wochen bis Monate lang rechnen. Ein Vergleich unterschiedlicher Szenarien ist daher fast unmöglich. Könnte man aber unwesentliche Parameter durch intelligente Statistikmethoden von wichtigen Schlüsselgrößen unterscheiden, würde die zu lösende Rechenaufgabe wesentlich einfacher. Das entwickelte methodische Werkzeug wäre nicht nur für die Fusionsforschung, sondern für viele weitere wissenschaftliche Anwendungen nutzbar.

Imaging at the Limit
Darüber hinaus ist das IPP auch an dem Pilotprojekt „Imaging at the Limit“ beteiligt, das eine Anschubfinanzierung erhält. Koordiniert wird es von dem Helmholtz-Zentrum München und DESY. Hier geht es darum, bildlich visualisierte Daten besser nutzbar zu machen und bestehende Bildgebungsverfahren zukunftsweisend zu verbessern.

 
loading content