Maschinelles Lernen in der numerischen Strömungsmechanik: Ein Interview mit Andrea Beck

Keyvisual image main
Prof. Andrea Beck erforscht das Potenzial der KI mithilfe der Rechensysteme des HLRS.

Künstliche Intelligenz bietet Möglichkeiten für die rechnergestützten Ingenieurwissenschaften, doch neue datenwissenschaftliche Ansätze müssen auf physikalischen Prinzipien beruhen.

Prof. Andrea Beck ist stellvertretende Direktorin des Instituts für Aerodynamik und Gasdynamik der Universität Stuttgart und leitet dort den Bereich Numerische Methoden in der Strömungsmechanik (CFD). Die Luft- und Raumfahrttechnikerin betreibt mit numerischen Methoden Grundlagenforschung zu kompressiblen Strömungen unter extremen Bedingungen, z.B. bei Überschallgeschwindigkeit von Flugzeugen.

Bereits als Postdoktorandin erforschte Beck als eine der ersten, wie sich Methoden des maschinellen Lernens mit groß angelegter Simulationssoftware kombinieren lassen, um die Simulation kompressibler Strömungen zu verbessern. Im Jahr 2023 brachte ihr Labor gemeinsam mit dem HLRS und Hewlett Packard Enterprise (HPE) die Methode Relexi heraus, die Reinforcement Learning nahtlos in ein Strömungssimulationsprogramm integriert. In diesem Interview spricht sie über die möglichen Anwendungen und einige Herausforderungen beim Einsatz von maschinellem Lernen in der Strömungsmechanik sowie über die Chancen, die mit den Supercomputern der nächsten Generation des HLRS für ihre Forschung einhergehen. Das Gesprächsinterview wurde zur besseren Lesbarkeit redaktionell angepasst.

Frau Prof. Beck, Sie beschäftigen sich mit numerischen Methoden in der Strömungsmechanik. Wie lässt sich eine kompressible Strömung simulieren?


Viele Ingenieuranwendungen befassen sich mit Multiskalenproblemen. Sie ähneln dem berühmten Schmetterlingseffekt, bei dem kleine, örtlich begrenzte Änderungen große Auswirkungen haben können. Beispielsweise möchten wir zur Simulation eines fliegenden Flugzeugs ein sehr feines Berechnungsnetz verwenden – im Idealfall ist das gesamte Flugzeug von virtuellen 1-mm-Würfeln umgeben – um mit hoher Präzision zu simulieren, wie eine kompressible turbulente Strömung mit dem Flugzeug interagiert. In der Praxis würde eine Simulation in diesem Maßstab jedoch viel zu lange dauern – selbst mit Systemen der nächsten Generation am HLRS wie Hunter oder Herder. Stattdessen formulieren wir das Problem neu und lösen es auf einer Zwischenskala, der sogenannten Mesoskala.

Bei einer Annäherung auf diese Weise gehen Informationen verloren. Deswegen brauchen wir ein Modell, das die unerfassten, feinskaligen Effekte berücksichtigt. Dies wird manchmal als Skalenüberbrückung oder „Closure Modeling“ bezeichnet. Um ein einfaches Beispiel zu nennen: Ein Kollege hat simuliert, wie Menschen ein Fußballstadion evakuieren. Die Bewegungen der Menschen lassen sich wie ein Wasserstrom modellieren, aber es ist schwierig, einzelne miteinander zusammenstoßende Menschen zu modellieren. Dies ist jedoch wichtig, da schon ein Zusammenstoß zwischen zwei Personen an einer Tür einen Ausgang blockieren könnte. Um diese feinräumigen Effekte wiederherzustellen, verwendete der Kollege in seinem Closure Model Gaußsches Rauschen. Ähnlich verfahren wir bei der Simulation von kompressiblen Strömungen.

Sie haben erforscht, wie sich maschinelles Lernen bei der Identifizierung von Closure Models einsetzen ließe. Was wäre der Vorteil dieses Ansatzes?


Alle technischen Probleme lassen sich mithilfe physikalischer Gesetze beschreiben. Dazu verwenden wir komplizierte mathematische Ausdrücke, die nur mit einem Supercomputer gelöst werden können. Im Laufe der Jahre versuchten Forschende, basierend auf mathematischen und physikalischen Überlegungen Closure Models für Turbulenzen zu finden. Es gibt jedoch noch kein klares und konsistentes Modell, das turbulente Strömungen für alle Fälle umfasst. Stattdessen bestehen viele Modelle und jeder Forscher hat sein Lieblingsmodell.

Gerade bei der Ableitung solcher Modelle kann maschinelles Lernen helfen. Vor einigen Jahren wurden erstmals niedrigdimensionale Merkmale aus hochdimensionalen Datensätzen extrahiert. Wenn genügend Daten aus dem modellierten Prozess entstanden sind, sollten alle notwendigen Informationen über physikalische Gesetze in den Daten enthalten sein.

Wo sehen Sie derzeit die Grenzen des maschinellen Lernens für CFD?


Die Natur unterliegt zwar stets der Physik, doch maschinelles Lernen repliziert diese Daten nicht direkt, sondern nimmt nur Annäherungen auf Basis von erlernten Daten vor. Für sehr spezifische Fälle lassen sich mithilfe von maschinellem Lernen erstaunlich genaue Modelle erstellen. Für technische Anwendungen wollen wir jedoch Modelle des maschinellen Lernens, die nicht nur reproduzieren, was wir gemessen haben, sondern uns auch zuverlässige Antworten in Situationen geben, für die wir während des Lernprozesses keine Daten zur Verfügung gestellt haben.

Meiner Meinung nach haben wir etwas zu sehr daran geglaubt, dass Daten allein uns die Wahrheit vorhersagen können. Maschinelles Lernen funktioniert wie eine Black Box. Daher kann nicht ausgeschlossen werden, dass die Ergebnisse gegen grundlegende physikalische Gesetze verstoßen. Die Tatsache, dass zwei Menschen beim Zusammenstoß nicht miteinander verschmelzen, ist ein physikalisches Gesetz, aber ein neuronales Netz weiß das nicht. Oder um ein Beispiel aus der Luft- und Raumfahrttechnik zu nehmen: Ein Algorithmus für maschinelles Lernen muss wissen, dass die Schwerkraft gerade nach unten zeigt und nicht in einem leichten Winkel. Ein naiver Algorithmus kann dies jedoch nicht unbedingt allein aus den Daten erkennen. Aus diesem Grund brauchen wir Modelle, die physikalische Beschränkungen enthalten. Nur auf diese Weise wissen wir, dass das Modell die Schwerkraft korrekt wiedergibt.

Vor ein paar Jahren gingen Forschende davon aus, dass wir anstelle von Simulationen nur noch maschinelles Lernen brauchen würden. Jetzt sehen wir jedoch, dass wir von rein datengesteuerten Modellen zu physikalisch konsistenten und datengestützten oder -informierten Modellen übergehen müssen. Die Daten sollten uns dabei helfen, die Modelle in die richtige Richtung zu lenken. In meinem Labor behalten wir die ursprünglichen Simulationsmethoden bei und verwenden maschinelles Lernen als Hilfsmittel, das einige Teile der Gleichung ersetzt, wenn wir die physikalischen Eigenschaften kennen.

Können Sie ein Beispiel für ein physikalisch konsistentes, datengesteuertes Modell aus der Praxis nennen?


In dem gemeinsam mit dem HLRS und HPE entwickelten Ansatz Relexi kombinieren wir traditionelle Simulationsansätze und maschinelles Lernen in einer Methode. In einer Flugzeugturbine gibt es zum Beispiel langsame, heiße und kalte Strömungen, und die Turbine kann Wasser oder Dampf enthalten. Die Physik reagiert sehr empfindlich auf kleinste Veränderungen. Die Dimensionalität des Problems ist so groß, dass wir kaum lange Listen von Datentabellen erstellen können, die dem Algorithmus sagen: „Wenn du dies siehst, gib das aus.“

Aufbau von Relexi: Simulationsdaten aus FLEXI werden in einen Reinforcement-Learning-Algorithmus eingespeist und dienen als Trainingsdaten für die Optimierung der Parameter eines Turbulenzmodells. Das Turbulenzmodell sagt dann die Wirbelviskosität als Eingangsdaten für die größere FLEXI-Simulation voraus, die wiederum Daten für eine weitere Trainingsrunde erzeugt. Durch die Erzeugung vieler FLEXI-Instanzen über mehrere Iterationen konvergiert die Optimierung des Turbulenzmodells zu einem Punkt, an dem die Simulation stabil und genau bleibt. Die Wissenschaftler können dann sicher sein, dass ihr Modell auch für andere Anwendungen geeignet ist. Bild mit freundlicher Genehmigung des Relexi-Entwicklungsteams.

Stattdessen verwenden wir weiterhin den bewährten High-Order Flow Solver FLEXI, der nun auch ein auf Reinforcement Learning basierendes Modell enthält. Dazu muss der Flow Solver mit einem Modell für maschinelles Lernen in der Programmschleife laufen. Das maschinelle Lernmodell erkennt, welche Aktionen der Solver durchgeführt und welche Ergebnisse er erzielt hat. Dies erfordert eine effiziente HPC-Implementierung – das Programm läuft auf der CPU, das maschinelle Lernmodell auf der GPU. Beide müssen ständig miteinander kommunizieren und Daten über den Lernprozess, das aktuelle Modell und die beobachteten Ergebnisse austauschen. Ich lasse meinen Solver mit meinem untrainierten maschinellen Lernmodell laufen und prüfe, ob die Ausgabe meinen Erwartungen entspricht. Ist dies nicht der Fall, so verbessert sich das maschinelle Lernmodell selbst.

Dieser Prozess ist vergleichbar damit, wie jemand Fahrradfahren lernt. Wenn Sie sich zum ersten Mal auf ein Fahrrad setzen und in die Pedale treten wollen, fallen Sie in der Regel um. Gleichzeitig spüren Sie jedoch, dass Sie etwas richtig gemacht haben. Sie können diese Strategie dann verbessern und wiederholen, bis Sie sturzfrei fahren. Übertragen auf ein physikalisches Modell würde die Simulation Komponenten des Systems umfassen, die die Konfiguration des Fahrrads, die Schwerkraft und Ihre Physiologie beschreiben. Maschinelles Lernen würde diese Informationen nutzen, um zu verstehen, wie Sie Ihre Gelenke bewegen müssen. Auf diese Weise werden auch Roboter oder selbstfahrende Autos trainiert.

Die neuen Supercomputer am HLRS werden mehr Grafikprozessoren enthalten, die sowohl die Simulationen beschleunigen als auch die Kombination von Simulationen und maschinellen Lernmethoden erleichtern könnten. Was bedeutet das für die Zukunft Ihrer Forschung?

Die KI-Revolution der vergangenen zehn Jahre war nur möglich, weil GPUs für die notwendigen mathematischen Operationen so gut geeignet sind. Relexi läuft bereits auf den KI-Komponenten von Hawk. So haben wir schon gute Erfahrungen mit verschiedenen Architekturen gesammelt und sind uns ihrer unterschiedlichen Stärken bewusst. Uns wird zugutekommen, dass der Code und die Anwendungen des maschinellen Lernens bereits auf der GPU laufen.

Die künftige GPU-beschleunigte Architektur am HLRS ist interessant, da unser Code mit der höheren Rechenleistung um zwei Größenordnungen schneller laufen wird. Damit geht einher, dass die von uns zu lösenden Fragestellungen ebenfalls um zwei Größenordnungen zunehmen werden. Um beispielsweise das Fliegen nachhaltiger zu gestalten, wird das Flugzeug der Zukunft ganz anders aussehen als heutzutage. Die Vorhersage der Strömungsphysik von solchen Flugzeugen ist aktuell noch nicht realistisch abbildbar. Daher verwenden wir weiterhin Näherungsmethoden. Mit Herder oder vielleicht sogar Hunter werden wir in der Lage sein, schwierige Strömungssituationen über die gesamte Tragfläche eines Flugzeugs in einem bislang unmöglichen Detailgrad zu berechnen. Dadurch könnten wir auch Strömungssituationen unter gefährlichen Umständen besser vorhersagen.

Die Portierung auf die neue Architektur von Hunter und Herder wird eine Herausforderung. Wir müssen den größten Teil unseres Codes überarbeiten, die meisten Datenstrukturen und alle Schleifen überdenken, was viel Zeit und Mühe kostet. Positiv ist jedoch, dass wir einen deutlich größeren Umfang an Berechnungen durchführen können werden.

Wir freuen uns auf die Zukunftsperspektiven, die uns die neuen Supercomputergenerationen des HLRS bieten. Wir werden in der Lage sein, schneller und effizienter Ergebnisse zu erzielen. Die Luft- und Raumfahrttechnik durchlebt gerade eine aufregende Zeit: Neue Ideen und Architekturen werden unglaublich schnell erforscht, beispielsweise der Überschalldemonstrator X59 der NASA und der Vorstoß in Richtung elektrifiziertes Fliegen. Wir brauchen Simulationstools, die damit Schritt halten können!

Interview: Christopher Williams