Die Energiezukunft ist regenerativ. Wie sich der Mix aus Sonne-, Wind- und Wasserkraft zusammensetzt, ist heute noch ungewiss. Aber sicher ist: Die Energieformen müssen gut ineinander umwandelbar sein. Allerdings treten dabei hohe Verluste auf – vor allem ist die Grenzfläche zwischen Materialien entscheidend beteiligt. Genau hier setzen die e-conversion-Wissenschaftler aus unterschiedlichen Fachdisziplinen an. Der TUM-Forscher Prof. Patrick Rinke gilt als einer der Pioniere für Maschinelles Lernen (ML) in der Materialforschung. Bei e-conversion möchte er nun die digitale Transformation vorantreiben und damit die Suche nach neuen Energiematerialien mithilfe von KI enorm beschleunigen.

„Materialentwicklung, Katalyse, Batterien. Viele Gruppen bei e-conversion beschäftigen sich mit Prozessen, in denen Daten zentral sind: Wir sind gerade dabei, uns mit vielen Gruppen zu vernetzen“, sagt Prof. Patrick Rinke. Er leitet an der TUM den Lehrstuhl für KI basierte Materialwissenschaften. (Foto: privat)

Ihre Forschung vereint heute maschinelles Lernen, Data Science und Materialwissenschaften. Was hat Sie ursprünglich in diese Richtung gezogen?

Mich haben mathematische Strukturen und theoretische Berechnungen schon immer interessiert,  z.B. was Materie auf atomarer Ebene zusammenhält und wie man das rechnerisch beschreiben kann. Bereits im Masterstudium an der University of York in England faszinierte mich die Elektronenstrukturtheorie und atomistische Modellierungen. Während meiner Promotions- und Postdoc-Zeit habe ich dann immer mehr Methoden dazu gelerntinsbesondere am Fritz-Haber-Institut (FHI) in Berlin. Dort ging es um Oberflächen, organische Moleküle auf Halbleitern und die Weiterentwicklung theoretischer Werkzeuge. Das FHI war und ist ein außergewöhnlicher Ort, sehr international, stark vernetzt, und über diese Netzwerke kam ich auch nach Kalifornien an die University of California, Santa Barbara. Die Zeit am FHI hat mich sehr geprägt – und die Basis für meine jetzige Forschung gelegt. Dort wurde auch schon früh mit der Forschung zu maschinellen Lernmethoden begonnen. Das hat mich fasziniert, und diese Faszination habe ich mit nach Helsinki genommen.

Sie sind 2014 an die Aalto University in Helsinki gegangen. Wie kam es dazu?

Ich war Gruppenleiter am FHI und habe überlegt: Wie geht es weiter? Und dann kam ein Angebot der Aalto University – inklusive einer passenden Position für meine Partnerin. Das war ein klassischer Dual-Career-Moment. Ich habe fast zehn Jahre in Helsinki verbracht. In dieser Zeit wurde ich auch Full Professor und habe angefangen, maschinelles Lernen und Data Science systematisch in die Materialwissenschaften zu integrieren. Erste Ansätze dafür gab es auch am FHI schon, aber in Finnland hatten wir mit dem Finnish Center for Artificial Intelligence und herausragenden Kollaborationspartnern aus der Informatik ein ideales Umfeld, um das Ganze weiterzuentwickeln und die Fachdisziplinen miteinander zu verknüpfen. Wir haben uns dann auch immer stärker von der atomistischen Modellierung wegbewegt und systematisch damit begonnen Labor- und Messdaten zu digitalisieren. Mit der Aalto Materials  Digitalization (AMAD) Platform haben wir eine materialwissenschaftliche Dateninfrastruktur an der Aalto Universitgeschaffen und etabliert und diese dann in KI-gesteuerte Materialsynthese und Charakterisierungsprozesse integriert. 2023 haben wir mit AMAD den Aalto Open Science Award gewonnen.   

Was hat Sie an den datenbasierten Materialwissenschaften besonders gereizt?

In den 2010er-Jahren war das noch ein Feld, das kaum jemand im Blick hatte. Ich habe schnell gemerkt, welches Potenzial darin steckt: Viele Materialprobleme sind hochdimensional und experimentell nur sehr mühsam zugänglich. Gleichzeitig entstehen überall Daten – aus Experimenten, Simulationen, Messreihen. Aber sie waren oft nicht digitalisiert. Man muss wissen: Finnland hat eine große Tradition in der Holz- und Biomaterialforschung – und dort wollten viele Gruppen weg von Excel-Tabellen und hin zu echten digitalen Workflows. Hier konnten wir mit maschinellem Lernen, kurz ML, wunderbar ansetzen: Strukturen finden, Korrelationen sichtbar machen und die Forschung beschleunigen. Gleichzeitig entwickelte sich das maschinelle Lernen insgesamt rasant weiter. Wir haben deshalb begonnen, ML-Modelle direkt in den Forschungsworkflow zu integrieren, um Eigenschaftsvorhersagen, das Strukturscreening und die Optimierung von Materialien zu beschleunigen. Unsere eigene Bayesian Optimierungssoftware (BOSS) war dabei entscheidend. Rückblickend war die systematische Digitalisierung entscheidend: Viele Fragen, die damals visionär wirkten, sind heute Standard der datengetriebenen Materialforschung. 

Sie haben die große Dateninfrastruktur, die Sie in Aalto aufgebaut haben, schon erwähnt. Was war dabei die größte Herausforderung?

Wichtig war zu verstehen, dass Infrastruktur nicht nur aus Servern besteht. Wir mussten, wie gesagt, eine Software-Architektur erschaffen, Schnittstellen schreiben, mit AMAD ein Electronic Lab Notebook etablieren und die Forschenden überzeugen, es auch zu nutzen. Die Universität in Aalto hat dafür mit einer Firma zusammengearbeitet, die den AMAD-Prototyp entwickelt hat. Die Universität konnte diese dann weiter anpassen – zum Beispiel, wenn neue Geräte wie etwa ein Rastertunnelmikroskop dazukamen. Dann mussten wir eigene Schnittstellen programmieren, damit die Bilddaten automatisch verarbeitet werden. Das Projekt insgesamt war ein enormer Aufwand, aber am Ende hatten wir die AMADInfrastruktur, komplett funktional, betreut von der IT und genutzt von Studierenden und Forschenden.  

Jetzt bauen Sie in München etwas Ähnliches auf. Was ist Ihr Ziel im Rahmen von e-conversion?

Es geht unter anderem ganz praktisch um Infrastruktur: einheitliche digitale Laborbücher, sichere Datenablagen, automatische Datenübertragung von Geräten, die Vernetzung der Daten und deren Aufbereitung für maschinelles Lernen – und natürlich um Überzeugungsarbeit. Maschinelles Lernen ist nicht per se immer sinnvoll. Entscheidend ist die Fragestellung. Viele Gruppen bei e-conversion beschäftigen sich mit Prozessen, in denen Daten zentral sind: Materialentwicklung, Katalyse, Batterien. Wir sind gerade dabei, uns mit vielen Gruppen zu vernetzen und zu verstehen: Welche Daten erzeugt ihr? Welche Probleme wollt ihr lösen? Wo können wir kurzfristig helfen und was ist die langfristige Vision? Als Motivation für ein gemeinsames Projekt kann ich nur sagen: Schon ein Datensatz von nur 50 bis 100 Proben kann bereits ausreichen, um ein verlässliches ML-Modell zu trainieren. So lassen sich mithilfe von KI aus einer vergleichsweise kleinen Datenmenge grundlegende Struktur-Eigenschafts-Beziehungen ableiten – und dadurch Suchräume eingrenzen, die sonst unzugänglich geblieben wären. 

Für Patrick Rinke sind Daten ein wichtiges Bindeglied: „Mein Wunsch wäre ein ganzheitliches, datengetriebenes Bild, damit die Interoperabilität mit der Industrie später auch gegeben ist und problemlos auf den Datenschatz zugegriffen werden kann.“ (Foto: V. Hiendl/e-conversion)

Können Sie ein Beispiel für so eine Zusammenarbeit nennen?

Ein aktuelles Beispiel ist das Materialwachstum von neuen Halbleitern mit bestimmten piezoelektrischen Eigenschaften – ein Projekt mit meinem e-conversion-Kollegen Dr. Verena Streibel und Prof. Ian Sharp. Beim Materialwachstum mithilfe von Atomlagenabscheidung gibt es viele Stellschrauben – Temperatur, Gasflüsse oder Drücke, um nur ein paar zu nennen. Man landet schnell in einem sieben- oder achtdimensionalen Parameterraum. Experimentell alle Kombinationen auszuprobieren, wäre sehr aufwendig. Die KI kann dagegen digitale Modelle erzeugen und vorschlagen: „Probiert als Nächstes diese Parameterkombination aus – und spielt mir das Ergebnis zurück.“ So entsteht eine Art Ping-Pong zwischen Experiment und Modell, wobei Letzteres immer genauer wird. Schritt für Schritt wird der Raum abgetastet, wie beim Erstellen eines Phantombildes, bei dem man die weißen Flecken immer weiter füllt. Ziel ist es, die optimalen Wachstumsparameter zu finden und sie mit Strukturdaten zu korrelieren – und dieses Verständnis anschließend auf neue Materialsysteme zu übertragen. 

Das klingt nach einer Vision vom digitalen Zwilling in der Materialforschung.

Genau. Ein erster Schritt ist, dass Geräte Daten direkt an die Infrastruktur schicken. Danach kann man Workflows automatisieren und schließlich digitale Zwillinge erstellen. Damit lassen sich Experimente simulieren, bevor man sie überhaupt durchführt. Dafür braucht es nicht nur viele, sondern vor allem auch gute Daten, standardisierte Formate – quasi DIN-Normen für Daten. Gerade in Deutschland passiert da jetzt viel: FAIRmat (ein Konsortium der Nationalen Forschungsdateninfrastruktur) ist eine wichtige Initiative in dieser Hinsicht. Und langfristig profitieren Industrie und Grundlagenforschung gleichermaßen. Mein Wunsch wäre ein ganzheitliches, datengetriebenes Bild, damit die Interoperabilität mit der Industrie später auch gegeben ist und problemlos auf den Datenschatz zugegriffen werden kann. Gleichzeitig kann man die Datensätze als digitale Zwillinge von Materialien und ihren Eigenschaften verstehen. Diese Datenzwillinge sind dann wie Fingerabdrücke eines Materials, nur eben digital. Und dann gibt es noch die Suche nach völlig neuen Materialien. Welche Konfigurationen existieren überhaupt, wie stabil sind sie, welche Eigenschaften könnten sie haben? Niemand weiß das. Da sich KI rasant weiterentwickelt, bleibt dieses Feld extrem spannend.

Was treibt Sie persönlich in dieser Forschung an?

Mich fasziniert, wie viele Disziplinen in der Materialforschung zusammenkommen. Für mich geht es nicht darum, „nur“ einen Algorithmus zu entwickeln, sondern auch zu verstehen: Wie funktionieren die Chemie und die Physik dahinter? Was auf dem Papier gut aussieht, hat keinen Wert, wenn es nicht realisierbar ist. Deshalb sind Gespräche und das Lernen voneinander so wichtig. Die Schnittstellen zu begreifen, braucht Zeit – aber darin liegt auch der Reiz. Mein Ziel ist es, ein holistisches, datengetriebenes Bild von Materialien zu bekommenWenn Materialien, die eine bestimmte chemische Formel haben, durch Daten, Messungen und Simulationen eine Art „Signatur oder die eben erwähnten digitalen Fingerabdrücke erhalten. So kreieren wir eine Datenwolke, die alle Eigenschaften und Zustände umfasst. Diese Fingerabdrücke könnten wir dann miteinander vergleichen, Unterschiede erkennen und daraus lernen. Genau an dieser Schnittstelle zwischen KI, Physik, Chemie und Messmethoden passiert gerade unglaublich viel, was hochmotivierend ist. 

Herzlichen Dank für das interessante Gespräch. Wir wünschen Ihnen alles Gute und viel Erfolg für Ihre Forschung an der TU München und beim Exzellenzcluster e-conversion!

Kurzprofil

Patrick Rinke promovierte 2003 an der University of York. Anschließend war er als Postdoktorand am Fritz-Haber-Institut (FHI) der Max-Planck-Gesellschaft in Berlin und an der University of California Santa Barbara (UCSB) tätig, bevor er 2009 Gruppenleiter am FHI wurde. Im Jahr 2014 wurde er Professor für Computational Electronic Structure Theory an der Aalto University in Helsinki. Seit 2024 ist Patrick Rinke an der TU München und leitet den Lehrstuhl für KI basierte Materialwissenschaften