Supercomputer können uns im Krisenfall helfen – wir sollten sie deshalb auch einsetzen

Bei Epidemien oder nach Naturkatastrophen geht es um Zeit. Supercomputer können Krisenstäbe bei der Suche nach schnellen Schutzmaßnahmen helfen. Sie sollten daher zum festen Bestandteil von Notfallplänen werden, fordert Professor Dieter Kranzlmüller in seinem Kommentar. Noch ist das nicht der Fall.

Ein Kommentar von Prof. Dieter Kranzlmüller

Zwei Monate nach Ausbruch der Corona-Epidemie in Wuhan entdeckten chinesische Wissenschaftler die Genom-Sequenz des COVID-19-Virus. Weitere zwei Monate später waren die ersten 41 möglichen Wirkstoffe gegen das Virus identifiziert. Sie werden inzwischen getestet. Ohne die Rechenkraft von Supercomputern wären solche Forschungsergebnisse im Eiltempo heute nicht mehr denkbar.

Aus Zigtausenden von Prozessoren und Rechnerknoten aufgebaut, simulieren diese Systeme nicht nur das Infektionsverhalten von Viren oder testen Hunderttausende von medizinischen Wirkstoffen. Mit ihnen modellieren Physikerinnen, Seismologen, Meteorologen oder Biologinnen aus Daten die Ursachen von Naturkatastrophen. Das ist Grundlagenforschung auf höchstem Niveau. Dieses Wissen präzisiert die Planung von Sofortmaßnahmen und von langfristigem Schutz. Deshalb sollte High Performance Computing, kurz: HPC, zum festen Bestandteil von Notfallplänen werden. Im Krisen- oder Katastrophenfall muss der Zugang zu den staatlich geförderten Hoch- und Höchstleistungsrechnern für Wissenschaftler beschleunigt werden, damit Politik und Gesellschaft in diesen Zeiten konzertiert Strategien auf Basis von Erkenntnissen entwickeln können. Noch geschieht dies nur im Einzefall und Supercomputer werden vor allem für Grundlagenforschung eingesetzt.

Werde Mitglied von 1E9 – schon ab 3 Euro im Monat!

Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein.

Jetzt Mitglied werden!

Supercomputer und Daten ermöglichen detailgetreue Simulationen

HPC ist schon länger ein Teil der Forschung, insbesondere in der datenintensiven Astro- und Grundlagenphysik oder in der Thermodynamik. Durch detailliertere Messungen und interdisziplinäre Experimente beginnt gerade auch in den Lebenswissenschaften die Menge von Forschungsdaten so exponentiell anzuschwellen, dass sie nur von Supercomputern verarbeitet werden können. Gleichzeitig verbreiten Forscherinnen ihre Ergebnisse und Datengrundlagen online immer schneller in aller Welt, auf dass Kollegen diese mit weiteren Ergebnissen aus anderen Projekten kombinieren. Auch so wachsen Datenmengen – und Wissen.

Die großen Rechnerkapazitäten der Supercomputer sowie wachsende Datenmengen bilden die Basis für immer genauere Modellrechnungen und detailgetreue, hoch aufgelöste Simulationen für die Grundlagenforschung in beinahe allen Wissenschaftsdisziplinen, insbesondere in den Naturwissenschaften. So erfassen und begreifen wir immer mehr medizinische Symptome, molekulare Prozesse oder Naturphänomene. Supercomputer ermöglichen erst das Arbeiten mit künstlich intelligenten Systemen und Mustererkennungen, die aus Big Data noch mehr Wissen ziehen.

Dass diese computergestützte und mit Millionen geförderte Forschung den Menschen nützt, zeigt sich gerade jetzt in der Corona-Krise: Das EU-Projekt CompBioMed hat das Ziel, den Menschen zu virtualisieren. In den letzten Jahren entstanden dafür an europäischen Universitäten rund 20 HPC-Programme und -Algorithmen für Supercomputer, die beispielsweise das Geschehen in Blutbahnen verdeutlichen oder die Funktionsweisen von Proteinen und Enzymen simulieren. Mit ihnen wurden auch Corona-Viren analysiert, Forscher entdeckten so mögliche Angriffspunkte für Medikamente und Impfstoffe. Mit diesem Wissen entwickelten Mediziner, Mathematikerinnen und Informatiker die Algorithmen, mit deren Hilfe heute die Supercomputer Bibliotheken aus Millionen möglicher Medikamente, pflanzlicher und tierischer Substanzen sowie chemischer Verbindungen screenen, um jene Stoffe zu identifizieren, die das für COVID-19 verantwortliche SARS-Cov-2-Virus hemmen, sich zu vermehren.

Grundlagenforschung mit Hilfe von HPC spürt auch den Ursachen von Naturkatastrophen nach: Wissenschaftler aus München sammelten 2018 aus unterschiedlichsten Quellen Messdaten zu einem Erdbeben mit Tsunami bei Palu in Indonesien. Mit eigenen Modellrechnungen bestimmten sie Ursachen jener Flutwelle, die nur drei Minuten nach dem Beben die Küstenstadt fast vollkommen zerstörte. Ihre Simulation kann nun helfen, vergleichbare seismologische und geologische Regionen aufzufinden und besser zu schützen. Für das Projekt ClimEx entstanden am Leibniz-Rechenzentrum in Garching aus Daten zu den bayerischen Hochwassern von 1999, 2002, 2005 und 2013 eine Reihe von Wettersimulationen, die jetzt belastbare Prognosen zum Verlauf künftiger Überschwemmungen liefern. Werden starke Regenfälle vorhergesagt, könnten damit Städte und stark betroffene Regionen akute Schutzmaßnahmen besser planen.

Supercomputing liefert nützliche Tools – und Kontakte

Das sind nur einige Beispiele, was HPC der Grundlagenforschung ermöglicht. Und es sollten noch viel mehr werden. Mit diesen Ergebnissen und den dabei entstehenden Anwendungen, Programmen oder Algorithmen können Wissenschaftler in Krisenzeiten schneller und gezielter Daten verarbeiten, Szenarien modellieren und Strategien entwickeln, die Leben retten. Länder und Bund fördern in Deutschland bereits drei Höchstleistungsrechenzentren, in Europa stehen weitere vier Supercomputing-Zentren zur Verfügung. Noch werden diese Ressourcen als Spielwiese einer ausgewählten Forschergemeinde und als Ausgangspunkt für technische Rekorde gesehen. Noch ist auch für manche Naturwissenschaftler der Einsatz von HPC in ihrer Disziplin ungewohnt. Und noch rechnen Politik und Gesellschaft viel zu selten mit den schnellsten Computern ihres Landes und den Spezialisten, die sie betreiben. Das aber kann sich jetzt ändern – die Corona-Krise führt einen wichtigen Beweis, wie Supercomputing bei der Bewältigung von Krisen unterstützt.

HPC ist ein Forschungsgebiet, aber zugleich auch eine innovative Dienstleistung für die Grundlagenforschung und damit indirekt für den Katastrophenschutz. Das Gauss Centre for Supercomputing, kurz: GCS, der Zusammenschluss der Höchstleistungszentren Garching, Jülich und Stuttgart vergibt bereits gemeinsam Rechnerkapazitäten und bietet aktuell Forscherteams rund um die Erkundung von Corona und COVID-19 beschleunigten Zugang zu den Supercomputern Hawk, Jewels und SuperMUC-NG. Die dabei entstehenden Abläufe sollten für künftige Notfälle etabliert und optimiert werden. Spezialisten aus den Höchstleistungsrechenzentren können Expertenrunden aus Politik, Wirtschaft, Gesellschaft bereichern und die Ursachenforschung sowie Planung mit Hilfe der Rechenleistung von Supercomputern beschleunigen. Im Umfeld von HPC sammeln sich außerdem die Kontakte zu Wissenschaftlerinnen und Experten aus Europa und der Welt, die bereits Naturphänomene oder Epidemien erforschen: Vernetzung im technischen wie im persönlichen Sinn ist ein wertvoller Zusatznutzen beim Supercomputing.

Prof. Dr. Dieter Kranzlmüller ist Leiter des Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften.

Titelbild: Der Supercomputer SuperMUC am Leibniz-Rechenzentrum in Garching bei München. Bild: Hohenegger / Leibniz Rechenzentrum

7 Like

In diesem Zusammenhang ist auch die Initiative „Folding @ home“ (https://foldingathome.org/) ganz interessant.

2 Like

Definitiv: Hatten wir daher hier!

3 Like

Fände es in der Tat interessant und aufregend (auch die Diskussionen…) auf Rechnungen und Szenarioanalysen aus Supercomputern in Krisenfällen und darüberhinaus zurückgreifen zu können.

Mir fällt für ein Endstadium einer solchen Welt das Magi Supercomputersystem im Neon Gen. Evang. ein: https://wiki.evageeks.org/Magi
Machen in den Geschichten immer wieder eine Reihe Simulation und Risikoeinschätzugen zu sehr komplexen Situationen in quasi-Echtzeit :slight_smile:

Um so ein „Endstadium“ zu erreichen müsste wohl noch viel passieren. Insbesondere müsste die Möglichkeit bestehen schnell passende Simulations-Modelle zu entwickeln und dann in angemessener Zeit auch Simulationsergebnisse zu erhalten. Sonst wäre das im Krisenfall wo man häufig zügige Entscheidungen braucht nicht mehr hilfreich, ausser grundsätzliche Szenarioanalysen wurden bereits gerechnet, wie im Beispiel der Hochwassergefahren.

@dieter_kranzlmueller: Angesichts mächtiger Cloud-Computing Plattformen braucht man überhaupt noch Supercomputer, um zB Hochwassermodelle zu berechnen?

Wo liegen die Stärken im Vergleich zu massivem Cloud Computing Einsatz auf Amazon Web Services? Weiteren Wettbewerb zu Supercomputern sehe ich im Bereich der spezialisierten Computingplattformen (Quantencomputer, aber auch hochparallelisierte Programme die auf GPUs oder spezialisierten IPUs gut laufen).

In jedem Fall wird in Zukunft (überall) gerechnet, mehr gerechnet, spezialisierter gerechnet, so dass man sich wohl der Frage wie man solche Rechen-Ressourcen sinnvoll in politische und wirtschaftliche Entscheidungen und Diskurse einfließen lassen könnte stärker widmen müsste. Momentan klafft da glaube ich eine Kluft…

2 Like

Bis die Entscheider in der Politik verstanden haben was „HPC“ ist haben wir einen Corona-Impfstoff dreimal. Es ist oft „cool“ annähernd gar nichts von aktuellen Technologien zu verstehen, je wichtiger die Person desto weniger Zeit für’s Lernen. Manches mal entschuldigt man sich auch mit dem jeweils unpassend Abschluss, der doch nun gerade für dieses eine aktuelle Thema überhaupt nichts tauge. Man kann aber nichts jedes eigene Lernen ablehnen und alles in Berater outsourcen - die agieren nicht als demokratisch gewählte, sondern als kommerzielle Akteure. Biologen und Mediziner sind oft gar nicht mal so scheu im Umgang mit IT, aber den Juristen der sich ernsthaft für das Pro und Contra der einen oder anderen HPC-Architektur interessiert, den muss ich erst noch kennenlernen. Es gibt übrigens noch eine Reihe anderer HPC-Anlagen in diesem Lande, aber dem Autor sei etwas Hochschulpolitik gegönnt :wink:

2 Like