Ein Kommentar von Prof. Dieter Kranzlmüller
Zwei Monate nach Ausbruch der Corona-Epidemie in Wuhan entdeckten chinesische Wissenschaftler die Genom-Sequenz des COVID-19-Virus. Weitere zwei Monate später waren die ersten 41 möglichen Wirkstoffe gegen das Virus identifiziert. Sie werden inzwischen getestet. Ohne die Rechenkraft von Supercomputern wären solche Forschungsergebnisse im Eiltempo heute nicht mehr denkbar.
Aus Zigtausenden von Prozessoren und Rechnerknoten aufgebaut, simulieren diese Systeme nicht nur das Infektionsverhalten von Viren oder testen Hunderttausende von medizinischen Wirkstoffen. Mit ihnen modellieren Physikerinnen, Seismologen, Meteorologen oder Biologinnen aus Daten die Ursachen von Naturkatastrophen. Das ist Grundlagenforschung auf höchstem Niveau. Dieses Wissen präzisiert die Planung von Sofortmaßnahmen und von langfristigem Schutz. Deshalb sollte High Performance Computing, kurz: HPC, zum festen Bestandteil von Notfallplänen werden. Im Krisen- oder Katastrophenfall muss der Zugang zu den staatlich geförderten Hoch- und Höchstleistungsrechnern für Wissenschaftler beschleunigt werden, damit Politik und Gesellschaft in diesen Zeiten konzertiert Strategien auf Basis von Erkenntnissen entwickeln können. Noch geschieht dies nur im Einzefall und Supercomputer werden vor allem für Grundlagenforschung eingesetzt.
Werde Mitglied von 1E9 – schon ab 3 Euro im Monat!
Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein.
Jetzt Mitglied werden!Supercomputer und Daten ermöglichen detailgetreue Simulationen
HPC ist schon länger ein Teil der Forschung, insbesondere in der datenintensiven Astro- und Grundlagenphysik oder in der Thermodynamik. Durch detailliertere Messungen und interdisziplinäre Experimente beginnt gerade auch in den Lebenswissenschaften die Menge von Forschungsdaten so exponentiell anzuschwellen, dass sie nur von Supercomputern verarbeitet werden können. Gleichzeitig verbreiten Forscherinnen ihre Ergebnisse und Datengrundlagen online immer schneller in aller Welt, auf dass Kollegen diese mit weiteren Ergebnissen aus anderen Projekten kombinieren. Auch so wachsen Datenmengen – und Wissen.
Die großen Rechnerkapazitäten der Supercomputer sowie wachsende Datenmengen bilden die Basis für immer genauere Modellrechnungen und detailgetreue, hoch aufgelöste Simulationen für die Grundlagenforschung in beinahe allen Wissenschaftsdisziplinen, insbesondere in den Naturwissenschaften. So erfassen und begreifen wir immer mehr medizinische Symptome, molekulare Prozesse oder Naturphänomene. Supercomputer ermöglichen erst das Arbeiten mit künstlich intelligenten Systemen und Mustererkennungen, die aus Big Data noch mehr Wissen ziehen.
Dass diese computergestützte und mit Millionen geförderte Forschung den Menschen nützt, zeigt sich gerade jetzt in der Corona-Krise: Das EU-Projekt CompBioMed hat das Ziel, den Menschen zu virtualisieren. In den letzten Jahren entstanden dafür an europäischen Universitäten rund 20 HPC-Programme und -Algorithmen für Supercomputer, die beispielsweise das Geschehen in Blutbahnen verdeutlichen oder die Funktionsweisen von Proteinen und Enzymen simulieren. Mit ihnen wurden auch Corona-Viren analysiert, Forscher entdeckten so mögliche Angriffspunkte für Medikamente und Impfstoffe. Mit diesem Wissen entwickelten Mediziner, Mathematikerinnen und Informatiker die Algorithmen, mit deren Hilfe heute die Supercomputer Bibliotheken aus Millionen möglicher Medikamente, pflanzlicher und tierischer Substanzen sowie chemischer Verbindungen screenen, um jene Stoffe zu identifizieren, die das für COVID-19 verantwortliche SARS-Cov-2-Virus hemmen, sich zu vermehren.
Grundlagenforschung mit Hilfe von HPC spürt auch den Ursachen von Naturkatastrophen nach: Wissenschaftler aus München sammelten 2018 aus unterschiedlichsten Quellen Messdaten zu einem Erdbeben mit Tsunami bei Palu in Indonesien. Mit eigenen Modellrechnungen bestimmten sie Ursachen jener Flutwelle, die nur drei Minuten nach dem Beben die Küstenstadt fast vollkommen zerstörte. Ihre Simulation kann nun helfen, vergleichbare seismologische und geologische Regionen aufzufinden und besser zu schützen. Für das Projekt ClimEx entstanden am Leibniz-Rechenzentrum in Garching aus Daten zu den bayerischen Hochwassern von 1999, 2002, 2005 und 2013 eine Reihe von Wettersimulationen, die jetzt belastbare Prognosen zum Verlauf künftiger Überschwemmungen liefern. Werden starke Regenfälle vorhergesagt, könnten damit Städte und stark betroffene Regionen akute Schutzmaßnahmen besser planen.
Supercomputing liefert nützliche Tools – und Kontakte
Das sind nur einige Beispiele, was HPC der Grundlagenforschung ermöglicht. Und es sollten noch viel mehr werden. Mit diesen Ergebnissen und den dabei entstehenden Anwendungen, Programmen oder Algorithmen können Wissenschaftler in Krisenzeiten schneller und gezielter Daten verarbeiten, Szenarien modellieren und Strategien entwickeln, die Leben retten. Länder und Bund fördern in Deutschland bereits drei Höchstleistungsrechenzentren, in Europa stehen weitere vier Supercomputing-Zentren zur Verfügung. Noch werden diese Ressourcen als Spielwiese einer ausgewählten Forschergemeinde und als Ausgangspunkt für technische Rekorde gesehen. Noch ist auch für manche Naturwissenschaftler der Einsatz von HPC in ihrer Disziplin ungewohnt. Und noch rechnen Politik und Gesellschaft viel zu selten mit den schnellsten Computern ihres Landes und den Spezialisten, die sie betreiben. Das aber kann sich jetzt ändern – die Corona-Krise führt einen wichtigen Beweis, wie Supercomputing bei der Bewältigung von Krisen unterstützt.
HPC ist ein Forschungsgebiet, aber zugleich auch eine innovative Dienstleistung für die Grundlagenforschung und damit indirekt für den Katastrophenschutz. Das Gauss Centre for Supercomputing, kurz: GCS, der Zusammenschluss der Höchstleistungszentren Garching, Jülich und Stuttgart vergibt bereits gemeinsam Rechnerkapazitäten und bietet aktuell Forscherteams rund um die Erkundung von Corona und COVID-19 beschleunigten Zugang zu den Supercomputern Hawk, Jewels und SuperMUC-NG. Die dabei entstehenden Abläufe sollten für künftige Notfälle etabliert und optimiert werden. Spezialisten aus den Höchstleistungsrechenzentren können Expertenrunden aus Politik, Wirtschaft, Gesellschaft bereichern und die Ursachenforschung sowie Planung mit Hilfe der Rechenleistung von Supercomputern beschleunigen. Im Umfeld von HPC sammeln sich außerdem die Kontakte zu Wissenschaftlerinnen und Experten aus Europa und der Welt, die bereits Naturphänomene oder Epidemien erforschen: Vernetzung im technischen wie im persönlichen Sinn ist ein wertvoller Zusatznutzen beim Supercomputing.
Prof. Dr. Dieter Kranzlmüller ist Leiter des Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften.
Titelbild: Der Supercomputer SuperMUC am Leibniz-Rechenzentrum in Garching bei München. Bild: Hohenegger / Leibniz Rechenzentrum