wissen.de Artikel
„Wie wir die Realität nachbauen und auf Menschen zugehen“
Herr Professor Resch, was hat man sich unter einem digitalen Zwilling vorzustellen?
Der Begriff bedeutet, dass man in der digitalen Welt einen Zwilling von etwas Realem schafft. Daran lassen sich virtuell auch Dinge ausprobieren, die an einem realen Objekt sehr aufwendig wären.
Für wen bietet ein digitaler Zwilling Vorteile?
Das ist zum Beispiel in der Automobilindustrie oder der Luft- und Raumfahrtbranche der Fall. Da geht es unter anderem um die Herstellbarkeit und Planbarkeit von Produkten. Um das zu untersuchen, baut man etwa ein Auto oder Flugzeug zuerst einmal im Computer – mit sämtlichen wichtigen Teilen und Funktionen. Inzwischen sind wir dank der Fortschritte bei der Rechenleistung so weit, dass wir fast alles digital darstellen können – und testen können, ob es funktioniert. Das geht auch mit einem Gebäude, Kleidungsstück oder einer ganzen Kommune. An deren digitalem Abbild lassen sich unter anderem Verkehrsströme nach dem Bau einer neuen Straße oder Brücke und ihre Folgen untersuchen.
Wie aufwendig ist es, einen digitalen Zwilling zu erstellen?
Das Erstellen eines digitalen Zwillings von null an – also, wenn noch keinerlei Daten vorhanden sind – ist sehr aufwendig. Doch in den meisten Bereichen werden bereits digitale Instrumente eingesetzt – etwa in der Industrie, wo Konstrukteure seit Langem mit der CAD-Technik arbeiten. Dabei werden Produkte oder Bauteile am Rechner gestaltet, und die dabei entstehende elektronische Beschreibung lässt sich in einen digitalen Zwilling integrieren. In der kommunalen Planung gibt es geografische Informationssysteme, die etwa Daten zur Hochwassergefahr oder über die Altersstruktur der Bevölkerung in einzelnen Stadtteilen enthalten. Auch sie können als Basis für einen digitalen Zwilling dienen. Allerdings muss man dafür Sorge tragen, dass geeignete und aktuelle Daten verwendet werden – und dass man die richtig kombiniert, um einen Gesamtblick auf ein Produkt oder eine Gemeinde zu erhalten.
Inwiefern spielen dabei Höchstleistungsrechner eine Rolle?
Das zentrale Thema ist die digitale Konvergenz. Seit etwa 15 Jahren spricht man von Big Data und dem Ende der Theorie. Der Gedanke ist: Wir haben so viele Daten, dass wir gar nicht mehr verstehen müssen, was dahintersteckt. Doch das setzt voraus, dass an die riesigen Datenmengen kluge Fragen gestellt werden. Denn nur so lassen sich neue Erkenntnisse gewinnen. Was steckt hinter den Daten? Und wie hängen diese zusammen? Und um kluge Fragen stellen zu können, sind Methoden erforderlich, um die Daten auszuwerten. Dazu gehört etwa die Künstliche Intelligenz. Der letzte Punkt schließlich ist: Um die Fülle an Daten damit zu analysieren, braucht es eine enorme Rechenleistung. Es müssen also drei Dinge zusammenkommen: sehr viele Daten, eine Analysemethode wie die Künstliche Intelligenz und ein Höchstleistungsrechner. Nur mit dieser Kombination lassen sich anhand eines digitalen Zwillings komplexe Zusammenhänge erkennen.
Gibt es dafür auch Grenzen?
Produkte wie ein Fahrzeug lassen sich, wenn ausreichend Rechenleistung zur Verfügung steht, sehr genau und zuverlässig simulieren. Unsicherheiten kommen immer dann ins Spiel, wenn es um menschliches Verhalten geht. So kann man zwar in einer Stadt die Straßen und Wege nachabbilden sowie die Tatsache, dass eine bestimmte Zahl von Menschen zur Arbeit fährt oder zur Schule geht. Allerdings: Ob ein bestimmter Verkehrsteilnehmer an einer Kreuzung links oder rechts abbiegt, lässt sich nicht vorhersagen – doch es kann weitreichende Folgen haben.
Können Sie ein Beispiel dafür nennen?
Ein Beispiel ist das Unglück bei der Love-Parade in Duisburg 2010, bei dem 21 Menschen ums Leben kamen. Das Ereignis wurde im Vorfeld eingehend simuliert – mit dem Resultat, dass das Sicherheitskonzept der Veranstalter funktionieren kann. Dennoch endete die Love-Parade in einer Katastrophe. Der Auslöser war wahrscheinlich, dass eine Gruppe von Menschen sich anders verhalten hat, als es das Konzept vorgesehen hatte. Sie kehrten inmitten des Besucherstroms plötzlich um. Dadurch entstand Panik und die Situation geriet außer Kontrolle. Die Simulation zum Sicherheitskonzept war wissenschaftlich exzellent. Aber was Menschen tun, lässt sich nicht berechnen. Ein anderes Beispiel ist der neue Bahnhof Stuttgart21: Wie viele Züge wird er pro Stunde abwickeln können? Das ist eine für die Bauplanung entscheidende Frage. Sie hat eine technische Komponente, die man leicht bewältigen kann. Es geht darum: Wie viele Gleise und wie viele Weichen gibt es? Was sich hingegen nicht vorhersagen lässt, ist die Tatsache, wie sich die Menschen etwa beim Ein- und Aussteigen verhalten. Man kann nicht klar vorhersehen, was wirklich passiert, und muss daher bei einer Simulation Annahmen machen. Das galt etwa auch während der Corona-Pandemie.
Inwiefern?
Im Verlauf der Pandemie war immer die Frage: Was wird passieren? Was können wir dagegen tun? Und was sind die Auswirkungen der Maßnahmen? Nichts davon ließ sich einfach so vorhersagen. Daher wurde simuliert, und Annahmen mussten getroffen werden. Die Ressourcen für die Pandemiesimulationen haben wir am HLRS bereitgestellt. Bei den Simulationen haben wir eng mit Experten des Bundesinstitut für Bevölkerungsforschung zusammengearbeitet. Das Ziel war es stets, möglichst schnell einschätzen zu können, wie sich die Lage weiterentwickeln wird. Doch das hat zu einer massiven Interaktion zwischen Wissenschaft und Öffentlichkeit geführt. Denn man hat deutlich die Kollision eines digitalen Zwillings mit der Realität gesehen – die Prognosen stimmten oft nicht mit der tatsächlichen Entwicklung überein. Und man hat gesehen, wo die Grenzen sind – weil eben auch ein Virus kein lebloses Objekt ist wie beispielsweise ein Auto.
Was bedeutet das?
Bei einem Auto lässt sich nach Crashsimulationen sehr präzise vorhersagen, was bei einem Auffahrunfall geschieht. Jedes Exemplar eines bestimmten Fahrzeugmodells ist auf die gleiche Weise gefertigt. Das Virus hingegen hat sich kontinuierlich und unvorhersehbar verändert – und das zunächst unbemerkt. Daher hatten wir einen unvollständigen digitalen Zwilling, aus dem aber reale Maßnahmen abgeleitet werden mussten. Das war eine Herausforderung, da solche Unsicherheiten der Öffentlichkeit erklärt werden müssen. Aber es war gleichzeitig ein Glücksfall, weil die Gesellschaft jetzt anfängt zu verstehen, was wir mit unseren Superrechnern leisten – und warum das so viel Geld kostet.
Gibt es Ansätze, das menschliche Verhalten bei Simulationen doch zu berücksichtigen?
Ja, die gibt es. Man hat eigene Methoden entwickelt: sogenannte agentenbasierte Methoden. Jede Person wird dabei durch einen digitalen Agenten dargestellt. Diesen Agenten schreibt man dann
bestimmte Eigenschaften zu. Man berechnet, was geschieht, wenn zwei Agenten aufeinandertreffen, oder wenn ein Agent einer Gefahr wie einem Feuer ausgesetzt ist. Auf diese Weise lässt sich zum Beispiel ein Stadionneubau planen, bei dem verlässliche Fluchtwege notwendig sind. Deren Anordnung lässt sich am Rechner variieren, und mit statistischen Methoden kann man dann beschreiben, wie sich die Menschen verhalten. Mit der Statistik wird versucht, möglichst alle Eventualitäten zu berücksichtigen. Die Umsetzung der Ergebnisse solcher Berechnungen sieht man an vielen modernen Gebäuden. Denn Simulationen haben zum Beispiel ergeben, dass eine Säule mitten in einem langen Gang den Menschen im Notfall bei der Orientierung hilft. Sie laufen dann geschmeidig an der Säule vorbei. Der Menschenstrom ist dadurch geordneter, als wenn es die Säule nicht gäbe.
Wie erklären Sie den Menschen, was Sie tun, wie solche Ergebnisse zustande kommen und welche Bedeutung sie haben?
Wir setzen damit schon in Schulen an, etwa in einem Projekt namens „Simulierte Welten“. Da gehen wir direkt in die Schulen und erklären den Kindern und Jugendlichen, wie eine Simulation funktioniert. Und wir erklären ihnen auch, warum sie manchmal nicht mit der Wirklichkeit übereinstimmt – wie bei Stuttgart21. Wir gehen häufig an die Öffentlichkeit und versuchen, das Thema zu erklären. Vor der Pandemie war ich rund ein Dutzend Mal im Jahr mit Vorträgen bei öffentlichen Veranstaltungen. Daneben beschäftigen wir uns intensiv und professionell mit der Frage: Wie lässt sich das Thema so präsentieren, dass die allgemeine Öffentlichkeit es versteht? Dazu haben wir eine Abteilung für Philosophie gegründet, die es so sonst an keinem anderen Rechenzentrum gibt. Die Forscher darin arbeiten unter anderem mit Soziologen und Politikwissenschaftlern zusammen. Mit diesen diskutieren wir etwa darüber, wie sich komplexe Inhalte verständlich erklären lassen – und gleichzeitig so, dass die Menschen sie akzeptieren. Zudem haben wir kürzlich ein Projekt gestartet, das sich mit der Frage beschäftigt, wie sich die Energiewende mithilfe eines digitalen Zwillings für eine Stadt simulieren lässt. Dieser verrät den Planern unter anderem, wie eine optimale Energiesteuerung für die Kommune aussieht.
Sie erwähnten das als ein Alleinstellungsmerkmal des HLRS. Was zeichnet diese Einrichtung sonst gegenüber anderen Supercomputing-Zentren aus?
Es gibt in Deutschland drei Höchstleistungsrechenzentren, die auf unterschiedliche Dinge spezialisiert sind. Unsere zentrale Aufgabe ist es, den Bereich der Ingenieurwissenschaften abzudecken – und außerdem das, was wir Global Systems Science nennen: etwa Pandemien, globale Geldflüsse und Fake News. Daraus ergibt sich ein Merkmal, das weltweit einmalig ist: Wir arbeiten eng mit Wirtschaft und Industrie zusammen. Jährlich nutzen rund 60 bis 70 Firmen unsere Rechner, was zu einem ausgeprägten Technologie- und Know-how-Transfer aus der Wissenschaft in die Wirtschaft führt. Das gibt es sonst nirgends.
Gibt es weitere Aspekte?
Wir haben einen starken Fokus auf Nachhaltigkeit. Schon sehr früh haben wir erkannt, dass unser Energieverbrauch drastisch steigen wird. Das erfordert auch andere Kühlmethoden. Heute kühlen wir unsere Rechner mit Flüssigkeit. Die dazu benutzten Rohre müssen wir mit Chemikalien sauber halten. Für die damit verbundenen Umweltrisiken übernehmen wir Verantwortung, und wir versuchen, sie so gering wie möglich zu halten – etwa, indem wir die Abwärme unserer Rechner zum Heizen nutzen. Das hat dazu geführt, dass wir seit 2020 als erstes und bislang einziges Höchstleistungsrechenzentrum das europäische Siegel für Umweltmanagement und Umweltbetriebsprüfung (EMAS) tragen.
Sie haben bereits die Zusammenarbeit zwischen dem HLRS und der Wirtschaft angesprochen. Wie verläuft diese?
Ein Beispiel dafür ist das Unternehmen Porsche, das etwa Konstruktionsaufgaben mithilfe unserer Supercomputer bewältigt. Doch eine solche Kooperation bringt zunächst viele Fragen mit sich: Was braucht der Kunde? Wann braucht er das? Wie kommt er an das System heran? Das bringt Sicherheitsfragen mit sich. Wir möchten, dass externe Unternehmen unser System nutzen – aber wir möchten nicht, dass jemand einfach so auf das System zugreift. Das andere Thema ist die technische Abwicklung: Wer bei uns rechnet, kommt in eine Warteschlange, die sukzessive abgearbeitet wird. Die meisten Rechenjobs für die Industrie sind für unsere Verhältnisse leicht und schnell zu bewältigen. Diese werden zwischendurch abgearbeitet und helfen dabei, unsere Systeme gleichmäßig auszulasten. Dafür mussten wir unsere Konzepte anpassen. Eine Herausforderung anderer Art ist die steuerliche Frage. Da wir Fördergelder von Bund und Land beziehen, dürfen wir nicht einfach Erträge aus der Industrie erzielen. Wir müssen die Einnahmen reinvestieren.
Wie gelangen Sie zu Partnern aus der Wirtschaft?
In der Regel kommen sie auf uns zu – nachdem sie durch unsere Aktionen, etwa bei Veranstaltungen der IHK, auf uns aufmerksam geworden sind. Dazu ein Beispiel: Eine Firma aus Stuttgart, die sich auf die Produktion von Animationsfilmen spezialisiert hat, bekam erstmals den Auftrag für einen großen Film: Biene Maja. Dauer: 90 Minuten. Das erforderte einen weit größeren Rechenaufwand als bei den sonst von dem Unternehmen erstellten Kurzfilmen. Es ging um rund 300.000 Bilder, die zu berechnen waren. Der Auftrag ließ sich dank der Rechenkapazität des HLRS stemmen. Allerdings: Da die Bandbreite der Internetverbindung nicht ausreichte, beförderte ein Mitarbeiter die rohen und die bearbeiteten Bilddaten auf Festplatten per „Turnschuhtransfer“ zwischen dem Unternehmen und dem HLRS hin und her. Grundsätzlich gilt: Jeder Kunde ist anders. Dafür sind wir offen und finden gerne Lösungen. So entsteht immer mehr Know-how bei uns.
Welche Besonderheiten haben die Technologien, die das HLRS einsetzt?
Wir arbeiten grundsätzlich mit den gleichen Prozessortechnologien, die auch in einem Handy oder Laptop stecken. Aber wir arbeiten mit Varianten, die auf Schnelligkeit und Effizienz ausgerichtet sind – und daher auch meist teurer sind. Oft steht bei uns neueste Technologie schon, bevor diese bei privaten Computerbenutzern Einzug findet. Üblicherweise wird der technische Fortschritt auf diesem Gebiet durch die Größe eines Schaltelements beschrieben. Und diese Elemente werden seit Jahrzehnten immer kleiner – nach dem sogenannten Mooreschen Gesetz: Alle 18 Monate lassen sich doppelt so viele Schaltelemente auf die gleiche Fläche packen. Diese Änderungen an der Technologie haben den großen Vorteil, dass sie langjährig erprobt sind. Doch sie hat den Nachteil, dass die Entwicklung irgendwann ein Ende erreichen wird, da die Verkleinerung durch die Größe der Atome an eine natürliche Grenze stößt. Zugleich wird die Fertigung herkömmlicher Rechner immer teurer. Daher erwarten wir, dass wir gegen Ende dieses Jahrzehnts auf andere Technologien umsteigen müssen. Und wir befassen uns mit der Frage: Welche Technologien könnten das sein?
Wie lautet die Antwort auf diese Frage?
Wir beteiligen uns an einem Projekt, in dessen Rahmen wir den Quantencomputer in Ehningen testen können. Zudem stehen wir in Kontakt mit Prozessorherstellern, um auszuloten: Wie können konventionelle Prozessoren auch dann noch besser werden, wenn sie sich nicht mehr weiter verkleinern lassen? Die Antwort beruht auf einem intelligenteren Design. Quantencomputer stehen noch am Anfang ihrer Entwicklung, doch sie haben ein enormes Weiterentwicklungspotenzial. Man muss allerdings zunächst herausfinden, inwiefern sie mit ihrer grundsätzlich anderen Logik für die Lösung unserer Probleme geeignet sind. Das Grundprinzip eines Quantencomputers ist seine große Parallelität: Man kann beliebig viele Zustände gleichzeitig haben und damit auch beliebig viele Lösung gleichzeitig berechnen. Am Ende wird geschaut, welche Lösung die beste ist. Wie sich dieses Quantenkonzept praktisch nutzen lässt – außer zur Verschlüsselung von Daten –, ist noch nicht klar. Das wollen wir in Forschungsprojekten wie diesem herausfinden.
Und wie steht es um das intelligente Chipdesign?
Mit der intelligenten Nutzung der herkömmlichen Rechnertechnik geht in puncto Leistungssteigerung noch ein immenses Potenzial einher. Am Ende des Jahrzehnts werden wir nicht mehr sagen: Unsere Rechner werden schneller – sie werden besser. Was viele nicht wissen: Alle privat oder im Beruf verwendeten Computer sind praktisch viel langsamer, als sie theoretisch sein könnten. Das zu ändern, ist Zukunftsmusik.
Welche Rolle spielt dabei die Software?
Die Software spielt eine sehr große Rolle, indem sie das Speichermanagement optimiert, d.h. die Abläufe im Rechner möglichst effizient und vorausschauend steuert. Im Fachjargon heißt das Prefetching. Hinzu kommt das Scoreboarding. Da geht es darum, die Aufgaben im Computer so zu verteilen, dass jedes Element möglichst immer etwas zu tun hat. Die Leistung des Rechners hängt auch davon ab, wie viele Elemente parallel arbeiten. Unsere Erfahrung zeigt: Allein durch simple Verbesserungen an einem Programm lässt es sich um einen Faktor 1.000 bis 10.000 beschleunigen.
Das sind doch gute Aussichten. Vielen Dank, Herr Professor Resch, für das Gespräch.
Dieser Artikel ist Teil einer Sonderpublikation in Kooperation mit dem Höchstleistungsrechenzentrum Stuttgart (HLRS). Hier finden Sie das vollständige bild der wissenschaft extra zum Download.