Vom Videospiel zum Supercomputer

Die aufgemotzten Grafikprozessoren bringen für unterschiedlichste Anwendungen mehr Rechenleistung.
Die aufgemotzten Grafikprozessoren bringen für unterschiedlichste Anwendungen mehr Rechenleistung.(c) REUTERS (Tyrone Siu)
  • Drucken

Die Hardware moderner Grafikkarten ist extrem leistungsfähig, aber unflexibel. Mit spezieller Programmierung wollen Wissenschaftler ihr Potenzial für neue Anwendungen nutzen.

Die Sonne steht tief über dem Horizont, ihre Strahlen brechen sich in einem sanft plätschernden Bach, der sich durch dicht bewaldete Hügel schlängelt. Ein leichter Wind bewegt die tief über das Ufer hängenden Äste und trägt gelegentlich ein Blatt durch die Luft, weiter hinten springt ein kleiner Fisch aus dem glitzernden Wasser.

Wer glaubt, solche Szenen nur auf Wanderausflügen oder in Naturdokumentationen beobachten zu können, hat die Animationen aktueller 3-D-Videospiele wie „Far Cry 5“ oder „Metro Exodus“ noch nicht erlebt – auch wenn es in den Schieß-Spielen meist weniger harmonisch zugeht. Mit unglaublichem Detailreichtum, realistischer Physik und einer filmreifen Beleuchtung übertrumpfen sich die Neuerscheinungen aus der Videospielbranche gegenseitig, die computergenerierten Welten sind von echten Aufnahmen kaum mehr zu unterscheiden. Es scheint nur logisch, dass auch deren Umsatz längst mit der globalen Filmindustrie mithalten kann.

Tausende Kerne, ein Befehl

Um die bildgewaltigen Szenarien voll auszukosten, braucht es entsprechend leistungsfähige Grafikkarten, deren Rechenarbeit von den sogenannten GPUs (siehe Lexikon) geleistet wird. Hier hat sich in den vergangenen Jahren ein rasanter Fortschritt vollzogen, sagt Dieter Schmalstieg, Leiter des Instituts für Maschinelles Sehen und Darstellen der TU Graz und Forscher am Zentrum für Virtual Reality und Visualisierung (VRVis), einem Comet-Projekt des Technologieministeriums.


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.