Die Hardware moderner Grafikkarten ist extrem leistungsfähig, aber unflexibel. Mit spezieller Programmierung wollen Wissenschaftler ihr Potenzial für neue Anwendungen nutzen.
Die Sonne steht tief über dem Horizont, ihre Strahlen brechen sich in einem sanft plätschernden Bach, der sich durch dicht bewaldete Hügel schlängelt. Ein leichter Wind bewegt die tief über das Ufer hängenden Äste und trägt gelegentlich ein Blatt durch die Luft, weiter hinten springt ein kleiner Fisch aus dem glitzernden Wasser.
Wer glaubt, solche Szenen nur auf Wanderausflügen oder in Naturdokumentationen beobachten zu können, hat die Animationen aktueller 3-D-Videospiele wie „Far Cry 5“ oder „Metro Exodus“ noch nicht erlebt – auch wenn es in den Schieß-Spielen meist weniger harmonisch zugeht. Mit unglaublichem Detailreichtum, realistischer Physik und einer filmreifen Beleuchtung übertrumpfen sich die Neuerscheinungen aus der Videospielbranche gegenseitig, die computergenerierten Welten sind von echten Aufnahmen kaum mehr zu unterscheiden. Es scheint nur logisch, dass auch deren Umsatz längst mit der globalen Filmindustrie mithalten kann.
Tausende Kerne, ein Befehl
Um die bildgewaltigen Szenarien voll auszukosten, braucht es entsprechend leistungsfähige Grafikkarten, deren Rechenarbeit von den sogenannten GPUs (siehe Lexikon) geleistet wird. Hier hat sich in den vergangenen Jahren ein rasanter Fortschritt vollzogen, sagt Dieter Schmalstieg, Leiter des Instituts für Maschinelles Sehen und Darstellen der TU Graz und Forscher am Zentrum für Virtual Reality und Visualisierung (VRVis), einem Comet-Projekt des Technologieministeriums.