Die Anforderungen an moderne Computergrafiken steigen unaufhaltsam – besonders in der Computerspiele- und Unterhaltungsbranche. Realistische Darstellungen, lebensechte Beleuchtung und atmosphärische Details verlangen nach immer leistungsfähigeren Technologien. Eine der größten Herausforderungen ist dabei das Pathtracing, eine Rendering-Technik, die Lichtverhältnisse in einer Szene physikalisch akkurat simuliert, um natürlich wirkende Bilder zu erzeugen. Intel Labs hat mit ihrer Forschung nun einen bemerkenswerten Meilenstein erreicht: Die Echtzeit-Darstellung einer animierten Szene mit einer Billion (1.000.
000.000.000) Dreiecken auf der Intel Arc B580 Grafikkarte bei 30 Frames pro Sekunde in einer Auflösung von 1440p. Diese Entwicklung revolutioniert die Möglichkeit, komplexe 3D-Welten mit spektakulärer Bildqualität live abzubilden und öffnet neue Perspektiven für Spieleentwicklung, Filmproduktion und Visualisierungsanwendungen. Pathtracing im Überblick setzt auf eine physikalisch-basierte Berechnung des Lichtwegs in einer Szene.
Anders als herkömmliches Rasterisieren, das nur die Geometrie der Szene wiedergibt, simuliert Pathtracing, wie Lichtstrahlen von Oberflächen reflektiert, gebrochen oder absorbiert werden. Dies führt zu Effekten wie Weichschatten, realistischen Spiegelungen, indirekter Beleuchtung und Farbtransfer zwischen Objekten. Diese Qualität hat jedoch ihren Preis: enormer Rechenaufwand durch die riesige Anzahl an Strahlen (Rays), die von der Kamera aus in die Szene geworfen werden müssen, und deren komplexe Interaktionen mit der Umgebung. Die Herausforderung bei einer solchen gigantischen Szene mit einer Billion Dreiecken liegt nicht nur in der schieren Menge der 3D-Modelle, sondern auch darin, diese Geometrie dynamisch zu verwalten, zu animieren und effizient zu durchsuchen. Intel schafft dies durch innovative Techniken bei der Beschleunigung der Raytracing-Prozesse.
Eine Schlüsselmethode ist die Nutzung von zwei Ebenen für Beschleunigungsstrukturen: BLAS (Bottom-Level Acceleration Structures) für einzelne Meshes und TLAS (Top-Level Acceleration Structures), die Instanzen gruppieren. Da die komplette Aktualisierung der TLAS bei Millionen von Instanzen prohibititiv teuer wäre, teilt Intel diese in kleine Fragmente auf, die unabhängig und effizient aktualisiert werden können – eine essentielle Innovation, um Animationen in Echtzeit zu ermöglichen. Zur Bewältigung des enormen Rechenaufwands setzt Intel auf eine Strategie mit dem Stichprobenverfahren "One Sample Per Pixel" (1spp), bei dem pro Bildpunkt nur eine Lichtspur berechnet wird. Diese Methode ist sehr ressourcenschonend, führt allerdings zu einem stark verrauschten Bild. Um die Qualität zu sichern, benutzt Intel eine hochentwickelte neuronale Filtertechnik zum Entrauschen und Super-Sampling.
Das speziell entwickelte neuronale Netzwerk analysiert sowohl räumliche als auch zeitliche Bildinformationen, um das Rauschen zu entfernen und scharfe, detailreiche Bilder zu erzeugen – und das alles mit minimalem Performanceverlust. Diese Kombination aus 1spp und KI-gestütztem Denoising ist ein großer Durchbruch, da sie den sltrade-off zwischen Performance und Bildqualität deutlich verbessert. Die Erstellung eines derart komplexen Szenarios wie "Jungle Ruins" erforderte eine enge Zusammenarbeit zwischen Forschern und technischen Künstlern. Das Gelände nutzt prozedurale Generierung für Vegetation und Gelände, was die Szene dynamisch und detailliert hält und gleichzeitig eine handhabbare Struktur gewährleistet. Weltunterteilung und Instanzverwaltung sind gezielt umgesetzt, um sowohl die Produktion als auch die spätere Verarbeitung im Rendering effizient zu gestalten.
Inhalte werden mit Blick auf Skalierbarkeit und Echtzeit-Anforderungen optimiert, um den immensen Performancebedarf zu stemmen. Ein weiterer wichtiger Aspekt ist die objektive Bewertung der Bildqualität. Intel entwickelte dafür eine neuartige Videobewertungsmetrik, die auf tiefen neuronalen Netzwerken basiert. Diese misst die subjektive Bildwahrnehmung und liefert so präzisere Ergebnisse für die Optimierung des Denoising-Systems, basierend auf Nutzerstudien. Dieses Maß für visuelle Qualität hilft dabei, die Balance zwischen Rechenzeit und optischem Ergebnis gezielt zu justieren.
Die Forschungsarbeit bei Intel ist ein Beispiel für die Zukunft der Computergrafik, bei der sich physikalisch basierte Technologien und künstliche Intelligenz ergänzen, um bahnbrechende Resultate zu erzielen. Die Fähigkeit, eine Billion Dreiecke in Echtzeit zu berechnen und darzustellen, könnte die Art, wie wir digitale Welten erleben, revolutionieren. Anwendungen reichen von Videospielen mit noch immersiveren Welten über Film- und Produktvisualisierung bis hin zu Simulationen und virtueller Realität. Diese Errungenschaften zeigen, wie wichtig kontinuierliche Innovation in Rendering-Technologien ist, um den steigenden visuellen Ansprüchen gerecht zu werden. Durch die Kombination von Hardware-Power, intelligenten Algorithmen und kreativen Lösungsansätzen öffnet Intel neue Türen für die visuelle Erlebnisqualität in digitalen Medien.
Der Fortschritt bringt Leistung und Bildqualität auf ein neues Niveau und zeigt, dass Real-Time Pathtracing auch bei immensen geometrischen Datenmengen möglich ist – und das in beeindruckender Geschwindigkeit. In den kommenden Jahren wird zu erwarten sein, dass diese Technologien weiter verbessert und in vielfältigen Bereichen eingesetzt werden. Die Ergebnisse aus der Forschung bei Intel bilden eine wichtige Grundlage für Entwickler und Künstler weltweit, um noch authentischere und eindrucksvollere digitale Inhalte zu schaffen. Das Zusammenspiel von beschleunigter Hardware, KI-gesteuertem Entrauschen und cleverem Management riesiger Datenmengen ist der Schlüssel zu einer neuen Generation computergenerierter Bilder, die industrielle und kreative Standards nachhaltig verändern kann.