Raytracing auf HD4000 Karten

Antimon

Commander
Registriert
Nov. 2007
Beiträge
2.614
Wie PCGH in einer News berichtet wurde bereits die 2900XT als Raytracer für die Trailer des Transformer Films verwendet und auch die HD4000er Serie soll Raytracing voll unterstützen

ules World, eine Firma, welche Spezial-Effekte für Filme produziert, arbeitet seit geraumer Zeit mit Raytracing. Im Interview auf dem AMD Cinema 2.0 mit dem Vorsitzenden, Jules Urbach, wurde nun bekannt, dass sich alle Radeons ab der HD 2900 XT für Raytracing eignen.

Die Kombination aus dem DX9-Pfad und der Tesselation-Einheit aller R600-Abkömmlinge ermöglicht Berechnungen in Echtzeit. So wurden alle Trailer des Films "Transformers" mit einer GPU gerendert. Eine HD 2900XT schafft 20-30 Bilder pro Sekunde mit einer Auflösung von 1.280x720 Bildpunkten, eine HD 4870 soll mit Kantenglättung nicht unter 60 Fps fallen. Wichtig ist hier auch die verbaute Menge an Video-Speicher, 1.024 MiByte sollten es schon sein. Nvidias Geforce 8800 sind mit der Technologie ebenfalls kompatibel, jedoch etwas langsamer.

Jules Urbachgeht davon aus, dass Fotorealismus nicht erst in 3-5 Jahren, sondern noch 2008 möglich sei. Ob es genauso schnell gelingt, diese Raytracing-Technik für Spiele zu nutzen, ist nicht bekannt. Die Bilder in der Galerie vermitteln Ihnen einen Eindruck, was eine heutige Mittelklasse-Grafikkarte zu leisten imstande ist.

Wollen wir doch mal schaun was das Jahr 2008 sonst noch für Überraschungen auf Lager hält :D

Quelle
 
noch ein Grund mehr, um ati zu kaufen, sind dann ja noch zukunftssicherer. =)

bin auch gespannt, was wir noch alles zu bestaunen haben in zukunft.
 
Abwarten und tee trinken^^:D
 
"So wurden alle Trailer des Films "Transformers" mit einer GPU gerendert"

Was für eine schwammige Aussage... Die Trailer sind doch nur Zusammenschnitte vom Film - und dort wird nicht mit GPUs in 720p gerendert. Der Artikel macht den Eindruck als ob Teile des Films einfach mit Grafikarten in Echtzeit gemacht wurden. Wäre mal interessant was genau Jules World mit GPUs in Echzeit berechnet hat. Videoencoding oder ne Farbkorrektur vielleicht?

ILM (die die Spezialeffekte für Transformers gemacht haben) rendern meistens mit Maya (Renderfarmen die auf ganz normalen CPUs rechnen) und das Compositing wurde mit Inferno und Nuke an teuren Workstations gemacht. Es ist gut möglich, dass in ein paar Jahren einige CGI Software zum Rendern auch auf Grafikarten (CUDA usw.) zurückgreifen kann. Bis das ganze mal praxistauglich wird (= 1:1 Ergebnis im Vergleich zur CPU Berechnung) und die klassichen CPUs ersetzt, dauert es sicher noch eine Weile.
 
Einen weiteren Thread zum Thema findet man auch im Forumdeluxx: *klick mich*

@Saddler

Im englischen original steht bisserl mehr Info

In terms of performance, the Radeon 2900XT 1GB rendered Transformers scenes in 20-30 frames per second, in 720p resolution and no Anti-Aliasing. With the Radeon 3870, the test scene jumped to 60 fps, with a drop to 20 fps when the proprietary Anti-Aliasing algorithm was applied. Urbach mentioned that the Radeon 4870 hits the same 60 fps – and stays at that level with Anti-Aliasing (a ray-tracer is not expecting more than 60 fps.)
 
cosmicparty schrieb:
noch ein Grund mehr, um ati zu kaufen, sind dann ja noch zukunftssicherer. =)

Meinst du ? ;)

ATI kann Raytracing seit der HD2XXX. Diese sind schon ein paar Jahren auf dem Markt, hat das etwas gebracht ? Solange keine geeignete Software dafür gibt, bringt Raytracing 0,nix. Experten gehen in dem Fall von 3-5 Jahren. In 3-5 Jahren wird es Onboard-GraKas geben die die Leistung von der HD4870 haben. Ausserdem kann die Nvidia genauso Raytracing (ist nur etwas langsamer dabei).

Ich bin immer wieder überrascht wie schnell sich das Ganze entwickelt. PhysX/Havoc, CUDA/OpenCL und jetzt noch Raytracing. Bin ich froh ein Zocker zu sein :D
 
Schnie schrieb:
Ich bin immer wieder überrascht wie schnell sich das Ganze entwickelt. PhysX/Havoc, CUDA/OpenCL und jetzt noch Raytracing. Bin ich froh ein Zocker zu sein :D

Bunt ist das Zockerdasein und granten stark! ^^

was freu ich mich auf die zocks in 5 jahren. denkt ma 5 jahre zurück...
 
tochan01 schrieb:
Bunt ist das Zockerdasein und granten stark! ^^

Volle Kanne Hoschie :D

Bin nur mal gespannt, wann wir das erste Holodeck zum zocken haben.
 
@Antimon:

da steht leider nur dass "Test Szenen" (was immer das jetzt konkret heissen mag) in 720p mit Raytracing gerendert werden konnten.

Aber was für Testszenen? Im Film wird vermutlich in 2K oder 4K gerendert, und dass mit mehren Millionen Polygonen, hochauflösenden Texturen (ich meine jetzt nicht 1024x1024 sondern wirklich hochauflösend), Reflektionen, Ambient Occlusion usw.

Die sollten als Werbung lieder mal einen Beispielschuss zeigen und die Renderzeiten und Ergebnisse (Qualitätsverlust durch GPU berechnung?) pro Frame direkt vergleichen. Damit könnte man dann arbeiten / Schlussfolgerungen zihen. Sobald Grafikarten die CPU sinnvoll beim Raytracen unterstützen (sprich auch tatsächlich von Maya und Co. unterstütz werden - und nicht nur von irgendwelcher Testsoftware) werd ich mir sofort Karten jenseits der 300€ kaufen. ;)
 
Das mit dem hochauflösend schreiben sie ja auch, ist n Fall für die Zukunft ;)

In future, Urbach expects to see 1080p, 4K and higher resolutions being rendered in real time.

Aber hey, der Ansatz ist für´s erste mal nicht ohne und wenn die erst 1680x1050 in Echtzeit bei 60 FPS raytracen können sollte das, zumindest für Zockerzwecke, voll ausreichen. Bei der Filmindustrie ist klar, dass die noch bisserl mehr Rechenleistung benötigen als der Popel ZockerPC in der Ecke ;)
 
Zurück
Oben