Kommentar Kommentar: Die Zukunft der 3D-Grafik

sehe die ganze sache eher gemischt. klar ist RT ein grosser anreiz und schöne beleuchtung mach immer viel her, allerdings muss gesagt werden das licht und schatten nicht alles sind. Denkt mal bitte an doom 3 zurück. für die damalige zeit tolle licheffekte, aber texturen die zum weglaufen waren. Dazu kam noch die tatsache das die meisten user den schattenkram abgeschaltet haben weil er zu performancelastig war.

imo sollte mehr wert auf gute texturen gelegt werden, und gut heisst nicht bump- oder normalmaps und so ein müll, denn ich will keine glänzenden wände wo die struktur aussieht wie übergegossener wachs sondern fotorealistische grafik, so im stil von max payne damals, nur natürlich auf höherem niveau :)


die texturen sind imo das was von den herstellern zuerst angegangen werden müsste bevor man sich dem licht widmet. denn auch der schönste realistische schattenwurf mit weichen kanten und der perspektivisch korrekt dargestellt wird kann pixelbrei nicht aufwiegen!
und für texturen braucht man auch weitaus weniger rechenpower, eher mehr ram. wäre also sehr günstig zu erreichen.
 
Fakt: In der Welt der Spieleentwickler ist man sich einig, dass Raytracing ,auch über längere Zeit hin, nicht einsatzbereit ist für die Verwendung im Realtimerendering.
Raytracing wird noch über einige Jahre hinweg eine reine "offline" Anwedung bleiben.
 
Mit steigender Anzahl an CPU-Kernen wird mangelnde Geschwindigkeit imho künftig kein Thema mehr sein. Man stelle sich vor was eine CPU mit 64 oder mehr Kernen zu leisten im Stande ist. Raytracing wird die Rasterisierung verdrängen, da bin ich mir sicher. :)

P.S.: Die Schreibweise des Übersetzers für Quintessenz ist sehr interessant. ;)
 
tja, der traum vom echtzeitraytracing ist so alt wie die ersten brauchbaren raytracing-bilder - zu verlockend ist die damit erreichbare qualität. man vergisst aber dabei, dass es stunden bis tage braucht "perfeke" raytracingbilder zu rendern. also pro bild. welche entwicklungsschritte notwendig sind, um das gleiche ergebnis 30 mal pro sekunde zu erreichen, kann man sich ja ungefähr ausrechnen. wie der autor schon schreibt: raytracing ist in vielen bereichen einfach zu langsam. und das wird auch noch sehr sehr lange so bleiben. die pragmatische ansatz muss einfach in einer kombination beider techniken liegen - was vermutlich auch schon eine hinreichend große herausforderung ist.
 
Zhan schrieb:
tja, der traum vom echtzeitraytracing ist so alt wie die ersten brauchbaren raytracing-bilder - zu verlockend ist die damit erreichbare qualität. man vergisst aber dabei, dass es stunden bis tage braucht "perfeke" raytracingbilder zu rendern. also pro bild. welche entwicklungsschritte notwendig sind, um das gleiche ergebnis 30 mal pro sekunde zu erreichen, kann man sich ja ungefähr ausrechnen. wie der autor schon schreibt: raytracing ist in vielen bereichen einfach zu langsam. und das wird auch noch sehr sehr lange so bleiben. die pragmatische ansatz muss einfach in einer kombination beider techniken liegen - was vermutlich auch schon eine hinreichend große herausforderung ist.

Korrekt ;). Nehmt euch einfach mal Cinebench ... schaut wie lange ihr braucht für das Bild, dann überlegt ihr euch wieviel (aktuelle) Prozessoren ihr bräuchtet um das Bike in 1sek zu rendern und dann nehmt den Wert mal 25 denn soviel braucht ihr mindestens um 25FPS/s darstellen zu können :D. Diese Summe ist gigantisch :D
 
daysleeper83 schrieb:
Nehmt euch einfach mal Cinebench ... schaut wie lange ihr braucht für das Bild, dann überlegt ihr euch wieviel (aktuelle) Prozessoren ihr bräuchtet um das Bike in 1sek zu rendern und dann nehmt den Wert mal 25 denn soviel braucht ihr mindestens um 25FPS/s darstellen zu können
Gut, mein Q6600@2,4Ghz braucht für das Bild ca. 80 Sekunden, das entspricht 8 aktuellen Stream Prozessoren mit 1,2 Ghz wie z.B. auf der GTX 280.
280 davon schaffen das Bild schon in 2,3 Sekunden. Dazu kommt noch, dass das Bild absolut nicht auf Geschwindigkeit optimiert und viel zu komplex für aktuelle Spiele ist. Mit etwas Optimierung und der nächsten Generation Grafikkarten könnte da meiner Meinung nach durchaus etwas machbar sein.
 
Harleaquin schrieb:
man darf bei der ganzen diskussion eines nicht vergessen - es geht hier weniger um fachliche analysen raytraycing vs. raster. es geht um intel vs. nvidia.

auf der einen seite ist intel. intel kommt aus der cpu sparte und versucht seinerseits mit diesem technologievorsprung in den grafiksektor vorzudringen. für eine grafiklösung die auf multicore im cpu style setzt eigent sich raytraycing perfekt. gelingt es also intel raytraycing zu etablieren, glänzen ihre grafikeinheiten gegenüber herkömmlichen grafikkarten. denn die pure theoretische rechenpower in flops sagt wenig aus über anwendungsspezifische performance.

andereseits nun nvidia. mit der zunehmenden zahl an cpu kernen steigt auch die bedrohung durch diese, bzw. die notwendigkeit diskreter grafiklösungen. primärziel ist es also das grafikanwendung tunlichst vom gpu stil profitieren, also hohe zahl an kernen, die jeweils aber längst nicht die flexibilität eines cpu kerns haben. man startet also mit cuda und co einen feldzug der erstmal jedem klarmachen soll wieviel power in den eigenen gpu's steckt. als nächstes spielt man die karte des vorteils bestehender lösungen - never change a running system.

intel will ran an den kuchen & nvidia will nix abgeben. beide sind clever genug um sich nicht auf das heimatgebiet des anderen zu bewegen - also - gehen stellvertretend die zwei grafikansätze ins feld. wie bei der frage beta vs vhs, cd+ oder -, blue ray vs hddvd - ist am ende nicht die frage wer das faktisch bessere system hat; sondern wer mehr partner findet und seinen standard etabliert.

gelingt es intel genügend gameschmieden ins ray-boot zu bekommen, backen sie damit einen neuen grafikmarkt kuchen für den nvidia nicht die perfekte backmischung hat. andererseits wird nvidia alles versuchen die vorzüge des bestehenden kuchens hervorzuheben...
lachender dritte könnte dabei am ende ati/amd sein - sie können, wenn sie es nicht verpassen, mit backmischungen für beide kuchensorten aufwarten.

die zeit wird es zeigen...

Yepp, so schauts aus. Es geht hier um die Existenzgrundlage.

Intel prescht mit Raytracing vor, was herkömmliche Grakas überflüssig und Nvidia pleite machen würde. Im Gegenzug antwortet Nvidia mit GPGPU (was Intel pleite machen würde) und spielt Raytracing runter. Ist zwar bissle drastisch dargestellt, aber darum gehts im Grunde nur !

Intel hat seine CPUs, Nvidia ihre GPUs. Es ist zwar unwahrscheinlich, daß in nächster Zeit eines davon überflüssig werden könnte, allerdings wissen die Unternehmen sehr wohl daß es bei sowas um ihre Existenz geht und antworten entsprechend pikiert auf sowas.

P.S. Als "Artikel" würde ich das hier nicht bezeichnen, eher als Publikation oder sowas.
 
@Harleaquin
ACK

Eine Mischung wäre das idealste, die stärken von beiden nutzen und sich nicht auf eine Technik festlegen.
 
ich glaube eher nicht, dass sich raytracing durchsetzen wird. man sieht ja schon jetzt, dass die spieleschmieden zunehmend mehr auf der gpu rechnen lassen und weniger auf der cpu. das ist für mich ein inditz, dass sich durch diese spezialisierten prozessoren die anforderungen der spieleentwickler leichter und besser realisieren lassen.
falls intel mit raytracing doch erfolg haben sollte, wäre das wohl schlecht für nvidia sowieso, da diese in ihrem haußtgeschäftsfeld wohl sehr in bedrängnis geraten würden, aber auch für amd, da intel dann auch im grafikbereich mit ihrer finanziellen und technischen überlegenheit den markt weitestgehend an sich reißen wird...
 
@Lübke
GPUs sind in etwa CPUs halt nur grafische Darstellung und immer mehr Grafik auf GPUs rechnen zu lassen war doch schon immer so, lediglich der neue Physikfirlefanz sollte wieder zurück auf die CPU, verstehe nicht wie du darin den Weg weg von RT siehst.
 
@Lübke: Echtzeit-RT wäre ja auch auf einer GPU machbar. Allerdings leistungsmäßig erst in mehreren Jahren, nicht auf absehbare Zeit.
@f1delity: CPU´s können immer noch wesentlich mehr als GPU´s. Nur machen GPU´s das was sie können mittlerweile extrem schnell.
Insgesamt sind für die nächsten Jahre die Schienen nun mal noch auf Rasterizing gestellt. In fünf bis zehn Jahren wäre ein Wechsel auf Reytracing aber gar nicht so unrealistisch.
Es sei denn, eine andere Technik zeigt sich für Echtzeit 3D als besser geeignet. Also in etwa so wie bei der Diskussion um Voxelgrafik vor 15 Jahren.
 
Echzeitraytracing ist weder auf GPU noch auf CPU in absehbarer Zeit(für mich ~10 Jahre) machbar.
 
Ein Satz war für mich bezeichnend:

"Aber anstatt eine neue Architektur von der Pike auf aus dem Boden zu stampfen, glauben wir, dass es die großen Investitionen der gesamten Industrie zu erhalten gilt, die tief in DirectX und OpenGL verankert sind."

Auf gut Deutsch; Da wir soviel Geld in unsere jetzige Technik investiert haben gibt es nichts neues.

Oder: Marktchancen für "Nischen"-Hersteller.

Gruß
R.A.M.
 
R.A.M. schrieb:
Ein Satz war für mich bezeichnend:

"Aber anstatt eine neue Architektur von der Pike auf aus dem Boden zu stampfen, glauben wir, dass es die großen Investitionen der gesamten Industrie zu erhalten gilt, die tief in DirectX und OpenGL verankert sind."

Auf gut Deutsch; Da wir soviel Geld in unsere jetzige Technik investiert haben gibt es nichts neues.

Oder: Marktchancen für "Nischen"-Hersteller.

Gruß
R.A.M.


Ja ich finde das auch sehr interessant. Aber wird so nicht auch vielleicht "besserer Weg" ausgeschlossen? Nur weil man etwas Jahrelang macht und unendlich viel Geld investiert hat, muss es nicht zwangsläufig "Das Beste" sein, darauf weiter aufzubauen.
 
Also mir sind Licht und Schatten wichtiger als texturen und wenn ich in Spielen ansehen muss, wenn Schatten- und Lichtquellen nicht übereinstimmen nervt mich das - egal wie glatt und detailliert die Schatten sind und egal ob dioe nun mit Raytracing oder mit Rasterisierung gerendert wurden.
 
@f1delity: cpu und gpu sind grundverschieden, zumindest wenn wir von x86-cpus reden. diese sind extrem flexibel und vielseitig während gpu star und spezialisiert sind. eine gpu, die den super pi 10 x schneller schaft als ein intel quadcore @ 4 ghz wäre kaum in der lage windows vista flüssig auszuführen, weil fehlende fähigkeiten durch unmengen von rechenleistung kompensiert werden müssten. die ganze architektur ist grundverschieden. cpu beherschen komplexe befehlssätze und strukturen, gpu können nur einfache berechnungen, aber diese in enormen massen und geschwindigkeiten (vereinfacht ausgedrückt). gpu und cpu kann man nicht vergleichen.
 
GPGPU kann für alles eingesetzt werden, wofür eine CPU eingesetzt werden kann, sie ist nur abhängig von "Manythreading", da ein einzelner "Rechenkern" arsch lahm ist. Larrabee ist nur ein X86/X87-Manycore-Prozessor. ;)
 
Hi,

und Glückwunsch zu den Chip's der letzten 3 Jahre.

Gleichwohl ist ein Entwicklungsschritt sicher überfällig (zumindestens nach meinem Infostand); und zwar, kann ein PC ohne CPU laufen, denn Summa Summarum muß
man feststellen, daß der Energieaufwand/ verbrauch mehr oder weniger propotional zur Leistung einer Graphickarte ist und ich meine es wäre der falsche Weg, wenn eine optimale PC-Performance mindestens
ein 800W Netzteil benötigt.
Also, nur eine GPU wie die z.B. 9800GTX2, die dann alles kann und nur halb soviel Strom verbrauch.

Schöne Grüße und Bye

EXE
 
Zuletzt bearbeitet:
@ Lübke

Ich kann Windows auch nicht auf nem MIPS oder nem PPC installieren...

Und Larrabee ist sowieso ein reiner X86/X87-Manycore...

P.S.
Das Wort "Streamprozessor" finde ich ausschließlich bei Nvidia, nicht bei ATi.
 
Zuletzt bearbeitet:
Zurück
Oben