Kommentar Kommentar: Die Zukunft der 3D-Grafik

Registriert
Apr. 1999
Beiträge
582
Rasterisierung oder Raytracing? Die Meinungen zum Thema sind vielfältig. ComputerBase präsentiert die Meinung von David Kirk, seines Zeichens Chefwissenschaftler bei Nvidia, in einer übersetzten deutschen sowie in englischer Originalfassung.

Zum Artikel: Kommentar: Die Zukunft der 3D-Grafik
 
Habe mir den Artikel durchgelesen ist sehr interessant, vorallem die Rechenleistung einer GPU!
Gar nicht gedacht das eine "moderne" Grafikkarte so viel Leistung aufweisen kann.

Lassen wir uns mal in der Zukunft überraschen...

Guten Morgen!
 
In der Tat ein interessanter Artikel. Und kann nur sagen: der Mann trifft den Nagel auf den Kopf ;)
 
Intel werkelt nicht umsonst an Larabee, was ja nichts anderes als eine Grafikkarte wie die Radeon oder Geforce wird! Raytracing ist zwar interessant was die Lichtstrahlendarstellung angeht, aber das wars auch schon, ich habe bislang keine Videos/Bilder von Raytracing Games gesehen, die modernen Spielen heutzutage das Wasser reichen können. Außerdem scheint Raytracing viel mehr Performance zu fressen und dass Intel genau damit für seine CPUs wirbt ist einfach lächerlich!

Man sieht es eben deutlich, die GPUs haben sich zwangsweise weiterentwickelt, die CPUs stehen seit Jahren still und konnten vergleichsweise lächerliche Steigerungen erreichen, jetzt geht es gar nur noch mit erhöhung der kerne, was allerdings unglaublich kompliziert zu programmieren ist, weswegen ich auch in Zukunft keinen Quadcore kaufen werde. Die Entwickler haben schon alle Hände voll zu tun DualCore Unterstützung zu liefern...

(mal abgesehen davon, dass ja die Quadcores und bald Octacores nicht ihre volle leistung verwirklichen können, denn mit jedem Kern wird die Skalierung schlechter, ein Single Core liefert 100% ein Dualcore 80% glaube beim Quad sinds nur noch 60%, ein Quad ist eben nicht 4 einzelne xGhz CPUs, sondern eine mit 4 Kernen...)
 
Alles schön und gut, aber seine Argumentation, man solle doch das weiterentwickeln, in was mehr investiert wurde, find ich nicht sehr schön. Man soll einfach den besseren Ansatz weiterentwickeln - und wenn beide gut sind und auch beide gleichzeitig verwendet werden können, umso besser. Aber sich vom derzeitigen Entwicklungsstand und dem ins Projekt geflossenen Geld leiten zu lassen?
 
Hi,

in der Mitte des Artikels klingt das ein wenig so danach, dass man doch beim Alten bleiben soll. In der Art, dass Veränderung nich erstrebenswert ist. Auch wenn er das Ruder doch noch umschwänkt.
Meiner Meinung nach ist es wichtig, dass immer wieder neue Ansätze ausprobiert werden. Wie diese dann letztendlich implementiert werden ist mir, als Anwender egal.
Ausserdem macht es immer wieder Spaß über neue Möglichkeiten zu lesen.

Cu
HosenStahl
 
also ich finde den artikel sehr interessant. Er zeigt auf was für eine enorme Leistung in einer Graka steckt, und was noch alles möglich sein wird.

warten wir mal die zukunft ab ;)
 
@ vendetta

hmm dir ist klar das derzeit alle Spiele soziemlich singlethreaded geschrieben sind?? Einfach weil ihre Devkits nix anderes hergeben..man muss den programmierern mal ein bissle zeit geben um neue Ansätze zu finden, wo es möglich wird mehrere kerne benutzen zu können..

und es ist eine Milchmädchenrechnung mit den Prozentabstufungen, ein Mehrkerner skaliert extrem gut solang das Speicherinterface nicht schlapp macht, grade bei berechnungen, simulation ect.(sodass sich jeder Wissenschaftler, Datenbankmensch, ect über jeden Kern mehr freut)

Bei "Echtzeit"abfragen wie sie nunmal bei Spielen notwendig sind ist dies nicht so einfach...

Selbst wenn es in den Heimanwendungen nur zu 20-30% mehrleistung führt wenn man einen Kern hinzufügt, ist das sehr gut, weil viel mehr als 4-5Ghz werden technologisch nicht möglich sein(aussser man baut wieder Architekturen ala netburst ;-) )

Es dauert halt alles weil theoretiker, technologe, Programmierer, Industrie und letzendlich auch der Kunde erstmal auf einer "Wellenlänge" sein müssen...

Das eine GPU soviel mehr Teraflops abarbeiten kann ist ja kein Wunder, nur leider sind die befehlssätze viel viel eingeschränkter als eine CPU, ich finde intels Larabee zwar auf die oder andere Weise Innovativ aber das daraus eine ConsumerSpieleKarte wird bezweifle ich stark, man wird sie eher wie die Prokarten von Nvidia und ATI in Workstaions wiederfinden...
 
Sehr schöner Artikel der genau das aufgreift was ich schon immer bei der ganzen Raytracing Diskussion (seitens Intel in Bezug auf Larrabee) gedacht habe. Raytracing vs. GPU ist halt falsch formuliert da GPUs heute auch in der Lage sind Raytracing durchzuführen. Somit ist es eher eine Raytracing vs. Rasterization bzw. CPU vs. GPU Diskussion.

Und solange die Rechenpower nicht ausreicht die optische Qualität des Rasterverfahrens von heute in Raytracing abzubilden ist Raytracing unterlegen. Letztendlich zählt nur der optische Eindruck und nicht unbedingt wie genau nun z.B. Reflexionen sind. Die ganzen Echtzeit-Raytracing Demos erinnern mich an die erste Raytracingbilder, die ich damals so gesehen habe. Viele tolle Reflexionen und Schatten aber total steril.

Warten wir es ab.
 
Die zukunft der 3D-Grafik liegt be J. Carmack. Megatexturing und Megageometrie, mit einer der wenigen die sich mit Raytracing beschäftigen und schon lösungen für Probleme hat, die es jetzt noch nicht gibt :D.

Gibt nen Interview mit J.C. über id-tech 6, raytracing und co.
 
Sorry, aber das ist doch wohl 100% Nvidia Eigenwerbung. War im Prinzip von David Kirk nicht anders zu erwarten.
Ab einer gewissen Polygonmenge hat Raytracing schon sehr viele Vorteile gegenüber Rasterizing, lässt sich unter anderem in beiden bisherigen Raytracingartikeln von CB nachlesen, außerdem ist die Qualität in vielen Bereichen wie Transparenz, Reflexionen und Schattenberechnung bei Raytracing Prinzipbedingt besser.
Und wie ein Mehrkernprozessor skaliert ist davon abhängig, wie dieses Programm aufgeteilt wird. Bei Spielen ist die gleichmäßige Auslastung eben relativ schwierig, die einzelnen Threads haben aber auch eine sehr unterschiedliche Auslastung. In anderen Bereichen skalieren Programme aber fast schon linear mit der Anzahl der Kerne.
Außerdem stimmt es, dass GPU´s mittlerweile im PC-Segment mehr Rechenleistung als CPU´s haben. Die ist aber nicht ansatzweise so flexibel wie bei einer CPU, bzw kann für viele Bereiche gar nicht angewandt werden. Die Shadereinheiten von heute sind eben noch sehr limitiert.
So kann man das ganze in etwa wie folgt lesen; Für Raytracing ist es noch zu früh, alleine weil wir soviel Kohle in Rasterizing gesteckt haben. Aber abhängig davon, was die Konkurrenz macht werden wir uns in den nächsten 10 Jahren mal in die Richtung bewegen. Raytracing mag bei Genauigkeit, Qualität und Handhabung ja Vorteile haben, aber wir haben in Rasterizing so viel Geld gesteckt, das muss genau so gut sein.
Ist aber auch nicht anders zu erwarten. Beide großen Grafikkartenhersteller haben Systeme, die bisher auf Rasterizing ausgelegt sind, alles, was die GPU´s zusätzlich können ist im Prinzip eine Art Abfallprodukt. Die Shader von heute lassen eben auch neben Rasterizing andere Berechnungen zu.
Bis ATi und NV wirklich effiziente Raytracing-Techniken implementieren, bzw. die Shadereinheiten darauf ausgelegt sind, ziehen noch ein paar Jahre ins Land. Dann werden wohl auch beide Hersteller Rasterizing fallen lassen und Raytracing massiv pushen. Allerdings wird das wohl auch den Nebeneffekt haben, dass die Unterschiede zwichen einzelnen Leistungsklassen nur noch in der flüssig darstellbaren Auflösung bestehen dürften, da Raytracing kaum von Dingen wie Texturauflösung oder Sichtweite usw. abhängt.
 
Sehr interessanter Artikel. Und vielen Dank, dass ihr den Artikel auch in englischer Originalsprache aufs Netz gestellt habt! Liest sich um einiges leichter und besser.
 
was ich mich die ganze zeit frage wieso müssen denn die armen entwickler alles umschreiben damit es dual core unterstützung gibt? Wieso geht das denn nicht automatisch wie bei einer GPU? Das ist doch das ziel das erreicht werden muss, eben diese automatische Verteilung auf die anzahl der gegebenen Kerne!
 
naja vermutlich weil GPU ganz spezifische aufgaben hat, also hauptsaechlich geometrie berechnungen und so.
 
wirklich sehr interessanter Artikel

Bin allerdings nicht so mutig wie andere hier das was der gute Mann schreibt zukommentieren oder gar zukritisieren da das doch ne andere liga ist.
 
Blablabla... Uns wurde schon vor 4 Jahre bessere Grafik versprochen, einfach traurig wenn man die Grafik von Games heutzutage so sieht, in Anbetracht der leistungsfähigen GPUs... Einziger Lichtblick: Crysis
 
@mistermeister: das sehe ich nicht so, wenn ich zBsp Battlefield 1942, Battlefield 2, Battlefield Bad Company miteinander vergleiche dann ist da ein Himmelweiter unterschied vorhanden, wenn Far Cry 2 das hält was es verspricht dann macht die Grafik auch dort wieder einen großen Sprung.

Aber interessant die ganze Geschichte...wenn ich daran denke das unsere Schulcomputer mehrere Sekunden an einen einfachen raytracing Bild rendern^^
 
Sehr interessant, wenn auch etwas zu sehr mit Schleichwerbung durchsetzt. Aber man kanns ihm wohl nicht übel nehmen.

Ich bin mir auch ziemlich sicher, dass Raytracing kommen wird. Die Vorteile bei der Belichtung, v.a. die Möglichkeiten, die sich ergeben, wenn die Rechenleistung stimmt, sind gigantisch. Aber auch ein gemischter Ansatz könnte interessant sein.

Ich arbeite immer wieder mit Blender3d, was einen Renderer auf Basis der Rasterisierung integriert. Zusätzlich kann man aber Licht und Spiegelungen/Transparenzen mit Raytracing berechnen lassen.
Des weiteren habe ich verschiedene Raytracing Renderer, die verschiedene Raytracing-Ansätze nutzen (siehe Wikipedia).

Meine Beobachtung: Das beste Bild ergibt sich nicht immer mit Raytracing. Ebenso ist nicht immer das gemischte Verfahren schneller.
Sicher ist nur, dass das Bidirektionale Path Tracing (eig. MLT in meinem Fall) am längsten braucht, aber immer am realistischten (nicht am besten :D) aussieht. Nur sind 50 Std. pro Frame wohl nicht geeignet für Games. :p

Btw. die Demo von NVidia war wirklich schlecht. Das Raytracing war zwar schön, die Lichtberechnung und Spiegelungen exakt. Aber die Texturen sahen grottig aus und die Models waren auch nicht die besten, imho. Kein Wunder also, wenn man davon nicht beeindruckt ist.
 
captain carot schrieb:
Sorry, aber das ist doch wohl 100% Nvidia Eigenwerbung.

stimme ich dir so ziehmlich zu, aber was anderes macht Intel auch nicht ;)

captain carot schrieb:
Die ist aber nicht ansatzweise so flexibel wie bei einer CPU, bzw kann für viele Bereiche gar nicht angewandt werden. Die Shadereinheiten von heute sind eben noch sehr limitiert.
[...]
alles, was die GPU´s zusätzlich können ist im Prinzip eine Art Abfallprodukt. Die Shader von heute lassen eben auch neben Rasterizing andere Berechnungen zu.


Widersprichst du dir da nicht?
Du sagt mehr oder weniger zweimal genau das Gegenteil....

Mir ist klar, dass die Grafikeinheiten für Grafik optimiert sind - deshalb heißen sie ja schließlich so. Und genau das ist auch der Grund, weshalb die GPU's weiterhin die Nr. 1 in Sachen Grafik bleiben werden, während die CPU eben andere Sachen berechnet.
Beides zu vergleichen finde ich irgendwie lächerlich.

Grüße
jusaca
 
captain carot schrieb:
Sorry, aber das ist doch wohl 100% Nvidia Eigenwerbung. War im Prinzip von David Kirk nicht anders zu erwarten.
Woher wusste ich, dass nicht mal ein Artikel ohne einen solchen dummen Kommentar bleiben kann? Der Mann arbeitet bei Nvidia, warum sollte er Ati als Beispiel nennen? Könnt ihr Euch nicht einmal nur auf den Inhalt konzentrieren? Sind wir hier bei Computer Bild? Ach nein, die haben ja inzwischen die intelligenteren User.
 
Zurück
Oben