News 3DMark: Neuer Test nutzt Raytracing in (fast) vollem Umfang

Philanthrop schrieb:
@KCX
AMD wird den durchbruch mit RT schaffen, da sie für alle Konsolen die Hardware bestimmen und deswegen wird RT auch für diese Hardware optimiert. Dann kann Nvidia RT auf ihrer Shield abspielen die sowieso kein Pups auf diesen Planeten kauft.
Ja ja, dass Gleiche hat man damals schon über das Rendering gesagt als PS4 und Xbox One raus kamen. AMD stellt seit gut 7 Jahren die alleinige Hardwareplattform für "Highend" Konsolen und trotzdem konnte deren Architekturen am PC keinen Blumentopf gewinnen. Am Ende ist es eine genormte Schnittstelle und die kann jeder implementieren, da wird AMD auch die Konsolen Hoheit nichts bringen.
Was aber nicht heißen soll, dass deren RT nichts taugt. AMDs technische Umsetzung wirkt allerdings eher mit der heißen Nadel gestrickt. Ich möchte bezweifeln das RDNA2 von vorneherein mit RT geplant war.
 
  • Gefällt mir
Reaktionen: Lübke82
Philanthrop schrieb:
@KCX

Nvidia RayTracing wird sowieso in ein paar Jahren in vergessenheit geraten, da sie es mit ihren RT-Cores versuchen es für sich zu beanspruchen. AMD wird den durchbruch mit RT schaffen, da sie für alle Konsolen die Hardware bestimmen und deswegen wird RT auch für diese Hardware optimiert. Dann kann Nvidia RT auf ihrer Shield abspielen die sowieso kein Pups auf diesen Planeten kauft.

Was fürn Quatsch. Also ich hab eine Shield unter anderem.
 
Gomlot schrieb:
Mich würde es ja nicht wundern wenn AMD in diesem Szenario eine höhrer Leistung auf die Straße bekommt als Nvidia. Schließlich kann AMD alle Einheiten für RT Berechnung nutzen und nicht nur einen kleinen teil der GPU. Bin echt mal gespannt was dabei rauskommt. Ich freue mich auf den ersten richtigen Schlagabtausch mit unabhängigen Tests.
Das hängt ganz essentiell davon ab, wie das Verhältnis zwischen Strahlenflug durch den Raum und Strahlentreffern auf Polygonen aussieht. Strahlenflug kann AMD sehr gut, bei den Treffern sind sie leicht hinter NVidia.

AMD hat übrigens auch RT-Cores, falls das bei einigen noch nicht angekommen ist https://www.amd.com/en/technologies/rdna-2
1604418541304.png
 
  • Gefällt mir
Reaktionen: Toprallog, Tanzmusikus, Krautmaster und 2 andere
DocWindows schrieb:
Aha. Warum? Wenn die Entwickler DirectX nutzen ist es piepegal was dahinter für Hardware steht. Da muss der Entwickler nichts "nutzen". Er sagt dem Treiber, und damit der Hardware, über die API lediglich in generischer Form was zu tun ist und wie Treiber und Hardware dies dann umsetzen ist dem Spiel und dem Entwickler extrem latte.

Die Entwickler müssen das schon irgendwie performant auf der Konsole hinbekommen. Die setzen es dort auf der PS5 sicher nicht mit DirectX um und auf der Series X wird hingegen mit DX 12 Ultimate gearbeitet, wenn sich dort die Entwickler an den AMD Cores Leistungstechnisch orientieren, werden die sich sicher keinen Ast abbrechen um das groß für Nvidia abzuändern.

Edit: Und wenn die Cores von AMD und Nvidia pro Einheit eine ähnliche Performance haben und die Anzahl der Kerne fast identisch ist, dann ist noch obsoleter irgendwas anzupassen, die Entwickler werden schließlich immer fauler :D
 
Zuletzt bearbeitet:
irgendwann vielleicht 2035 werde ich den Raytracing Benchmark mal nutzen, dann sind vielleicht die Grafikkarten soweit alles mit Raytracing zu berechnen.
 
Colindo schrieb:
Das hängt ganz essentiell davon ab, wie das Verhältnis zwischen Strahlenflug durch den Raum und Strahlentreffern auf Polygonen aussieht. Strahlenflug kann AMD sehr gut, bei den Treffern sind sie leicht hinter NVidia.

AMD hat übrigens auch RT-Cores, falls das bei einigen noch nicht angekommen ist https://www.amd.com/en/technologies/rdna-2

Danke für die Info.
War mir bisher nicht bekannt, das AMD seperate Cores einsetzt.
Laut dem Link, 1x RT-Core pro CU, das ergibt entsprechend viele RT-Cores.
Dann ist also die Frage wie Leistungsfähig ist einer dieser Cores im vergleich zu denen von Nvidia.

In den technischen Details zur neuen Xbox und PS wurde gesagt, dass bei RDNA2 eine CU nur exklusiv für RT oder andere Berechnung genutzt werden kann.
Ist dies bei der neuen RX 6000er auch der Fall?
 
48,4fps

48,4fps.png
 
Niko-P schrieb:
In den technischen Details zur neuen Xbox und PS wurde gesagt, dass bei RDNA2 eine CU nur exklusiv für RT oder andere Berechnung genutzt werden kann.
Ist dies bei der neuen RX 6000er auch der Fall?
Da müsstest du mir eine Quelle liefern, denn ich denke exakt so wurde das nicht gesagt. Woran ich mich erinnere, ist dass AMD pro CU vier Textureinheiten (TMU) hat. Jede TMU kann entweder Texturen laden oder den Strahlenflug beschleunigen. Es muss pro Rechenschritt also entschieden werden, was gerade gefordert ist.
 
S.Kara schrieb:
Rein von der Steigerung der CUs her kann die RX 6900XT ja nur auf maximal 520 FPS kommen. Die RX 6800 wird womöglich irgendwo bei um die 390 FPS liegen. Also wohl auch unter einer 3070.
Aber trotzdem kein schlechter Einstieg AMDs für die erste Generation RT. Vor allem falls es tatsächlich stimmt, dass RDNA2 anfangs noch ohne HW-RT geplant war, aber das ist rein spekulativ.
 
  • Gefällt mir
Reaktionen: Toprallog
GrooveXT schrieb:
Ich möchte bezweifeln das RDNA2 von vorneherein mit RT geplant war.

da gebe ich dir recht, das gleiche glaube ich auch von der 5 monate zu früh auf dem markt gebrochene 30xxserie
 
Philanthrop schrieb:
das gleiche glaube ich auch von der 5 monate zu früh auf dem markt gebrochene 30xxserie
Ne das macht keinen Sinn. Da Turing ja schon RT hatte, warum sollte der Nachfolger dann ohne RT geplant gewesen sein? Zumal die RT Leistung ja schon einen deutlichen Sprung gemacht hat. Oder meinst du etwas anderes?
 
Colindo schrieb:
@GrooveXT Das entsprechende AMD-Patent ist von Dezember 2017. Das ist bei AMD mindestens schon länger im Gespräch gewesen.
Ah ok, wusste ich nicht. Danke für den Hinweis. Ein Patent sagt zwar noch nicht das es tatsächlich schon für diese Architektur geplant war, aber es spricht schon dafür.
Gefühlt würde ich sagen das AMD wohl erst später auf den RT Zug aufspringen wollte und von NV nun dazu genötigt wurde.
 
Simanova schrieb:
Bis heute werden Grafikeffekte von Entwicklern mühsam implementier....

Ein PC Titel der ausschließlich Raytracing verwendet wird bald kommen.

Raytracing simuliert eine Berechnung nahe an den physikalischen Vorgaben. Die Leistungsdifferenz kann mit DLSS vollständig ausgeglichen werden.
Hahaha, you make my day... :-)
 
Colindo schrieb:
Da müsstest du mir eine Quelle liefern, denn ich denke exakt so wurde das nicht gesagt. Woran ich mich erinnere, ist dass AMD pro CU vier Textureinheiten (TMU) hat. Jede TMU kann entweder Texturen laden oder den Strahlenflug beschleunigen. Es muss pro Rechenschritt also entschieden werden, was gerade gefordert ist.

Meine Quelle: https://www.computerbase.de/2020-08/xbox-series-x-hot-chips/
So kann eine CU auf der Xbox Series X offenbar pro Takt entweder an 4 Texturoperationen arbeiten (4 TMUs pro CU) oder an 4 Raytracing-Operationen.


Ich würde es so verstehen das auf einer CU entweder Texturoperation oder RT durchgeführt wird, beides gleichzeitig geht nicht auf einer (der selben) CU.
(meine interpretation)
Weiter nachgeforscht habe ich jetzt noch nicht, mache ich vielleicht später noch.
 
  • Gefällt mir
Reaktionen: Colindo
DocWindows schrieb:
Aha. Warum? Wenn die Entwickler DirectX nutzen ist es piepegal was dahinter für Hardware steht. Da muss der Entwickler nichts "nutzen". Er sagt dem Treiber, und damit der Hardware, über die API lediglich in generischer Form was zu tun ist und wie Treiber und Hardware dies dann umsetzen ist dem Spiel und dem Entwickler extrem latte. Kann AMD sein, kann Intel sein, kann nVidia sein.

Ja und nein. Auch mit einer abstrakten API kann man natuerlich auf eine spezifische Architektur hin optimieren. Genau das macht Intel zum Beispiel mit MKL fuer ihre Prozessoren. In dem Fall werden Daten umstrukturiert um die Architektur moeglichst optimal auszulasten. Das werden Entwickler natuerlich auch fuer die Konsolen machen, da sie eben eine fixe Performance haben und so viel wie moeglich rausholen wollen. Und da die XBox 1:1 die selbe API verwendet wie am PC darfst du genau einmal raten auf was da optimiert wird.

C3LLoX schrieb:
Rein von der Steigerung der CUs her kann die RX 6900XT ja nur auf maximal 520 FPS kommen. Die RX 6800 wird womöglich irgendwo bei um die 390 FPS liegen. Also wohl auch unter einer 3070.
Aber trotzdem kein schlechter Einstieg AMDs für die erste Generation RT. Vor allem falls es tatsächlich stimmt, dass RDNA2 anfangs noch ohne HW-RT geplant war, aber das ist rein spekulativ.

Sei mit den Zahlen aus dem Artikel vorsichtig. Die Einstellungen sind nicht bekannt und selbst die Zuordnung der 6800XT ist nicht gesichert. Abgesehen davon, dass der Test und Treiber auch schon aelter ist. Es wird sicher irgendwo in der Richtung liegen, aber die Zahlen sind alles andere als gesichert.
 
Simanova schrieb:
Bis heute werden Grafikeffekte von Entwicklern mühsam implementiert und getestet, das betrifft Shader, Ambient Occlusion und andere Techniken. Sobald Raytracing eingesetzt wird, fallen sämtlich Fake-Grafiktechniken weg. Der Entwickler braucht dann nur noch Raytracing in seiner Entwicklungsumgebung zu aktivieren, und ist quasi fertig. Ein PC Titel der ausschließlich Raytracing verwendet wird bald kommen.
Ich amüsiere mich derweil köstlich und sage 10 Jahre beim PC. Selbst bei den Konsolen, wo ich es eher erwarte werden wir in der übernächsten Generation nicht die Leistung haben.
Welches Spiel soll das werden? Crysis 4 gesponsert von NV? Bei den Multiplayertiteln verarscht sich doch keiner selbst für vollkommen unwichtiges RT und kappt sich von Minimum 75% seiner Kundschaft. An der Zahl wird sich so schnell auch nichts ändern. Der "Fake" ist einfach zu gut und zu leistungsoptimiert.

PS: Und ich spreche explizit von AAA wo die Grafikkarte eh kotzt und nicht irgendwelche Minecraft oder Q2 Umsetzungen.
 
  • Gefällt mir
Reaktionen: daknoll
xdave78 schrieb:
Erinnert ihr Euch noch damals an 3DMark99 und an die Anfang der 2000er?
Also den 3D Mark 2001 - lobby szene remastered mit heutiger Technik inkl. RT stelle ich mir Porno vor.

Für ein ruckeln mit RT reicht auch der Port Royale schon aus. Bis auf eine 2080TI mit knappen 30 fps+/-.
Von daher dürften auch 6900xt und 3090 im neuen RT unter 30fps landen mutmasse ich mal.

AlfoGTA schrieb:
Wow 48,8 FPS ist sehr gut, hätte ich nicht erwartet. Dann dürfte der Test aber auch weniger Anspruchsvoll sein als PP. Wieviele FPS bekommst du mit deinem Setting im PP zusammen?
 
Zurück
Oben