News Gerüchteküche: AMDs RDNA-2-Serie besteht angeblich aus drei GPUs

GERmaximus schrieb:
Ich würde durchdrehen.
Das ist ein absolutes No Go für mich, wenn der Treiber rum Spackt.
Sollte ich auf AMD wechseln, würde ich meinen Gsync Monitor noch für zwei Wochen behalten. Innerhalb dieser zwei wochen (nur zwei Wochen) würde ich die Karte Stock betreiben und darf sich maximal 0 mal durch den eigenen Treiber abschießen...
Nvidia hat mir mit einem Treiber Release schon ein ganzes Windows zerbröselt. Neuinstallation inklusive, weil ich an einen Hardware Fehler gedacht habe. Amd braucht ein größeres Team, da stimme ich zu, aber Mist bauen beide...
 
  • Gefällt mir
Reaktionen: Rage, Onkel Föhn und Trefoil80
Hejo schrieb:
Wieso soll die neue Generation von AMD nicht die alte von Nvidia schlagen? denke schon das es möglich ist.
Sorry, habs zu schnell gelesen und zu fix geantwortet. Hatte gedacht er meint Nvidias Turing Nachfolger.
Das Big Navi Turing schlagen wird, daran hab ich keine Zweifel.
Wäre dem nach so langer Zeit nicht so, könnte AMD dicht machen.
 
Colindo schrieb:
N7P wurde anscheinend bereits für Navi10 verwendet, also wäre nur N7+ überhaupt ein Fortschritt in der Fertigung. Ansonsten ist läuft alles über die Architektur, was die +50% P/W so erstaunlich macht
Mir ging es bei meinem Kommentar nicht darum, wie die Fortschritte vei RDNA2 zustande kommen, sondern darum, dass geschrieben wurde, dass die RDNA2-Chips im 7nm Verfahren ohne EUV gefertigt werden (also N7P). Offiziell gab es aber dazu nie eine Aussage - weder für CPUs noch GPUs oder ich habe da etwas nicht mitbekommen
 
Ja, da hast du völlig Recht. Ich wollte das auch nur ergänzen, nicht bestreiten.
Ergänzung ()

DarkerThanBlack schrieb:
Bei AMD sind die Shader so aufgebaut, dass sie zusammen mit dem RT-Teil agieren, also ein Teil von den Shadern sind. Bei NVIDIA sind sie getrennt und müssen umständlich über die Tensors zusammen in Einklang mit den Shadern gebracht werden.
Der Unterschied ist aber minimal, denn bei Nvidia wird die Funktion eben auch von den Shadern aufgerufen. Es ist nur bei NVidia eine Hierarchie drüber, und dadurch etwas unflexibler. Und die Anmerkung von Teralios war eben, dass es trotzdem Platz verbraucht. Zumindest nach der aktuellen Faktenlage. Kann sich natürlich auch ändern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Teralios
Interessant wirds dann wohl erst, wenn die Konsolen rauskommen.

Da die Grenzen zwischen PC und Konsole immer weiter verschwinden, sollte man sich bei Portierungen ja Arbeit sparen können. Dies könnte, was RT betrifft, ja AMD in die Karten spielen.

Ich freue mich auf jeden Fall schon auf BigNavi. Endlich wieder was zu basteln ^^
 
Warum lese ich hier immer 2080TI?! Das ist EOL Althardware die NV noch nicht ersetzt hat weil kein Konkurrenz da ist. AMD ist im Moment nur durch den Fertigungsvorteil über konkurrenzfähig. NV könnte mit 7nm EUV den Chip fast um Faktor drei schrumpfen. RDNA2 ist mehr als zwingend nötig. Die 5700XT ist von den Chipdaten nicht mehr als ein Mainstreamchip. Die Fertigung ist halt teuer weswegen die kleinen Navi eh alle nicht gut sind.
 
DarkerThanBlack schrieb:
NAVI23 (80-96CUs 5120-6144Shader 2048Bit-SI 16 GB HBM3-Speicher mit bis zu 1,5-2 TB Bandbreite) wird dann vermutlich das Flaggschiff darstellen und somit die jetzige RTX2080Ti um 30-50% überbieten bei fast 300Watt TDP.
Also bei den Specs. würde ich für die Karte sogar ne vierstellige Summe rausrücken.
 
DarkerThanBlack schrieb:
Nein, das ist absolut richtig. Du hast es doch gerade erklärt.
Nein, es ist weiterhin in der Form so falsch, weil es gewisse Aspekte nicht beachtest und damit ist das Bild, was du vermittelst falsch!

Wie viel du darüber weißt, sieht man dann übrigens, wenn du das schreibst:

DarkerThanBlack schrieb:
Bei NVIDIA sind sie getrennt und müssen umständlich über die Tensors zusammen in Einklang mit den Shadern gebracht werden.
Das ist nun nicht nur mehr ein falsches Bild, was du vermittelst, sondern wirklich falsch. Den Tensor-Kerne werden aktuell nur für DLSS genutzt. Vermutluch könnte in Zukunft, wie @Colindo schreibt, auch das Denoising über die Tensors laufen, aber aktuell ist das nicht der Fall.

Auch hier verweise ich auf sein Artikel.

DarkerThanBlack schrieb:
Ergo, Bei AMD läuft alles über die Shader. Daher absolut korrekt von mir gesagt.
Und die Aussage vermittelt weiterhin das falsche Bild und damit ist es nicht von dir korrekt von dir gesagt. Beschäftige dich mit der Materie, les meinen Beitrag mal genauer und was du z.B. zu nVidia geschrieben hast, dann solltest du es verstehen.

Kurzfassung aber für dich:
RT an sich wird sowohl bei nVidia als auch AMD "primär" über die Shader berechnet. Die "anspruchsvolle" BVH-Suche - ich vereinfache stark, sodass es grob zwar richtig ist, im Detail aber falsch - wird jedoch bei beiden ausgelagert an Blöcke, die wesentlich näher am Cache und dem VRAM sind, weil hier dann eine große Menge an Daten durchsucht werden müssen und die Anbindung der Shader am Cache - wurde bei RDNA als auch Turning verbessert - und RAM eher bescheiden ist.

Beide Firmen haben jedoch ihre eigenen Detaillösungen, wie diese Suchen ausgelagert werden. Punkt!
 
Der Vollausbau zu 700 € und meine 5700xt ist auf eBay Kleinanzeigen zu finden (verschicke nichts, daher fällt das Forum leider flach)
 
  • Gefällt mir
Reaktionen: Andre Prime
Teralios schrieb:
Vermutluch könnte in Zukunft, wie @Colindo schreibt, auch das Denoising über die Tensors laufen, aber aktuell ist das nicht der Fall.

Wird nicht beides gemacht? AI-based auf den Tensor Cores und klassisch auf den Shadern?
 
M-7MkF7-D schrieb:
Schmunzel... angesichts der Preisentwicklung der letzten Jahre. :lol:

Die 5700xt lag/liegt bei 450 €.
Und AMD hat bei den CPUs Intel ja auch mit dem niedrigeren Preis Marktanteile genommen. Warum also nicht?
 
g0dy schrieb:
Die 5700xt lag/liegt bei 450 €.
Und für eine doppelte 5700XT würde AMD weniger als das doppelte verlangen? Gerade das Topmodell macht immer noch einen größeren Sprung im Preis nach oben.
 
Na bleiben wir einfach mal bei den Zahlen.

500mm² klingt gut. 50% mehr Performance pro Watt auch.

Mal abwarten, wie der neue "Schnickschnack" eingebettet wurde. Auf dem Papier waren die 5D Shader z.b. auch der helle Wahnsinn, in Games kam die Power zu selten auf die Straße, da sie einfach super schlecht zu programmieren waren.

Eigentlich klingt alles gut, ein doppelter Navi mit etwas verbesserter Fertigung.

Nur die Frage, wie man RTX einfach so "reingehext" hat, bereitet mir ein wenig Sorge.

mfg
 
  • Gefällt mir
Reaktionen: Mcr-King
g0dy schrieb:
Die 5700xt lag/liegt bei 450 €.
Und AMD hat bei den CPUs Intel ja auch mit dem niedrigeren Preis Marktanteile genommen. Warum also nicht?
Der 5700XT ist nur halb so groß.... der ist sogar auf einem Level mit einer RX480/580.

Du glaubst doch nicht, dass sie die Chips verschenken.
Billiger ja... ist aber bei einer RTX2080Ti auch nicht so schwer...

Falls es so kommt freue ich mich auch, glauben tue ich das erst, wenn ich sehe.
 
GERmaximus schrieb:
Diesen ernüchternen Effekt hatte ich als ich extra für RDR2 (testweise) eine 2080 drin hatte. ne handvoll fps mehr, die ich kaum merkte, dafür in dx11 Titeln deutlich langsamer.
Also die 2080 wieder weg und meine 1080ti behalten.
Fairerweise muss ich aber auch sagen das die 2080 ein OC Krüppel war (knapp über 1900 Mhz mehr nicht) während meine 1080ti echt gut im Futterliegt.
Aus irgend einem Grund schafft die in RDR2 auch deutlich über 2100mhz bei mir (2139mhz). Jedoch auch NUR in diesem einem Game.

Eigentlich müsste ich mal am Community Bench teilnehmen, würde mich echt mal interessieren wie die da im Vergleich zu darsteht.

Dass ist einfach zu erklären da die RTX sich TBP mit allen aufteilt ob dass jetzt TR oder RT oder Cuda Cores sind.
Was soviel bedeutet dass die RTX immer in Spielen die ohne RT und DSSL sind mehr Takt hat da mehr TBP da ist und leider kannst du da Bios moden so lange du möchtest NV hat da ein HW stopp ein gebaut was jeder Hersteller aufs Board klatschen muss.
 
ZeroStrat schrieb:
Wird nicht beides gemacht? AI-based auf den Tensor Cores und klassisch auf den Shadern?
Zurzeit gibt es keinerlei Implementierung für Tensor-Core-basiertes Denoising für Spiele. Wird auch in Nvidias Whitepaper von 2018 nirgendwo erwähnt. Einzig die Beschleunigung für produktive Software gibt es.
 
  • Gefällt mir
Reaktionen: Teralios
[wege]mini schrieb:
Na bleiben wir einfach mal bei den Zahlen.

500mm² klingt gut. 50% mehr Performance pro Watt auch.

Mal abwarten, wie der neue "Schnickschnack" eingebettet wurde. Auf dem Papier waren die 5D Shader z.b. auch der helle Wahnsinn, in Games kam die Power zu selten auf die Straße, da sie einfach super schlecht zu programmieren waren.

Eigentlich klingt alles gut, ein doppelter Navi mit etwas verbesserter Fertigung.

Nur die Frage, wie man RTX einfach so "reingehext" hat, bereitet mir ein wenig Sorge.

mfg

Nee die werden es über die TMUS oder die ROPs laufen lassen, denke ich mal.
 
Colindo schrieb:
Zurzeit gibt es keinerlei Implementierung für Tensor-Core-basiertes Denoising für Spiele. Wird auch in Nvidias Whitepaper von 2018 nirgendwo erwähnt. Einzig die Beschleunigung für produktive Software gibt es.
Im Digital Foundry analyse- Video zu Minecraft, indem auch NVIDIA Techniker anwesend waren, wurde ein Hinweis fallen gelassen, dass man jetzt, wo DLSS unter "Kontrolle" wäre, mit Nachdruck dabei ist, am Tensor- Core Denoising zu arbeiten.

Alles in Allem wünsche ich AMD ein glückliches Händchen für ihre Karten. Allerdings sehe ich das wie viele hier, dass der Nachteil eines schon verfeuerten Nodesprungs und auch des Verschlafens von Raytracing, DLSS und co. NVIDIA wieder einen erheblichen Vorsprung verschafft.

Die hatten zwischenzeitlich genügend Zeit, mit den neuen Herausforderungen moderner Engines auf Tuchfühlung zu gehen und werden ihre Erfahrungen natürlich in die neuen Chips einfließen lassen.

NVIDIA ist halt nicht mit Intel zu vergleichen, da sie nebst den technologischen Vorsprung eine hohe Innovationsgeschwindigkeit vorlegen.

Jemanden bei einem 100 Meter Rennen zu schlagen, der sich ab Meter 70 den Knöchel verstaucht ist halt deutlich einfacher, als den Favoriten einzuholen, der 20 Meter Vorsprung hat.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeroStrat und Colindo
Shoryuken94 schrieb:
Da muss man aber auch beachten, dass Nvidia nun ein deutlich breiteres Lineup an interessanten karten für halbwegs preisbewusste Leute anbietet (16er Karten, die Super Neuauflagen nach kürzerer zeit etc.)

Interessant wird es ab 8 GB Speicher. Da geht es bei nVidia ab 400 €uronen los und da ist dann auch nix mehr mit "Preisbewusst" ...

MfG Föhn.
 
  • Gefällt mir
Reaktionen: eXe777 und Chismon
Zurück
Oben