News Navi 31, 32 und 33: Handfeste Gerüchte zu AMDs Radeon RX 7000 mit RDNA 3

Novasun schrieb:
Ich bin da nicht so drauf wie du. Also a) geht man davon aus das der große Navi (und wenn dann würde nur da ein 2ter GDC "Sinn" machen) 3XX bit Speicherinterface hat. Jetzt weiß ich nicht, aber mit max Ausbau sind da dann 24GB oder gar 48 GB möglich?

Egal will sagen im Zweifel langt die Bandbreite um 2 GDC zu füttern. Ich sehe es also durchaus als technisch im Bereich des möglichen... Ich gehe sogar davon aus das AMD damit zumindest intern schon experimentiert...
ok, dann kann man darüber schlecht diskutieren, da mein "educated guess" ist, dass es technisch von der Bandbreite eben nicht hinhauen wird. :)
Letztendlich können wir nur abwarten und am Ende sehen, wer richtig lag.
 
Substanzlos schrieb:
Sieben Buchstaben... Abwärme!
Kann ich auch nicht ganz nachvollziehen, da ein erhöhter Geräuschpegel nur beim Gaming auftritt und die lauter werdende Karte dort meistens durch das Spiel übertönt wird.
Außedem kann man selbst die ineffizentesten Karten immer noch recht leise und luftgekühlt betreiben. Es wird halt alles nur etwas aufwendiger.
 
v_ossi schrieb:
Natürlich sind die meisten Grenzen zu einem gewissen Grad willkürlich, da brauchen wir gar nicht drüber diskutieren, aber ich finde es zunehmend wichtig(er) zumindest die Aufmerksamkeit auf solche Probleme zu legen.

Wenn man da immer nur auf andere, zugegebenermaßen größere Probleme verweist, kommt man nie auch nur einen Schritt weiter.

Und ja, selbst mit eigener PV Anlage ist es sinnig sparsam(er) zu sein, weil für alle 8kwh, die ich einspeise, in irgendeinem Kraftwerk 1kg weniger Kohle verbrannt werden muss.

Wenn wir ständig nur über diese winzige Gruppe von Enthusiasten reden, werden die Diskussionen einfach redundant. Die RTX 3090/Ti gehören zu den am wenigsten verkauften Karten dieser Generation und die meisten der Käufer sind eben auch genau diejenigen, die sich mit Undervolting beschäftigen.

Dann kommt im Thread hier noch "Ich will aber, dass die xx70 nur 200W verbraucht, weil ich meinen Status als Upper-Midrange-GPU-Käufer nicht verlieren will, Modellnummer wechseln geht gar nicht" - sorry aber irgendwo reicht es dann auch mal, das ist doch keine sinnvolle Diskussionsgrundlage mehr.

Klar, man kann jetzt sagen, dass ich vom Thema (GPU) abschweife, ab einem gewissen Punkt muss man aber auch mal die angeprangerten "Probleme" in Relation setzen, von deiner 300W-Grenze sind es noch ~150W bis zur vermutlich schnellsten GPU der RTX 4000 Gen und der schnellsten GPU der aktuellen Gen RTX 3090 Ti (450W), wenn RDNA3 nur 2x8pin bietet sind wir dort bei "nur" 375W.

Der Unterschied sind also 63g CO2 pro Stunde (420g/kWh), wenn wir uns den durschnittlichen Arbeitsweg von 34 km pro Tag anschauen und einen, den neuesten Grenzwert einhaltenden, Kleinwagen nehmen (95g CO2 pro km) sind alleine das 3230g CO2 (dies entspricht 8 Stunden Gaming pro Tag mit 1000W Verbrauch oder mehr als 51 Stunden ausgehend von dem Unterschied zu deinem Limit) und dieser Wert kann durch ein altes Auto oder einen SUV noch locker verdoppelt werden. Die Strecken sind doch auch mit dem Fahrrad machbar.

Wollen wir uns jetzt mal den Ernährungsplan (Rindfleisch >12kg CO2 pro kg) vornehmen oder betrachten, wieviel von den produzierten Erzeugnissen einfach entsorgt wird (75kg im Jahr pro Person)?
Und wer nutzt hier Multimonitor oder gar ein Soundsystem - Einsparungspotenzial 100%, die Leute treibe ich jetzt durchs Forum.

Man kennt seinen Diskussionspartner überhaupt nicht und ständig nur nach weniger Verbrauch bei Enthusiastenprodukten zu rufen ist einfach absurd, vor allem wenn die Verbrauchswerte nicht einmal bestätigt sind (siehe 800+W Diskussionen vor einigen Wochen) - eine RTX 3090Ti ist bei den Reviewern übrigens auch nicht so gut angekommen, die Kritikpunkte waren immer ähnlich:
  • hoher Stromverbrauch
  • wenig Mehrleistung
  • hoher Preis
  • enorme Abwärme

Die hohen Verbräuche werden also bereits ausreichend auf allen Ebenen angeprangert, auch bei dem 12900KS kamen die Reviews immer zu dem gleichen Ergebnis, computerbase macht einen guten Job, da müssen wir uns im Forum nicht ständig um den Verbrauch zanken.

PS: Ich selbst nutze im Sommer nur eine RTX 3060 Ti @175W, weil ich die Abwärme nicht mag, die RTX 3080 @270W nutze ich nur in den kalten Monaten.
 
Zuletzt bearbeitet:
aldaric schrieb:
Woher weißt du wie die verschiedenen Architekturen performen? RDNA2 war ja schon leicht vor Ampere. Wer sagt das dieser Vorsprung nicht größer wird?
Er kann es nicht wissen und ich geb es an der Stelle auf ihm seine Denkfehler aufzuzeigen, weil es mehr Kraft kostet, als es nutzen hat.

AMD hat nun das Speicherinterface zusammen mit dem Infinity Cache ausgelagert, beides sind - wie hier oft erwähnt wurde, Komponenten, die nicht wirklich von kleineren Nodes gleichermaßen profitieren. Hier mal ein interessanter Text dazu und welche Herausforderungen da so kommen. Grob und stark vereinfacht ausgedrückt - wenn jemand das da nicht lesen will: Um wirklich Vorteile beim SRAM zu bekommen, muss bei der Skalierung eher 0,5 erreicht werden als 0,3 wie aktuell üblich. Oder noch mal anders ausgedrückt: SRAM-Zellen in N7/N6 sind nicht wirklich schlechter als N5/N4, erst N3 würde wieder einen Unterschied machen.

Beim SI/MC kommt wiederum zum Tragen, dass dort entsprechend die Ausgänge in der Schaltung hat und man an der Stelle die Wege auffächern muss. Man hat auf einem Chip an der Stelle also tote Fläche, die man nicht nutzen kann und das teilweise auch ordentlich. Das sieht man sehr gut, wenn man sich mal die Dies von verschiedenen GPUs ansieht und feststellt, dass die Memory-Controller selbst in der Fläche kaum schrumpfen und über verschiedene Nodes immer recht ähnlich viel Platz einnehmen.

AMD lagert bei RDNA3 also all das aus, was ohnehin entweder nicht wirklich kleiner wird oder was vom N5 nicht wirklich profitiert. Es ist an der Stelle für die Leistung egal, ob man entweder die ca. 150 mm² (4 × 37,5 mm² bei Navi32) oder 225 mm² (6 × 37,5 mm²) auslagert oder direkt in die CPU mit aufnimmt. Kostentechnisch wiederum macht das einen gewaltigen Unterschied, weil man sich ca. ca. 1/3 bis 2/5 an Fläche sparen kann im teuren Prozess.

Und AMD muss auch NVIDIA bei der Größe des Dies nicht schlagen, um NVIDIA ggf. schlage zu können. Wenn es stimmt, was die Gerüchteküchen so aktuell verbreiten, dann werden die SM bei NVIDIA auf 2 × 64 + 1 × 32 ALUs aufgebohrt. 128 FP-ALU + 32 dedizierte INT-ALUs, NVIDIA kann damit zwar einen zweiten Datenpfad für FP nutzen, das ändert aber nichts an dem Problem, dass weiterhin die beiden FP-Datenpfade für die effektive Auslastung 64 Werte brauchen, ansonsten aber brach liegen. Den INT-Workload muss NVIDIA wiederum im Treiber anpassen und auf Wave32 "optimieren". Kein großes Problem, gleichzeitig muss NVIDIA hier aber wieder Komplexität schaffen.

AMD wird bei RDNA 3 bei den Vec32-ALUs bleiben und hat den Treiber auf Wave32 angepasst. Mit den nun pro CU vermutlich 2 weiteren Vec32-ALU und zwei weiteren Skalaren-Einheiten, muss AMD nicht viel am Treiber machen und kann nun pro CU wieder bis zu 4 Threads laufen lassen und bekommt im Zweifel auch eine 3:1 Aufteilung für die Workloads bei Spielen hin: 1 Thread mit bis zu 32 INT-Werte, 3 Threads mit bis zu 32 FP-Werte. Dazu kann AMD auf die Workloads wesentlich flexibler reagieren, auch eine 2:2, 1:3 oder 4:0 und 0:4 ist möglich.

Auch wenn 4K und auch 8K später mehr Werte liefern, auch pro Thread, ist es in der Entwicklung der Grafikengines dennoch so, dass nicht unbedingt "viel" mehr Werte pro Thread zusammen kommen, aber durch immer mehr Details immer mehr Threads.

NVIDIA wird bei 128 SM - AD102 - mit der aktuellen Konfiguration 256 Threads zu 64 Werten und 128 Threads zu 32 Werten benötigen, als im ganzen 384. AMD 384 Threads zu 32 Werten. AMD kann seine Grafikkarte daher "einfacher" auslasten und Ressourcen auch bei Bedarf besser und feiner granuliert verteilen.

Der "primäre" Vorteil - und die Anführungszeichen sind Absicht - sind die Tensore-Kerne bei NVIDIA, gleichzeitig wird dieser Vorteil hier von sehr vielen massiv überschätzt, ebenso dass sie theoretisch auch bereits parallel arbeiten könnten. NVIDIA hat 2018 zu Turing ein paar Timelines für Frames veröffentlicht, auch bereits mit DLSS, die sehr gut zeigen, in den Abschnitten, in denen die RT-Kerne als auch die Tensore-Kerne arbeiten, quasi die restliche GPU sich weit gehend langweilt. AMDs Überlegung, die Vec32 für "Matrix"-Operationen vorzubereiten, könnte genau die richtige Entscheidung sein, weil man damit zwar etwas die Vec32 "aufbläht" sich den Platz aber für dedizierte Matrix-Cores sparen kann.

Und für weitere Sachen, die KI benötigen, könnte man über kurz oder lang in einem AMD-System dann zukünftig die integrierte GPU nutzen.

Novasun schrieb:
AMD`s Ausbeute dürfte doppelt so schlecht ausfallen - bezogen auf fehlerhafte Chips wie bei NVIDIA und man hätte Kostengleichstand!
In dem Fall: Die Ausbeute müsste MINDESTENS doppelt so schlecht ausfallen, in der Regel dürfte sie sogar ein Stück schlechter ausfallen, bevor man Kostengleichstand hätte. Ich drücke es mal mathematisch aus: x mm² = n Chips ⇾ x/2 mm² = 2 × n + m Chips, wobei m >= 0.

Für AMD könnte das wirklich der entscheidende Punkt sein, dass man ggf. die Preise auch nach "unten" korrigieren kann und man dennoch die Chips mit Gewinn verkauft. 63585

300 mm Wafer bieten ca. 70650 mm². 10 % der Fläche ist "pauschal" tot - ich habe jetzt keine Lust 600 mm² und 300 mm² darauf zu verteilen, daher sind die Zahlen UNGENAU: NVIDIA bekommt mit 600 mm² 105 Chips heraus, AMD mit 300 mm 211 (das beschriebe m > 0). Wir lassen die Yieldrate auch weg: NVIDIA zahlt pro Chip bei 17000 $ pro Wafer 162 $, AMD zahlt 81 $.

Jetzt müssen wir bei AMD noch den MC-Chip dazu zählen: Pro Wafer können 1695 MC gewonnen werde, der Wafer kostet 9000 $, macht dann 6 $ pro MC. Es kommen bei AMD also noch mal 36 $ dazu. Navi31 kostet also 117 $ gegen 162 $. NVIDIA ist also in der Produktion schon mal 38 % teurer und wir haben Yields herausgelassen und pauschal 10 % tote Fläche angenommen, die aber bei kleineren Dies eher sinkt.

AMD wird bei einer Marge von 45 % also Navi31 ab ca. 200 $ ihren Partnern anbieten können, NVIDIA muss bei 45 % Marge ab 300 $ starten müssen.

Natürlich sind die Preise als Tendenz zu verstehen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo, Hatch, mr_clark und 3 andere
Iconoclast schrieb:
Dying Light 2 zum Beispiel, weil wir das aktuell zocken. Kumpel mit seiner 3060 bekommt da ein wesentlich flüssigeres Spiel mit hin und mit FSR sieht es halt einfach aus wie Dreck, kein Vergleich zu DLSS.

Zum Einen handelt es sich dabei um einen durch nVidia in der Entwicklung unterstützten Titel. Zum Anderen scheint die Ursache deiner Performanceprobleme in deinem System zu liegen. Siehe:

IMG_20220818_112534.jpg


Welche anderen Titel wären das, wenn du schon 'zum Beispiel' schreibst?
 
DevPandi schrieb:
NVIDIA ist also in der Produktion schon mal 38 % teurer und wir haben Yields herausgelassen und pauschal 10 % tote Fläche angenommen, die aber bei kleineren Dies eher sinkt.
Das Packaging ist aber bei AMD aufwändiger, was einen Teil dieses Unterschieds wieder aufwiegen dürfte. Dennoch eine gute Kalkulation über den Daumen.
 
Beg1 schrieb:
Wenn wir ständig nur über diese winzige Gruppe von Enthusiasten reden, werden die Diskussionen einfach redundant.

Weil du das sagst?

Außerdem ist das eine Kritik, die sich durch das komplette Portfolio zieht.
Wo früher ein 6 Pin Anschluss verbaut war, ist es jetzt ein 8er.
Wo früher ein 8er verbaut war sind es jetzt 8+6.
Bei CPUs dasselbe.
Dass das nicht sein muss, zeigt Apple recht eindrucksvoll.

Und ja, das in Relation zu setzen kann wichtig sein, aber es darf nicht als Ausrede zum Nichtstun missbraucht werden.

Niemand soll in Askese leben (müssen) und Niemand soll von heute auf morgen seinen kompletten Lebensstil ändern, aber etwas kritischer unserem bisherigen Lifestyle gegenüber zu sein, ist angebracht.

Mal auf Fleisch zu verzichten, bei gutem Wetter mal das Fahrrad zu benutzen oder mal mit dem Zug zu fahren sind alles keine einschneidenden Maßnahmen, bringen aber in Gänze doch etwas.
 
  • Gefällt mir
Reaktionen: Alexus6677
Ich hätte gerne einen performanten Ersatz für meine vega 56 mit geringerem Verbrauch. Bisher holen mich die Preise in Relation zur Mehrleistung nicht ab. Ich hoffe das ändert sich.
Dann brauche ich nur noch 32 GB RAM, die ja aktuell recht günstig sind und einen gebrauchten 12 Kerner von AMD und schon habe ich wieder eine Weile Ruhe. Dank der großen Enttäuschungen (Cyberpunk und Co), ist bei mir die Lust weg gewesen für viel Geld aufzurüsten und ich habe das Gefühl, damit nicht alleine zu sein.
Ergänzung ()

v_ossi schrieb:
Mal auf Fleisch zu verzichten, bei gutem Wetter mal das Fahrrad zu benutzen oder mal mit dem Zug zu fahren sind alles keine einschneidenden Maßnahmen, bringen aber in Gänze doch etwas.
Das mit dem Fleisch ist der größte Einflussfaktor auf CO2 und Wasserverbrauch, den man so haben kann. Bei den sommerlichen Temperaturen und der Strompreisentwicklung finde ich auch durchaus angemessen, auf ein paar Jahre gerechnet eben doch auf den Verbrauch zu achten....wird ja auch sau warm in der Wohnung während des Sommers.
 
v_ossi schrieb:
Wo früher ein 6 Pin Anschluss verbaut war, ist es jetzt ein 8er.
Bei CPUs dasselbe.
Dass das nicht sein muss, zeigt Apple recht eindrucksvoll.

Mal auf Fleisch zu verzichten, bei gutem Wetter mal das Fahrrad zu benutzen

Heute gibt es auch noch Karten mit 1x 6-pin und sie haben mehr Ram, ein Vielfaches an Leistung, etliche neue Funktionen uvm...
5800X3D verbraucht nur 65W, niemand muss einen i9-12900KS kaufen.
Dein Beispiel mit Apple ist lächerlich, x86 vs ARM, vor allem wenn man über Gaming redet komplett daneben, der sinnvollste Vergleich wären noch aktuelle Laptops, die ähnlich effizient sind, aber wesentlich breitere Einsatzmöglichkeiten haben.

Mal mit einer RTX 3090 Ti mit 450W zu zocken ist dann doch auch total okay, es gibt gar nicht genug AAA-Spiele um die Karte dauerhaft unter Volllast zu betreiben, wie effizient sie bereits mit einem fps-Limit ist habe ich bereits verlinkt.

Und es hat weit weniger Einfluss als ab und zu Fleisch zu essen, top, oder?
Ergänzung ()

Alexus6677 schrieb:
Das mit dem Fleisch ist der größte Einflussfaktor auf CO2 und Wasserverbrauch, den man so haben kann. Bei den sommerlichen Temperaturen und der Strompreisentwicklung finde ich auch durchaus angemessen, auf ein paar Jahre gerechnet eben doch auf den Verbrauch zu achten....wird ja auch sau warm in der Wohnung während des Sommers.

Richtig, ich esse schon seit Jahren kaum noch Fleisch, komischerweise gibt es da bis heute keine Konsumgrenzen. Auto habe ich auch keins, fahre nahezu jede Strecke mit dem Fahrrad.

Und wie schön wäre es, wenn alle so leben würden, dann könnten die Enthusiasten bedenkenlos 800W GPUs betreiben und bräuchten keine Klimaanlage, weil es gar keine Klimakrise geben würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alexus6677
Vielleicht sollten die Hersteller noch eine Efficiency Edition einer Grafikkarte bringen, die im Sweetspot läuft und bei der alles auf maximale frames per watt eingestellt ist.
Allerdings wird so eine Grafikkarte vermutlich mehr kosten und somit für viele eher weniger interessant sein.
Als Vergleich kann man sich gut den Effizienztest der 3090Ti von Igor ansehen.
Dann könnte man auch gleich sehen wie gut sich so eine Karte verkauft und vielleicht würde dies zu mehr EE Karten führen.
Alle anderen können auch heute schon mit UV, Taktreduzierung und Fpslock viel Strom (und somit auch Abwärme) sparen.
Für mich ist der größte Faktor die Abwärme, weil diese gerade im Sommer teils immens ist.
Meine Karte läuft mit UV und verbraucht damit weniger Leistung, läuft kühler und taktet höher. Wöllte ich noch mehr sparen würde ich den Takt noch zurückfahren.

Die neuen Karten verbrauchen auch nur dann mehr, wenn man die volle Leistung abruft. Für Fälle in denen die jetzige Karte bereits die gewünschte Leistung bringt, wird die neue Karte, bei gleichen Einstellungen, vermutlich einiges sparsamer und kühler laufen.
Macht in diesen Fällen Sinn so eine neue Karte zu kaufen? Für mich ja, denn ich hab weniger Abwärme zu bewältigen und vermutlich kann ich noch Strom sparen. Allerdings mit dem Nachteil den Anschaffungspreis für eine neue Karte ausgeben zu müssen.
Also selbst wenn es so aussieht, als würden die neuen Karten in jedem Fall nur mehr Leistung aufnehmen, ist dem nicht wirklich in jedem Fall so. Es ist immer abhängig von einem selbst.
Und ich gehe davon aus, dass wir in Bezug auf die Effizienz bei beiden Herstellern wieder einen guten Schritt vorankommen werden.
 
  • Gefällt mir
Reaktionen: Beg1
Rock Lee schrieb:
ok, dann kann man darüber schlecht diskutieren, da mein "educated guess" ist, dass es technisch von der Bandbreite eben nicht hinhauen wird. :)
Letztendlich können wir nur abwarten und am Ende sehen, wer richtig lag.
In Teilen werden wir das sehen. Da die Profi-Lösung ja wohl ne "echte" Multi GPU Chiplets sein wird.... Gut da hingt der Vergleich weil da wird ja keine Grafik ausgegeben... Die wird ja rein zur Berechnung genutzt werden... Wieso bekommen die Teile eigentlich so große Arbeitsspeicher?? Müssen doch gar keine Texturen und Co gewuppt werden... OK Matrizen werden schnell Recht groß...
 
  • Gefällt mir
Reaktionen: Rock Lee
Ich finde ja tatsächlich die Sache mit den "auch nur 2x8-pin Stromstecker" am interessantesten. Da werde ich also definitv irgendwann in den nächsten 12 Monaten von meiner "Stock" 6900 aufrüsten.

Mal sehen, was die dann noch hier im Martkplatz bringt, jetzt wo ich 50 posts habe ;)
 
stefan92x schrieb:
Das Packaging ist aber bei AMD aufwändiger, was einen Teil dieses Unterschieds wieder aufwiegen dürfte. Dennoch eine gute Kalkulation über den Daumen.
@DevPandi hat aber bei seiner Berechnung explizit den unterschiedlichen Yield nicht berücksichtigt und den Flächenverlust mit 10 % eingerechnet, obwohl der mit steigender Chipgröße steigt. Er hat also schon Platz fürs Packaging gelassen.

Was man aber auch noch berücksichtigen muss sind die Kosten für F&E und das Chipdesign. Und ist Nvidia tendentiell im Vorteil. Nvidia setzt höhere Stückzahlen ab, und kann diese Kosten auf viel mehr GPUs als AMD verteilen.
 
DevPandi schrieb:
Und für weitere Sachen, die KI benötigen, könnte man über kurz oder lang in einem AMD-System dann zukünftig die integrierte GPU nutzen.
Ich gehe auch davon aus, dass AMD die Gaming GPUs auch für ML Training oder ML Inference nutzen will. Es wäre schade dieses Potential nicht zu berücksichtigen.

Allerdings liegt der Fokus IMO bei ML eindeutig auf der AIE. Hier hat AMD am FAD viel angekündigt. Schauen wir Mal was daraus wird.
1660854406240.png

1660854368165.png


1660854535219.png
 
  • Gefällt mir
Reaktionen: Skidrow1988
Otsy schrieb:
Zum Einen handelt es sich dabei um einen durch nVidia in der Entwicklung unterstützten Titel. Zum Anderen scheint die Ursache deiner Performanceprobleme in deinem System zu liegen. Siehe:

Anhang anzeigen 1250884

Welche anderen Titel wären das, wenn du schon 'zum Beispiel' schreibst?
Und jetzt öffne den Benchmark in 1440p und zack, die 6800XT ist hinter der 3060. Von wegen Probleme in meinem System... Trotzdem wie gesagt, mit FSR sieht das Spiel aus wie Dreck, bzw. eigentlich jedes Spiel mit FSR, DLSS ist um ein Vielfaches besser.

Mit zum Beispiel meine ich, dass es quasi jeden RT Titel betrifft. Auf der 3060 bzw. auch der Ti kannst du DLSS einschalten und hast Raytracing mit einem sehr guten Bild und flüssigen FPS. Mit der 6800XT musst du FSR nutzen und die Bildqualität damit ist einfach Schmutz. Die FPS stimmen dann zwar auch, aber das Bild sieht einfach schlecht aus. Und ohne FSR ruckelts dir halt alles weg.
 
Iconoclast schrieb:
Und jetzt öffne den Benchmark in 1440p und zack, die 6800XT ist hinter der 3060. Von wegen Probleme in meinem System...

Ist das so?

IMG_20220819_090042.jpg


Vielleicht solltest du das nochmal durchdenken. So von vorne bis hinten.
 
Ergänzung ()

Novasun schrieb:
Eine 50/50 Bildaufteilung garantiert gar nichts - sorry. Wenn in einer Bildhälfte sagen wir 50 3d Objekte liegen - in der anderen nur 5 ist doch klar das da einer deutlich mehr arbeiten muss... Und beim Game ist es ja ein Stream an Frames - lass mal das Ungleichgewicht an 3d Objekten dann 20 Frames lang vorhanden sein...
Intelligent die Arbeit verteilen - ist denke ich noch ne Baustelle an der Gearbeitet werden muss...

Du hast meinen ansatz mit dem SLI von 3dfx absolut nicht bzw mit meinem chackerbord Ansatz nicht verstanden... Es geht mir mit dem Ansatz 50/50 Keines Wegs die Bild Aufteilung sondern um die Lastverteilung... Der Renderings... Die 3d Objekte kamen damals von der CPU , was wohl einer der Hauptgründe für das funktionieren des SLI systems von 3dfx war und Nvidia wegen dem aufkommenden Hype um t&l wohl fallen gelassen wurde, weil sie es nicht hinbekommen haben das T&l zu splitten.



Da es sich aber um einen Frame handelt der gleichzeitig von 2 Gpus berechnet werden braucht die Geometrie nur in die zweite kopiert werden und die GPU die Pause hat berechnet schonmal die Geometrie aus dem nächsten frame und kopiert das Ergebniss dann wieder in die andere und das immer im Wechsel ... Die Shader- und Füllleistung kann aber über SLI oder chackerbord so super gedoppelt werden weil so jede zweite Zeile bzw im Schachbrett sehr gleichmäßig verteilt die Last auf die Chips verteilt werden können
 
Zuletzt bearbeitet:
Novasun schrieb:
In Teilen werden wir das sehen. Da die Profi-Lösung ja wohl ne "echte" Multi GPU Chiplets sein wird....
Die MI200 wird im System als 2 GPUs gesehen. Es geht hier nur darum auf kleinem Platz möglichst viel GPU-Leistung unterzubringen.
Novasun schrieb:
Gut da hingt der Vergleich weil da wird ja keine Grafik ausgegeben... Die wird ja rein zur Berechnung genutzt werden... Wieso bekommen die Teile eigentlich so große Arbeitsspeicher?? Müssen doch gar keine Texturen und Co gewuppt werden... OK Matrizen werden schnell Recht groß...
Bei GPGPU geht es darum Daten zu verarbeiten. Je schneller die GPU rechnet desto mehr Daten müssen durchgeschoben werden. Damit steigen auch die Anforderungen an die Bandbreite.
Ergänzung ()

Novasun schrieb:
Egal will sagen im Zweifel langt die Bandbreite um 2 GDC zu füttern. Ich sehe es also durchaus als technisch im Bereich des möglichen...
Es fällt allerdings auf je schneller die GPU desto breiter die Speicheranbindung. Deshalb habe ich meine Zweifel ob sich 2 Navi 21 mit einem Speicherinterface von insgesamt 384 oder 512 bit wirklich "wohl" fühlen.

Im Grunde überrascht es mich sehr, dass AMD auf 92 MByte Infinity Cache zurückgeht, und gleichzeitig eine Speicheranbindung mit 384 Bit macht. Und zusätzlich soll 192 MByte Infinity Cache nicht viel bringen.
Das ist der einzige Punkt bei den Ausführungen bei denen ich ins Grübeln komme.
Denn wenn die Hitrate mit 92 MByte Infinity Cache für 4K ausreichend groß ist, warum macht AMD dann ein Speicher-Interface mit 384 bit?

Durch das Absplitten der MDC kostet das Erweitern auf 384 bit auf GPU-Seite fast "nichts", aber die Boards werden erheblich komplexer und teurer.

Novasun schrieb:
Ich gehe sogar davon aus das AMD damit zumindest intern schon experimentiert...
Das ist sogar sicher. Wie soll AMD eine optimale Lösung (Performance, Kosten) wählen, wenn AMD die Optionen nicht genau testet?
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Denn wenn die Hitrate mit 92 MByte Infinity Cache für 4K ausreichend groß ist, warum macht AMD dann ein Speicher-Interface mit 384 bit?
Es kann da eigentlich nur um die Speichergröße gehen, das ist für mich die einzige gute Erklärung. Denn wenn man den Cache sogar noch verbessert hat, so dass er kleiner ausfallen kann, kann die Bandbreite nicht wirklich ein Problem sein.
 
Zurück
Oben