News Navi 31, 32 und 33: Handfeste Gerüchte zu AMDs Radeon RX 7000 mit RDNA 3

@phanter Spannend wird ja die Frage, wie die Chiplets verbunden werden. Auch bei gleicher Chipfläche können gestapelte Chiplets kürzere Leitungswege und damit tatsächlich bessere Latenzen (und Performance) erreichen. Sehen wir bei Zen 3 ja schon, wo ein so großer Cache mit so niedrigen Latenzen nur dadurch möglich ist, dass man Chiplets stapelt - der gleiche Cache auf einem monolithischen Die wäre langsamer und ineffizienter, weil die Leitungslängen und Latenzen schlechter wären.
 
  • Gefällt mir
Reaktionen: SaschaHa
noxon schrieb:
Dennoch finde ich, dass viel zu viel Leute immer zu sehr auf die Energieeffizienz ihrer Consumerkarten schauen, in die sie gerade 1000€ investiert haben. Da erschließt sich mir der Sinn manchmal nicht ganz.

Sieben Buchstaben... Abwärme!
 
  • Gefällt mir
Reaktionen: Leereiyuu
Für mich bleiben die spannendsten Fragen wirklich:
Kann AMD mit maximal 375W ähnlich gute Performance generieren wie NVIDIA mit 600W?
Wird sich das Chiplet-Design durchsetzen wie damals beim Ryzen?
Und wie wird die native Hardware-Raytracing-Performance im Gegensatz zu NVIDIA sein?

Denn ich vermute preislich wird AMD wieder der interessantere Part sein... auch im Top-Modell-Bereich.
 
phanter schrieb:
Toll ein Milliardenunternehmen kann günstiger produzieren und höhere Margen erwirtschaften. Wen juckts?

Mein Kommentar galt rein der Performance. Und da holt AMD halt nichts egal wie sie ihren chip stückeln solange sie nicht die Gesamtfläche erhöhen. Was ja machbar sein sollte. Aber scheinbar wollen sie nicht die high end Krone

Gewagte These.

Woher hast du die Glaskugel?

Woher weißt du wie die verschiedenen Architekturen performen? RDNA2 war ja schon leicht vor Ampere. Wer sagt das dieser Vorsprung nicht größer wird?

Ich jedenfalls würde mir aktuell kein Urteil erlauben, wie Leistungsfähig die beiden Architekturen werden, da beide einiges drauflegen werden.
 
  • Gefällt mir
Reaktionen: Icke-ffm, DevPandi, karl_laschnikow und 4 andere
whyme schrieb:
Ich wäre mir da nicht so sicher, dass man einen Silicon Interposer braucht. Hat man bei Ryzen und Epic doch auch nicht. Da ist es meines Wissens doch auch nur ein PCB. Falls wirklich Silicon nötig werden sollte, wird man eher in Richtung EMIB gehen, bzw das vergleichbare, das TSMC anbietet.

Im Quellartikel steht drin, mit welcher Technologie das gemacht wird: InFo_oS

"The world’s first chiplet GPU, Navi31 makes use of TSMC’s fanout technology (InFO_oS) to lower costs, surrounding a central 48 WGP Graphics Chiplet Die (GCD) with 6 Memory Chiplet Dies (MCD), each containing 16MB of Infinity Cache and the GDDR6 controllers with 64-bit wide PHYs."

https://www.angstronomics.com/p/amds-rdna-3-graphics
 
  • Gefällt mir
Reaktionen: SaschaHa
Da das Thema Verbrauch bei einigen wieder aufkocht, „fordere“ ich:
Tests mit 60/144fps cap

2080/3080/4080 jeweils im 60/144fps cap und dann ist diese ewige Diskussion endlich vorbei.

Denn dann sieht man auch die tatsächliche Effizienz, zumindest so lange die schwächste Karte das Limit noch erreicht.

Mal ganz grob, ohne die Zahlen jetzt gegoogelt zu haben:

2080 60fps 275 watt Karte läuft auf 100%
3080 60fps 250 Watt Karte läuft auf 65%
4080 60fps 170 Watt Karte läuft auf 35%

Die Annahme mit dem Mehrverbrauch greift nur, wenn man mehr fps oder mehr Grafik möchte.
Bei selben!! Settings wie mit der Vorgänger Karte, bei selben fps Ziel, wird jede 4000 Karte weniger verbrauchen als der Vorgänger.
 
GERmaximus schrieb:
Die Annahme mit dem Mehrverbrauch greift nur, wenn man mehr fps oder mehr Grafik möchte.
Bei selben!! Settings wie mit der Vorgänger Karte, bei selben fps Ziel, wird jede 4000 Karte weniger verbrauchen als der Vorgänger.
Aber, und das wurde ja auch schon gesagt: Niemand kauft sich eine neue GPU mit den einzigen Ziel, dass sie weniger verbraucht.
Man möchte entweder mehr Details, höhere Auflösungen oder mehr FPS.

Wenn ich eine 3080 habe, dann auf eine 4080 wechsele und dabei weder höhere Settings noch mehr FPS möchte, dann ist ja der einzige Nutzen diese 700€+ Anschaffung, dass ich 70W pro Stunde Gaming spare, also vielleicht 1€ pro Woche
 
  • Gefällt mir
Reaktionen: thom_cat und bad_sign
Rock Lee schrieb:
sag ich ja. Ergibt überhaupt kein Sinn. Logische Konsequenz wären 512-Bit. Sonst hätte man ein Single Navi32 auch mit 192-bit bringen können.
Ich bin da nicht so drauf wie du. Also a) geht man davon aus das der große Navi (und wenn dann würde nur da ein 2ter GDC "Sinn" machen) 3XX bit Speicherinterface hat. Jetzt weiß ich nicht, aber mit max Ausbau sind da dann 24GB oder gar 48 GB möglich?

Egal will sagen im Zweifel langt die Bandbreite um 2 GDC zu füttern. Ich sehe es also durchaus als technisch im Bereich des möglichen... Ich gehe sogar davon aus das AMD damit zumindest intern schon experimentiert...
 
Skidrow1988 schrieb:
Die 200Watt sind auch einfach eine starke Grenze in Sachen Energieverbrauch des gesamten Rechners. Es sollte weiterhin möglich sein, das man mit 500 - 700 Watt, in dem segment bleibt. Momentan gibt es nur noch ein immer weiter nach oben.
Nein, der Verbrauch geht schon seit eh und je mit jeder Generation nach oben, dass ist nicht im Moment so, sondern war schon immer so. Eine Voodoo 5 6000 hatte damals 4 GPUs und ein extra Netzteil, und verbrauchte gigantische 70 Watt . Und das war ein echtes Monster.
Eine externe Stromversorgung bzw. ein externes Netzteil soll es für die Neuaufauflage der Vodoo 5 6000 nicht geben. Stattdessen erfolgt die Versorgung über einen Molex-Anschluss. Die Leistungsaufnahme von 60 W lässt sich heute problemlos über das PC-Netzteil bewerkstelligen. Damals waren die Karte mit 70 W angegeben, was die vor mehr als 20 Jahren verfügbaren PC-Netzteile vor eine Herausforderung stellte. Daher hatte sich 3dfx auch für ein externes Netzteil entschieden. (Link)

Mein Rechner mit 3090 hat einen Realverbraucht von < 600 Watt (habe permanent ein Messgerät dran). Habe auch nur ein 700 Watt Netzteil. Also würde auch eine 350 Watt Grafikkarte ganz locker in dein Powerbudget passen. Die 200 Watt sind einfach eine willkürlich gewählte Zahl, ohne echte Argumentationsgrundlage.
Genauso wie der 500-700 Watt Gesamtverbrauch. Woran gemessen ist das ein erstrebenswerter Verbrauch? An Konsolen die gerade mal ein Drittel bis Hälfte verbrauchen? An Kühlschränken? An Bügeleisen?
Das ist wieder nur ne Zahl die du dir gerade ausgedacht hast. Vor 20 Jahren hättest du 150-200 Watt Gesamtverbrauch gesagt, vor 10 Jahren 350-400 Watt.

Ich sage mal ganz frech, dass du überhaupt keine Ahnung von elektrischer Leistung und Verbräuchen hast. Noch weniger davon, wie sich das in den letzten Jahren entwickelt hat oder welcher Zusammenhang zwischen Leistungsaufnahme und erzeugtem Bild auf deinem Monitor besteht.
Du bist nur der Meinung, dass irgendwo Schluss sein muss mit der Leistungsaufnahme und die Grenze dafür ziehst du willkürlich irgendwo in den Sand. Kann man natürlich machen, muss sich aber nicht wundern, wenn es die reale Welt drumherum einfach nicht interessiert.
 
GrooveXT schrieb:
Nein, der Verbrauch geht schon seit eh und je mit jeder Generation nach oben, dass ist nicht im Moment so, sondern war schon immer so. Eine Voodoo 5 6000 hatte damals 4 GPUs und ein extra Netzteil, und verbrauchte gigantische 70 Watt . Und das war ein echtes Monster.


Mein Rechner mit 3090 hat einen Realverbraucht von < 600 Watt (habe permanent ein Messgerät dran). Habe auch nur ein 700 Watt Netzteil. Also würde auch eine 350 Watt Grafikkarte ganz locker in dein Powerbudget passen. Die 200 Watt sind einfach eine willkürlich gewählte Zahl, ohne echte Argumentationsgrundlage.
Genauso wie der 500-700 Watt Gesamtverbrauch. Woran gemessen ist das ein erstrebenswerter Verbrauch? An Konsolen die gerade mal ein Drittel bis Hälfte verbrauchen? An Kühlschränken? An Bügeleisen?
Das ist wieder nur ne Zahl die du dir gerade ausgedacht hast. Vor 20 Jahren hättest du 150-200 Watt Gesamtverbrauch gesagt, vor 10 Jahren 350-400 Watt.

Ich sage mal ganz frech, dass du überhaupt keine Ahnung von elektrischer Leistung und Verbräuchen hast. Noch weniger davon, wie sich das in den letzten Jahren entwickelt hat oder welcher Zusammenhang zwischen Leistungsaufnahme und erzeugtem Bild auf deinem Monitor besteht.
Du bist nur der Meinung, dass irgendwo Schluss sein muss mit der Leistungsaufnahme und die Grenze dafür ziehst du willkürlich irgendwo in den Sand. Kann man natürlich machen, muss sich aber nicht wundern, wenn es die reale Welt drumherum einfach nicht interessiert.
Die Grenze ist schon ziemlich bewusst gezogen. Das ist eine Grenze wo die Kühllösung es zulässt noch halbwegs normal zu sein. Zusätzlich ist es ein Unterschied ob ich 500 Watt Spitzenleistung in meinem Büro habe oder 700 Watt. Gerade bei wärmeren Temperaturen sind 200 Watt Heizleistung nämlich kein Pappenstiel. Auch ist mir bewusst, das ein Rechner nicht durchgehend die volle Leistung abführt. Ich würde auch keinen Dauerverbrauch von über 500 Watt haben wollen. Wie hoch soll bitte die Leistung noch steigen? Dieses Jahr 400 Watt bei Midrangekarten und nächstes Jahr dann 600?

Zum Thema Ahnung haben:
Ich sage jetzt schon, das dein Netzteil mit den Transienten hart zu kämpfen hat. Schon eine 3080 haut extrem krasse spitzen raus. Ich behaupte, das ich von Elektrotechnik mehr Ahnung habe als die meisten im Forum. Naja, ist immerhin auch mein Beruf. Aber das ist ein anderes Thema.

Zum Thema Willkür:
Die Grenze ist logischerweise durch mich festgelegt, ist ja auch meine Meinung und kein Fakt. Aber wie man an meinem Eingangspost sehen kann, bin ich mit meiner Meinung alles andere als alleine.

PS:
Die Angriffe auf meine Person allla "keine Ahnung" oder ähnliches, kannst du gefälligst sein lassen.
 
GERmaximus schrieb:
Die Annahme mit dem Mehrverbrauch greift nur, wenn man mehr fps oder mehr Grafik möchte.
ODER wenn man neue Spiele spielen will.
Oder wenn solche Typen wie die von Metro Exodus ne Enhanced Edition rausbringen die einfach mal von 110fps auf 65fps dropt im gleichen Savegame.

Skidrow1988 schrieb:
Ich sage jetzt schon, das dein Netzteil mit den Transienten hart zu kämpfen hat. Schon eine 3080 haut extrem krasse spitzen raus.
Hust ATX 3 Netzteil hust
Dann laufen die 750W netzteile wieder ohne Probleme. ^^
 
  • Gefällt mir
Reaktionen: GERmaximus
Taxxor schrieb:
Aber, und das wurde ja auch schon gesagt: Niemand kauft sich eine neue GPU mit den einzigen Ziel, dass sie weniger verbraucht.

Man bekommt bei selben Verbrauch auch mehr fps.
Wenn die 3080 320 Watt braucht und man die 4080 auch auf 320 begrenzt, wird man immer noch deutlich mehr fps bekommen.

Will man nun noch mehr, verbraucht man halt auch mehr.

Ich finde das etwas komisch:
Ich will mehr, ich will schneller, ich will aber weniger dabei verbrauchen. Na das geht nur, wenn ich entweder die alten settings nutze, oder den alten Verbrauch.
 
DevPandi schrieb:
Dazu kommt dann aber noch, das man mehr 300 mm Chips drauf bekommt auf den Wafer als halbsoviele 600 mm Chips, weil man 300 mm an den Ränder. Besser verteilen kann und weniger tote Fläche hat und die ca. 40 mm für den SI bekommt man noch mehr Chips drauf. Mehr als 12 mal soviel wie bei 600 mm. Eben auch wieder weil die Randbereiche besser genutzt werden oder anders ausgesrückt, vier doppelt sich die Fläche des Chip bekommt man weniger Chips als die Hälfte heraus, als bei halberfläche.
Hinzu kommt noch der Kostenvorteil beim Ausschuss. AMD`s Ausbeute dürfte doppelt so schlecht ausfallen - bezogen auf fehlerhafte Chips wie bei NVIDIA und man hätte Kostengleichstand! Da AMD ja zwei Chips verlieren müsste in Bezug auf die Fläche... Da aber davon auszugehen ist das beide ja in etwa die selbe Ausbeute haben werden... Spart AMD Geld beim Ausschuss...
Ergänzung ()

phanter schrieb:
Toll ein Milliardenunternehmen kann günstiger produzieren und höhere Margen erwirtschaften. Wen juckts?

Mein Kommentar galt rein der Performance. Und da holt AMD halt nichts egal wie sie ihren chip stückeln solange sie nicht die Gesamtfläche erhöhen. Was ja machbar sein sollte. Aber scheinbar wollen sie nicht die high end Krone
Mich als Käufer - denn das Unternehmen kann dann eben auch die Karten günstiger verkaufen. Um Marktanteile zu gewinnen - oder dem Konkurenten das Geschäft "zu versauen" was dessen Marge betrifft.
 
Ich hoffe, dass es für mich (und Leute wie mich) eine Karte geben wird, die mindestens 12GB, lieber 16 GB Grafikspeicher mit Mittelklasse-Leistung kombiniert und dabei nicht zu hohe Lastspitzen für mein 750W-Seasonic hat.

Eigentlich bin ich von der derzeitigen Generation sowohl von AMD als auch nVidia ganz angetan, aber ich möchte eigentlich nicht unbedingt gleich eine 6800 (XT) kaufen müssen bzw. eine 3080, um nicht das Gefühl zu haben, dass der Speicher schon bald nicht mehr reichen wird.
 
Skidrow1988 schrieb:
Nein, ich möchte bei ungefähr gleichen Verbrauch mehr Leistung.
Bekommst bisher in jede Generation.
Das ist genau das was irgendwie nicht verstanden wird.

Die Effizienz steigt jedes Mal, aber auch unser Anspruch.
Unser Anspruch an mehr Grafik und fps, plus neue Features, fressen dann den Effizienz Vorsprung wieder auf.
 
  • Gefällt mir
Reaktionen: Iconoclast
Otsy schrieb:
Welche Titel wären das?
Dying Light 2 zum Beispiel, weil wir das aktuell zocken. Kumpel mit seiner 3060 bekommt da ein wesentlich flüssigeres Spiel mit hin und mit FSR sieht es halt einfach aus wie Dreck, kein Vergleich zu DLSS.
ETI1120 schrieb:
Du solltest Dein Sysprofile anpassen.
Joa, könnte ich mal machen. Der Stand ist uralt. Beim letzten Mal hatte ich schon nur die Grafikkarte geändert und mehr nicht. :D
 
Skidrow1988 schrieb:
Die Grenze ist schon ziemlich bewusst gezogen. Das ist eine Grenze wo die Kühllösung es zulässt noch halbwegs normal zu sein. Zusätzlich ist es ein Unterschied ob ich 500 Watt Spitzenleistung in meinem Büro habe oder 700 Watt. Gerade bei wärmeren Temperaturen sind 200 Watt Heizleistung nämlich kein Pappenstiel.
Auch wieder reine Willkür. 300 Watt sind doch viel kühler. Warum also nicht 300 Watt sondern 500 Watt als Grenze?
Skidrow1988 schrieb:
Auch ist mir bewusst, das ein Rechner nicht durchgehend die volle Leistung abführt. Ich würde auch keinen Dauerverbrauch von über 500 Watt haben wollen. Wie hoch soll bitte die Leistung noch steigen? Dieses Jahr 400 Watt bei Midrangekarten und nächstes Jahr dann 600?
Ach ich gebe es auf. Geh 10 Jahre in der Zeit zurück und du wirst die gleiche Frage bei 100 Watt GPUs stellen. Geh 10 Jahre und die Zukunft und du wirst die gleiche Frage bei 1 KW GPUs stellen. Es gibt keinen Sweetspot für den Verbrauch. Du kannst dir eine Grenze setzen, du kannst dir überlegen wieviel FPS, Auflösung und Features fahren möchtest. Aber es ist halt dein individueller Anspruch und für keinen Hersteller eine sich logisch erschließende Grenze.
Skidrow1988 schrieb:
Zum Thema Ahnung haben:
Ich sage jetzt schon, das dein Netzteil mit den Transienten hart zu kämpfen hat. Schon eine 3080 haut extrem krasse spitzen raus. Ich behaupte, das ich von Elektrotechnik mehr Ahnung habe als die meisten im Forum. Naja, ist immerhin auch mein Beruf. Aber das ist ein anderes Thema.
Gut, dann hast du ja auch verstanden, warum aktuelle GPUs soviel Strom ziehen und das alleine du Einfluss darauf hast, ob sie dieses Budget auch ausschöpfen. Aber wenn du das doch weißt, wie das alles funktioniert, warum dann der Ruf nach einer 200 Watt Cap? Macht doch gar keinen Sinn.
Übrigens ist mein 700 Watt Netzteil jetzt schon 12 Jahre alt und hat mittlerweile 2 Jahre Dauereinsatz fürs Mining hinter sich und macht auch bei 8 Stunden Gaming Sessions keine Probleme. Habe wohl gute Transienten erwischt.
Skidrow1988 schrieb:
Zum Thema Willkür:
Die Grenze ist logischerweise durch mich festgelegt, ist ja auch meine Meinung und kein Fakt. Aber wie man an meinem Eingangspost sehen kann, bin ich mit meiner Meinung alles andere als alleine.
Ja und wenn du vor 10 Jahre 100 Watt dran gedübbelt hättest, wärst du auch nicht alleine gewesen. Und wie ich auch schon geschrieben wird das 200 Watt Segment doch bedient. Das Problem dabei ist nur, dass du in dem Bereich auch gerne die Leistungsobergrenze sehen würdest (eine 70er Karte) und das ist nun mal Quatsch und reine Willkür. Trotzdem wirst du bei der 4000er Gen viel mehr Features und Leistung für 200 Watt bekommen als jemals zuvor. Darüber kann man sich doch freuen, wenn es dann eine untere Mittelklasse GPU und vielleicht nur ein 60er oder gar 50er Chip ist, ändert das für dich genau was?
Skidrow1988 schrieb:
Die Angriffe auf meine Person allla "keine Ahnung" oder ähnliches, kannst du gefälligst sein lassen.
Das ist kein Angriff, sondern eine Feststellung die du mir bisher auf jeden Fall nicht widerlegt hast. Keine Ahnung zu haben ist perse nicht schlimm, ich habe auch keine Ahnung von z.B. Akkuschraubern, verlange aber auch nicht das die mit jeder Generation mehr Leisten, neue Features anbieten und trotzdem gleich lange halten. Und vor allem verlange ich nicht das gefälligst kein Akkuschrauber mehr verbraucht als der, den ich mir vor 5 Jahren im Baumarkt gekauft habe, weil, wie ich finde, dass wirklich die Grenze sein muss.
 
Zurück
Oben