News GeForce RTX 4000 „Ada“: Andere Eckdaten, TDP und Termine im Wochentakt

Colindo schrieb:
@Philste Was erneut dafür sprechen würde, dass Navi 31 aus 3 Chiplets à 128 bit besteht.
Was eindeutig zur AMD-Philosophie passt, Standard-Chiplets mehrfach einzusetzen. also aus 1 Chiplet mache 3 GPUs. Und wenn man noch für die großen GPUs die besten Chiplets selektiert, ...

Und was die Frage auf wirft, welche Informationen die Leaker tatsächlich vorliegen haben und was sie dazu spekulieren.

Aktuell gehe ich davon aus, daß die Leaker was AMD betrifft, planlos raten.

Je länger ich darüber nachdenke desto unwahrscheinlicher finde ich dass AMD RDNA3 für 5 nm und für 6 nm designt. AMD ist bisher extrem geizig was die Anzahl der Design angeht. Und eine neu entwickelte IP parallel für zwei Prozesse zu designen, das wäre für AMD sehr unüblich.
Meine Meinung: Entweder ist N33 RDNA2 und kein RDNA3, oder die Informationen zu den verwendeten Prozessen sind falsch. Alle RDNA3 GPU Chips in N6 oder alle RDNA3 GPU Chips in N5.

CDNA2 wurde entsprechend dem Passive High Bandwidth Crosslink Patent umgesetzt. Wenn AMD eine Chipletlösung wählt, dann erwarte ich dasentsprechend dem Aktive Bridge Patent. Wieso sollte es nur für die Schublade sein obwohl AMD hierzu gleich 3 Patente angemeldet hat.

Es fällt auf, wie ich schon wiederholt geschrieben hat, dass die Leaker die Implikationen aus diesen Patenten nicht verstanden haben. Da wurde Grafiken zur konfiguration von Navi3x gezeicvhnet und über Twitter verbreitet, bei dem der Infinity Cache nicht auf der Brücke sitzt. Das ist aber das Kernstück der Idee eine GPU aus 2 oder 3 Chips zu bauen.

Oberst08 schrieb:
Oder NVidia sucht Lecks und streut daher intern aktiv verschiedene Gerüchte.;)
Damit wir uns richtig verstehen, sowohl AMD als auch Nvidia lieben die Spekulationen über ihre neuen Produkte. Dadurch bleiben sie im Gespräch.

Sie wollen aber ihre Produktplanung nicht der Konkurrenz preisgeben.

Intern in den Entwicklings- und Designabteilungen wiesen sehr viele Leute über die Produktplanung bescheid, aber die wissen, dass sie die Klappe halten müssen. Und das funktioniert. Viele Informationen sind in den Leaks nicht enthalten, es sind alles Schnipsel. Und solange diese Schnipsel mit einer Aura der Ungewißheit umgeben sind, tun sie nicht weh.

Es ist durchaus möglich dass AMD oder Nvidia Nebelkerzen zünden, falls die Leaks weh tun, oder versuchen die Quellen zu finden. Aber dazu sehe ich keinen Anlass.

Philste schrieb:
@Colindo Der aktuelle Stand (der sich ja wie wir sehen minütlich ändern kann) sind 7 Dies. Ein GCD mit allen Shadern etc. und 6 MCDs mit jeweils 64MB Infinity Cache und dann wahrscheinlich jeweils 64bit Speicherinterface. Alles auf einem großen Base Die aus alter Fertigung.
Der aktuelle Stand der blutleeren Spekulation ist ... Und wieso ist sich kopite7kimi so sicher dass die 7 stimmt?

Falls Du auf VideoCardz anspielst: Extrem unwahrscheinlich.

AMD verwendet für die teure CDNA2 kein CoWoS sondern ein FanOut mit Embedded Bridge. So wie ich mitbekomme habe, bei ASE gefertigt.
Wieso sollte AMD für eine vergleichsweise billige Gaming GPU CoWoS verwenden? Ein Verfahren das zum einbinden von HBM konzipiert ist?

Die langen Signalwege zum Cache machen mich nachdeklich. Bei RDNA2 hat AMD den Infinity Cache zwischen den GDDR6 PHY und den Shadern reingequetscht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dgini und Colindo
@ETI1120 Ich gehe fest davon aus, dass das, was die Leaker MCD nennen, in Wirklichkeit die aktiven Bridges sind. Eine Anordnung mit 1+6 ist aber echt merkwürdig, außer AMD macht das GCD-Design erst bei RDNA 4. Dann würden Cache-Chiplets eventuell Sinn ergeben.

Meine Vermutung sind 3 GCDs plus 2 oder 4 Active Bridges. Also 5 oder 7 Chiplets. Dazu der Interposer.
ETI1120 schrieb:
Die langen Signalwege zu Cache machen mich nachdeklich. Bei RDNA2 hat AMD den Infinity Cache zwischen den GDDR5 PHY und den Schadern reingequetscht.
Das passt aber, wenn die Hauptaufgabe des Caches ist, die Kommunikation kohärent zu halten. Dann ist er zwischen den GCDs sinnvoller als auf einem der GCDs. Dafür gibt es höhere Latenzen, die aber bei GPU-Aufgaben kaum zur Geltung kommen. Die Bandbreite bleibt weiterhin hoch, mit eventuell etwas mehr Energiebedarf.
 
Adzz schrieb:
Bei der Inflation und Euro Kurs nichts. Kannst einmal volltanken und zwei mal Wocheneinkauf machen für das Geld, aber keine gute GPU kaufen.
Ich hab mein Budget doch schon hochgeschraubt, normal würde ich maximal 250 Euro ausgeben. :D Das ist nicht mal zwingend eine Frage des Einkommens oder Vermögens: Für meine Hobbys gibt es irgendwo harte Limits. Es gibt zu viele Alternativen, die billig oder sogar fast umsonst sind. Mein Sport braucht kein Studio und keine Geräte, dann geht mehr von meiner Freizeit in diesem Bereich. Oder ich bleibe beim Spielen einfach noch lange bei meinem FHD-Display, weil die meisten Games auch so schon viel Spaß machen. Ich frage mich, ob in ein paar Jahren wieder die Produktion die Nachfrage nach Chips übersteigen wird und die Billighardware zurück kommt.
 
Gehts nur mir so oder sieht der Kühler einfach geil aus?
 
  • Gefällt mir
Reaktionen: MyFlashDrive
Warte auf ne Karte mit unter 100W und für unter 200€.
Meine GTX 950 ist schon etwas alt.

Wenns so weiter geht, hole ich ein Desktop Ryzen 6000er mit RDNA2 iGPU. Die soll ja schon bei den Notebooks heftig sein.
 
  • Gefällt mir
Reaktionen: MyFlashDrive
Caramelito schrieb:
RTX 3090 x2 Leistung wäre halt ne Hausnumer.
Glauben tue ich es jedoch einfach nicht.

Eher das Übliche. RTX 4070 wird ca. die Leistung der 3080ti/3090 haben und mit 12GB Vram bestückt.
Etc etc
irgendwie müssen sich ja 8K und 16K durchsetzen.

btw der kühler hat mich kurz geschockt:mussweg:
 
orodigistan schrieb:
btw der kühler hat mich kurz geschockt
Platz 2 im Windkanal-Test.
Platz 1.. Anbauwand Lindström :hammer_alt:
 
Also es wird ja immer wärmer, und wenn es draußen 32°C hat, dann möchte ich der Karte 3 Stunden Dauerlast zumuten ohne das diese 400W aus dem Netzteil zieht und ohne das der Kühler 40°C warm wird. Lieber sind mir da 20% Leistungssteigerung, spielbares UHD und am besten das ganze bei 200W wo der Kühler nur 30°C erreicht. Schließlich möchte ich bei 100m³/h 30°C Abwärme anstatt 35°C Abwärme die ich nicht weg bekomme und das Zimmer leise und geschmeidig aufheizen. ^^
 
ETI1120 schrieb:
Und wenn AMD nichts hat das sie dem Monster entgegen stellen können, dann hat AMD ein Problem und nicht Nvidia.
Da liegst du falsch. Eine 600 Watt GPU muss AMD nicht kontern... NV wird sehr viele Ressourcen verschwendet haben... (Man hätte sich den Chip sparen können - der nächst kleinere hätte vermutlich gereicht) Die Entwicklung des Chips, Boards, Maske... Und dann hast du so ein riesen Monolith... Wenn da die Yield scheisse ist geht das ganz schön ins Geld... Und beschnittene Version kostet auch Geld weil Teil ja riesig ist - bekommst nicht so viele pro Wafer - der Wafer kostete aber immer das gleiche...

Wobei Dank Chiplets könnte der Konter auch schneller kommen als NV lieb sein kann...
Las AMD nen 4 oder gar 5tes Chiplets rauf packen...
 
crustenscharbap schrieb:
Wenns so weiter geht, hole ich ein Desktop Ryzen 6000er mit RDNA2 iGPU. Die soll ja schon bei den Notebooks heftig sein.
Ja, fürs 720p Gaming geht die schon gut ab.
 
Jolly91 schrieb:
Schließlich möchte ich bei 100m³/h 30°C Abwärme anstatt 35°C Abwärme die ich nicht weg bekomme und das Zimmer leise und geschmeidig aufheizen. ^^
So funktioniert das nicht. Die Temperatur des Kühlers oder der GPU ist total irrelevant für das Aufheizen deines Zimmers. Hier ist lediglich die Verlustleistung deiner Grafikkarte relevant, d.h. wie viel elektrische Leistung nimmt sie auf. Das wird in Form von Wärmeleistung zu 100% wieder abgegeben.
 
Jan schrieb:
...Nvidia zum Start nun offensichtlich doch nicht die 600-Watt-Brechstange rausholen werde, weil es gegen AMDs neues Flaggschiff nicht notwendig sei.
...und die Leute durch die (kuenstl.?) Knappheit ALLES kaufen, egal ob schnell, langsam, alt, neu, und vorallem, egal zu welchem Preis - ein Nvidia-Schlaraffenland ;)
 
Novasun schrieb:
Da liegst du falsch. Eine 600 Watt GPU muss AMD nicht kontern
Wenn AMD nicht an die Performance herankommt, dann kann Nvidia mit moderaten Taktraten agieren und somit den Verbrauch begrenzen.
Novasun schrieb:
... NV wird sehr viele Ressourcen verschwendet haben... (Man hätte sich den Chip sparen können - der nächst kleinere hätte vermutlich gereicht)
Dann verkauft man die Grafikkarten eben für 3000 anstatt für 2000 €. Ich habe jetzt nicht mitbekommen dass Nvidia Führung schlaflose bekommen hat, weil die 1080 TI viel zu schnell war.
Novasun schrieb:
Die Entwicklung des Chips, Boards, Maske... Und dann hast du so ein riesen Monolith... Wenn da die Yield scheisse ist geht das ganz schön ins Geld...
Wenn Nvidia diesen Weg geht, dann haben die das auch durchgerechnet.
Novasun schrieb:
Und beschnittene Version kostet auch Geld weil Teil ja riesig ist - bekommst nicht so viele pro Wafer - der Wafer kostete aber immer das gleiche...
Nvidia muss viel weniger als AMD beschneiden weil sie mehr Designs machen.
Das Mix wie sie produzieren kann Nvidia wöchentlich festlegen.
Novasun schrieb:
Wobei Dank Chiplets könnte der Konter auch schneller kommen als NV lieb sein kann...
Las AMD nen 4 oder gar 5tes Chiplets rauf packen...
Hat jetzt Nvidia ein Problem weil sie zu schnell sind. Oder haben sie ein Problem weil AMD schneller ist.

Heute wird diskutiert dass RDNA3 doch keine Multi GPU Lösung ist.

Aber so einfach erhöht man die Anzahl der Chiplets nicht
Ergänzung ()

Colindo schrieb:
@ETI1120 Ich gehe fest davon aus, dass das, was die Leaker MCD nennen, in Wirklichkeit die aktiven Bridges sind.
Das sehe ich ähnlich.

Je nach dem, ob eine kompakte Active Bridge oder eine große Active Bridge umgesetzt wird.
Kompakte: Brücke zwischen zwei GCDs.
Große: Brücke über 3 GCDs.

Die kompakte Active Bridge kann AMD in N6 fertigen und die hätte den Cache integriert.

Die große Active Bridge kann nicht in N6 gefertigt werden. Sie ist dafür zu groß. Hier wäre es ein Sandwich. Cache auf Active Bridge auf GCD. Verbunden mit 3D-Packaging Technik. Cache in N6 und Active Bridge in 65 nm. Diese Version ist wahrscheinlich viel zu teuer. Ich kam auf diese Idee wegen Fig. 2 im Active Bridge Patent.

Colindo schrieb:
Eine Anordnung mit 1+6 ist aber echt merkwürdig, außer AMD macht das GCD-Design erst bei RDNA 4. Dann würden Cache-Chiplets eventuell Sinn ergeben.
Aber dann habe ich bei RDNA3 eine GPU und kein GCD.
Colindo schrieb:
Meine Vermutung sind 3 GCDs plus 2 oder 4 Active Bridges. Also 5 oder 7 Chiplets. Dazu der Interposer.
Einen zusätzlichen Interposer wird es nicht geben.

Das was ich als große Active Bridge bezeichne kommt einem Interposer nahe, es hat die Länge aber nicht die Breite. Es ist entscheidend daß der Cache über den GCDs liegt. Neben den GCDs verursacht zu lange Signalwege.
Colindo schrieb:
Das passt aber, wenn die Hauptaufgabe des Caches ist, die Kommunikation kohärent zu halten. Dann ist er zwischen den GCDs sinnvoller als auf einem der GCDs.
Wenn die Cache Chips neben den GCDs liegen werden die Abstände zwischen den GCD zu groß. Kern des Active Bridge Patents ist, daß der Cache in der Active Bridge ist, die die GCDs verbindet.
Das ist im Schaltplan zwischen den GCDs, in der tatsächlichen geometrischen Anordnung über den GCDs.
Es gibt in den Patenten keine Grafik die einen Cache zeigt, der nicht über den GDCs ist. Die Patente zeigen beide Varianten:
GCD oben Active Bridge unten
Active Bridge oben GCD unten
Colindo schrieb:
Dafür gibt es höhere Latenzen, die aber bei GPU-Aufgaben kaum zur Geltung kommen. Die Bandbreite bleibt weiterhin hoch, mit eventuell etwas mehr Energiebedarf.
Wenn es nicht darum geht die Cache-Koherenz sicherzustellen, dürfte die Latenz an sich nicht kritisch sein.

Aber die längeren Wege bei hoher Bandbreite kosten Energie. Und ob die effektive Bandbreite des Caches nicht unter den Latenzen leidet kann ich nicht beurteilen.

Eine teure Lösung mit Interposer ist extrem unwahrscheinlich. Und so richtig verstehe ich nicht warum es notwendig sein soll bei einem monolithischen Design den Infinity Cache auszulagern.

Und so richtig glaube ich nicht daran, daß AMD für dasselbe Problem zwei unterschiedliche Lösungen umsetzt.
 
Zuletzt bearbeitet:
SavageSkull schrieb:
Du meinst das Einstiegsfeld. Mittelfeld ist bei ~600€

tja die Zeiten einer RivaTNT2 Ultra für 500€ sind wohl vorbei ^^
 
Ach doch nur 450W, na dann ist ja alles gut. :freak:
 
orodigistan schrieb:
irgendwie müssen sich ja 8K und 16K durchsetzen.

btw der kühler hat mich kurz geschockt:mussweg:
Ja mein 16k Monitor ist echt happy, dass ich ne 3080 12gb verbaut habe.
Mein anderer PC mit der 6900XT chillt nur auf 8k. Richtig low end :D
 
Jan schrieb:
Wenn es uns nur um Klicks und nicht um den Charakter ginge, wäre gestern schon ein Extrainhalt zum Kühler erschienen und der neue Post von Kimi hätte es heute auch nicht nur per Update auf die Seite geschafft. ;) So haben wir Idioten nur einen alten Inhalt, wo andere drei draus gemacht haben. :freak:
Man kann das ja auch machen wie das Monty: NULL eigenen content, einfach CPU und GPU News von Euch und den anderen bekannten 5-7 (inkl. englischsprachigen) Techseiten nachplappern und inszenieren und 4 Minuten Inhalt auf 10+ Minuten strecken damit 100K Abos erreichen. 🤣

Nach wie vor finde ich, dass Computerbase die Balance gut hinbekommt, außerdem ist das Interesse der Community hier ja vorhanden, man sieht es an der Zahl der Aufrufe und Antworten.
Mich nervt, dass einige hier denken, dass Ihr Euch immer "rechtfertigen" müsst, weil Ihr Eure Arbeit macht...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Innocience, Cohen, ETI1120 und eine weitere Person
Jolly91 schrieb:
Also es wird ja immer wärmer, und wenn es draußen 32°C hat, dann möchte ich der Karte 3 Stunden Dauerlast zumuten ohne das diese 400W aus dem Netzteil zieht und ohne das der Kühler 40°C warm wird. Lieber sind mir da 20% Leistungssteigerung, spielbares UHD und am besten das ganze bei 200W wo der Kühler nur 30°C erreicht. Schließlich möchte ich bei 100m³/h 30°C Abwärme anstatt 35°C Abwärme die ich nicht weg bekomme und das Zimmer leise und geschmeidig aufheizen. ^^
Es wird ja niemand gezwungen, die Karte im Sommer bei 32°C und mehr auch voll auszufahren. Da gibt es ja genug Möglichkeiten, die Leistungsaufnahme und Wärmeentwicklung für die heißen Monate zu reduzieren:
  • genügsame Spiele zocken (ältere AAA-Spiele, Indie-Spiele...)
  • auf natives UHD zeitweise verzichten
  • weitere Regler in den Spielen bedienen
  • bei vorhandener Konsole deren Exklusivspiele nachholen

Die Spiele, die man unbedingt in voller Grafikpracht zocken möchte, hebt man sich dann eben für Herbst bis Frühjahr auf.
 
Zurück
Oben