News Navi 31, 32 und 33: Handfeste Gerüchte zu AMDs Radeon RX 7000 mit RDNA 3

Humbertus schrieb:
Doofe Frage: Gibts eigentlich irgendwas handfestes warum immer wieder geschrieben wird das Nvidia die nächste Gen im vergleich zu AMD ein wesentlich schlechteres Perf/Watt Verhältnis haben soll?
Dürfte u.a. Was mit den zwischenzeitlich überholten Gerüchten mit extremen TDPs bei Nvidia zu tun haben wir.
 
SaschaHa schrieb:
@stefan92x
Im professionellen Bereich wird man dann vermutlich eher auf Dual-CDNA3 setzen. Bei Spielen könnte ich mir schon vorstellen, dass Dual-Navi 32 den großen Single-Bruder schlagen würde, aber ggf. wieder mit Problemen wie Microrucklern.
CDNA3 wird natürlich als Instinct im Datacenter landen, ich dachte hier schon an Radeon Pro als Workstation-Lösung.

Und ja genau, Microruckler und ähnliche Probleme wären für mich ein plausible Grund eine solche Karte nicht als Gaming-Karte zu bringen.
 
  • Gefällt mir
Reaktionen: SaschaHa
Ich stehe einer Dual-Chiplet-Karte auch eher skeptisch gegenüber, habe aber dennoch die Hoffnung, dass solche Probleme dort minimiert werden können. Zwei eng nebeneinander liegende und mit schnellem Interface verbundene Chiplets dürften in einer ganz anderen Liga spielen als die damaligen Dual-GPU-Karten oder SLI/CossFire-Systeme.
 
ghecko schrieb:
Perf/W bei CDNA3 sieht nicht gut aus für Nvidia. Und Intel, aber die haben mit ihren Chips noch ganz andere, grundlegende Probleme
Ist das denn wirklich relevant? Wenn das Hauptargument mit dem der Hersteller sein Produkt bewirbt nicht die Produktleistung ist, sondern die Energie-Effizienz, dann ist das für mich eher ein schlechtes Zeichen.

In den wenigen Stunden in denen ich die Karte unter Volllast nutze, da will ich doch auch maximale Performance und dann bin ich auch bereit ein paar Euro für die entsprechenden Stromkosten zu zahlen. Immerhin habe ich mehrere Hundert Euro für die Karte ausgegeben.

So lange die im normalen Desktop Betrieb jetzt nicht auch noch 300 Watt verballert ist doch alles in Butter oder nicht?
 
Zornica schrieb:
Ich bin ja vor allem auf den Verbrauch gespannt... die Chipgröße lässt jedenfalls nichts gutes vermuten...
Bei 50% mehr Leistung/Watt bin ich ziemlich zuversichtlich. Notfalls wird halt eine kleinere GPU gekauft. Umso besser für den Geldbeutel. Die High-End Monster will ich mir schon lange nicht mehr antun, aus mehreren Gründen.
 
noxon schrieb:
Ist das denn wirklich relevant? Wenn das Hauptargument mit dem der Hersteller sein Produkt bewirbt nicht die Produktleistung ist, sondern die Energie-Effizienz, dann ist das für mich eher ein schlechtes Zeichen.
Falls @ghecko wirklich CDNA3 gemeint hat, ist er hier zwar unter der falschen News, hat aber absolut recht - im Datacenter (wo CDNA3 nunmal landen wird, im Gegensatz zu RDNA3) ist Energieeffizienz einer der wichtigsten Kennfaktoren.
 
  • Gefällt mir
Reaktionen: SaschaHa und noxon
Stimmt und in der News wird CDNA ja auch erwähnt. Von daher hat er natürlich vollkommenm recht.
Dennoch finde ich, dass viel zu viel Leute immer zu sehr auf die Energieeffizienz ihrer Consumerkarten schauen, in die sie gerade 1000€ investiert haben. Da erschließt sich mir der Sinn manchmal nicht ganz.
 
Selbst wenn AMD Karten dann 300-400 Watt verbrauchen dürfte das immer noch wenig sein im Vergleich zu den Nvidia Spitzenmodellen.
 
stefan92x schrieb:
Falls @ghecko wirklich CDNA3 gemeint hat,
owned139 schrieb:
Ach du kennst schon die Leistung/Watt von RDNA3 und Ada?
Das ist die Folie auf die ich mich beziehe:
9-1080.37907b0e.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stefan92x und SaschaHa
noxon schrieb:
Dennoch finde ich, dass viel zu viel Leute immer zu sehr auf die Energieeffizienz ihrer Consumerkarten schauen, in die sie gerade 1000€ investiert haben. Da erschließt sich mir der Sinn manchmal nicht ganz.
Naja, alleine für die Lautstärke und Kühlung der Karte sowie die Raumtemperatur macht es schon einen Unterschied. Und auf Dauer summieren sich auch die Stromkosten, zumal hochpreisige Gaming-Systeme ja nicht gerade dafür da sind, in der Ecke zu verstauben. Für mich ist die Energieeffizienz ein sehr wichtiger Faktor. Auf die letzten 10% Leistung kann ich gerne verzichten, wenn ich im Gegenzug dann eine effiziente Karte mit hoher Leistung pro Watt bekomme.
 
Beg1 schrieb:
https://www.techpowerup.com/review/msi-radeon-rx-6800-xt-gaming-x-trio/35.html
https://www.techpowerup.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/37.html

TPU hat das vor kurzer Zeit angefangen, ist schon sehr interessant, aber grundsätzlich ist der Aufwand deutlich zu groß, weil du eben jedes Spiel in jeder Auflösung mit unterschiedlichen fps caps messen müsstest und vermutlich wäre der Mehrwert zu Performance pro Watt zu vernachlässigen.

Im Endeffekt kann man es wie TPU machen und ein Spiel rauspicken, die Tendenz dürfte dann meist stimmen.
Ergänzung ()



Sorry, aber warum?
Es ist halt so wie ich in einem Beitrag vorher geschrieben habe, die Menschen möchten einfach nicht von einer höheren Modellnummer runter, unglaublich.
Eine 3060 Ti bietet nahezu 100% mehr Leistung bei ~25% höherem Verbrauch (aber noch in deinem Rahmen) und erweitertem Featureset (RTX, DLSS)...
nee ich meinte natürlich nicht, dass man jedes Spiel so testen soll. Man nimmt ein Spiel für den effizienz-Test, in dem die Grafikkarten möglichst homogen ausgelastet werden, wo aber der Verbrauch mit zunehmenden fps auch gut skaliert. Doom eternal bietet sich da relativ gut an. Dann testet man einmal im 60fps limit, dann im 144fps limit und einmal ohne jegliches limit.
Gerade das 60fps limit wird stark vernachlässigt, dabei gibt es noch massig Spieler, die ein 60hz display haben. Und in vielen Spielen bietet sich dann so ein limit an. Strategie Spiele oder sowas wie War Thunder oder World of Tanks braucht keine 200fps auf so einem Display.

Und man mag kaum glauben wie effizient manche Karten im 60fps limit werden.
 
  • Gefällt mir
Reaktionen: Haldi
Welche Karte es auch immer sein wird, mehr als 500 € wird es von mir nicht geben! Und zudem wird diese auf ca . 200-250 Watt undervoltet.
 
Zer0Strat schrieb:
Ist der Cache durch das Chiplet Design nicht eher weiter weggewandert vom MC?
Nein, der Cache sitzt - wie aktuell auch - beim MC. Im übrigen ist die Aufteilung von Rechenwerken als Chiplet und MC + Cache als eigener Chiplet nicht wirklich dumm von AMD und ist nicht mal wirklich mit nachteilen verbunden, da die Latenz von GDDR-RAM eh voll fürn Popes ist.

Und bevor jetzt einer der Oberschlaumeier kommt und erklären will, dass ja RAM-Latenz total wichtig ist: Nö, bei GPUs ist sie es nicht, da die Zugriffe auf auf den VRAM im wesentlichen vorhersehbar sind und die GPU teilweise weit im vorausweiß, welche Daten als nächstes geladen werden müssen.

Ich wollte deinen anderen Beitrag nicht noch zitieren, aber auch dazu: Nein, das was du schreibst, kann nicht vorkommen, da jeder Cache-Baustein gleichzeitig einem Memory-Controller zu geordnet ist und jeder Memory-Controller auch seine eigenen Speicheradressen. Am 1 MC wird dann zumbeispiel die Adressen der der ersten 4 GB hängen und die Daten von dort werden in den Cache vorgeladen, am 2 hängen die nächsten 4 GB mit ihren Adressen.

Da die Zugriffe auch gut erkennbar sind, kann es sogar gut sein, dass AMD mit weiteren Arbeiten am Treiber und dem Memory-Controller wirklich auch die notwendige Größe des Cache-Bausteines verringern konnte. Wie geschrieben, die Zugriffe auf den VRAM bei Grafikkarten sind sehr gut planbar. Dazu entscheidend ist auch, ob AMD den L2-Cache vom Chiplet noch anpasst und ggf. auch dorthin Cache verlagert hat.
Grundgütiger schrieb:
Ein Multi Chip Design mit der Größe des letzten Mono Chip ergibt Leistungstechnisch wenig Sinn.
Doch, das ergibt sogar in diesem Fall für AMD sehr viel Sinn, weil AMD Verträge mit TSMC hat und AMD damit teuren Platz auf N5-Wafern einsparen kann, während man ungenutzen Platz bei N6-Wafern füllen kann, ohne dass man gff. Aufträge stonieren muss.

Und das hat in dem Fall sogar deutlich weniger Nachteile als der IO-Chiplet bei Zen2, Zen3 und nun Zen4, weil GPUs im Gegensatz zu CPUs beim RAM eigentlich nicht von der Latenz abhängig sind, sondern eigentlich nur von der Bandbreite abhängen. Wie angedeutet, die Zugriffe auf den Arbeitsspeicher lassen sich bei GPUs sehr gut planen.
Grundgütiger schrieb:
Aufgrund der schwachen RT Leistung von AMD im Vergleich der Mitbewerber gibts für die ALU Anzahl nur die Flucht nach vorne. Faktor 2 bis 3.
Ach, die ALU-Anzahl ist eine Flucht nach vorne? Na da merkt man aber, dass du sogut wie keine Ahnung hast, sondern einfach nur daher plapperst. NVIDIA hat bei Ampere die ALU-Anzahl draßtisch erhöht und kann daraus - verglichen mit RDNA2 - fast nichts heraus ziehen.

Und RT ist aktuell NOCH eine Sache, die man so genau nicht wirklich bewerten kann, ob bei AMD eine "generelle" Schwäche vorliegt oder ob die Probleme nicht viel eher in den "Spielen" liegt. Gerade neuere Titel, die nicht nur mehr "exkulsiv" auf NVIDIA-Grafikkarten mit RT-Effekten entwickelt wurde, dreht sich das Bild etwas zu gunste von AMD.

Zudem muss man mal abwarten, was AMD bei der 2. Iteration ihrer RT-Kerne macht und wie AMD ggf. die WGP für RT weiter umbaut.
Grundgütiger schrieb:
Ich gehe mal so Richtung 700-800mm2 bei AMD aus um Nvidia Paroli zu bieten, welche wohl wieder 600mm2+ an Fläche haben werden.
Ach ja, davon gehst du aus? Wir sprechen aktuell bei AMD von 520 mm² während NVIDIA 628 mm² benötigt für "vergleichbare" Leistung. Der flächen Vorteil liegt aktuell - auch wegen N7, aber nicht nur.

Halt dich lieber mal mit deinen Weisheiten zurück, ganz ehrlich: Du machst dich lächerlich.

SavageSkull schrieb:
AMD ist halt nicht so groß wie Nvidia oder Intel wo schon deutlich mehr feinschliff an Tag 1 erfolgt ist.
Von den aktuellen Zahlen her, liegt AMD das erste mal sogar vor NVIDIA. Bei den Mitarbeiter hast du aber natürlich recht: 18000 bei NVIDIA gegen ca. 13000 bei AMD. Wobei die Xilinx-Mitarbeiter bei den 13.000 noch nicht drin sind, die 13000 sind noch Stand 2021.
SavageSkull schrieb:
Schlimmstenfalls kommt eine Karte die in gewissen Situationen richtig scheint und sonst Probleme hat oder zickig ist und der Treiber noch ein Jahr reifen muss.
Nein, bei dem Weg, den AMD hier jetzt geht, gibt es eigentlich sogut wie keine Nachteile bei dem, was AMD hier macht. GPUs sind nicht von den Latenzen des VRAMS abhängig, sondern primär von der Bandbreite. Zugriffe auf den VRAM lassen sich gut planen und daher.

Auch den eigentlichen Aufbau hat AMD mit dem Auslagern der Cache-Blöcke und den Memory-Controllern nicht mal im Ansatz geändert, auch jetzt wird der Infinity-Cache bei RDNA2 in Blöcken angesprochen und nicht als ganzes und an diesen Blöcken hängen dann die Memory-Controller und auch jetzt schon wird nach dem L2-Cache im entsprechenden Block des Block des IC gesucht und wenn es nicht in dem Block ist wird vom IC-Block die Anfrage an den Memory-Controller weiter geben und dann da gesucht.

Aktuell wird der Cache in 4 * 32 MiB organisiert und an jedem 32 MiB Block hängen 2 * 32 Bit SI dran. Durch den Aufbau weiß man immer im welchen Block die Daten liegen und welcher Controller dann genutzt werden muss.
FeldiSan schrieb:
Wobei ich nicht verstehe warum man das nicht mehr nutzt? Die Lastverteilung war nachezu ausgeglichen und deshalb waren auch absolut keine Framtime Probleme vorhanden. Das Hat bei den Voodoo Karten damals extrem gut skaliert und funktioniert! Verstehe bis heute nicht warum Nvidia das nicht weiter nutzte?
Man nutzt das ganze nicht mehr, weil der Ansatz on 3dFX ab DX7 nicht mehr in der Form funktioniert hätte, da seit DX7 Geometrie als auch die Beleuchtung und Schattenwerte auf der GPU berechnet worde sind. SLI funktioniert bis einschließlich DX6 so wunderbar, weil eine GPU damals nur die Polygone gerastert hat, anschließend für den gerasterten Pixel das zugehörige Texe des Polygones aus der Textur ermittelt hat und anschließend die bekannten Licht und Schattenwerte noch mit dem Farbwert des Texels verrechnet hat. Das war es! Geometrie und Beleuchtung hat die CPU berechnet.

3dFX ist deswegen bei Specter auf ein zweistufiges Verfahren gewechselt, dass bis ca. DX10 "gut" gegangen wäre: Sage als Geometrie-Prozessor hätte die Geometrie berechnet und anschließend hätten die Rampage-Prozessoren übernommen, die dann wieder zeilenweise hätten arbeiten können oder auch anders um eine bessere Lastverteilung zu erreichen.

Auch hier hätte es dann aber spätestens bei einer unified Shader-Architektur gekracht. AMDs zweistufiger Ansatz aus dem Patent zielt aber in eine ähnliche Richtung ab, wie damals 3dFX Ansatz.
Grundgütiger schrieb:
Und eine 6900xt ist in RT des öfteren in der Region einer rtx 3070.
Richtig, das hat aber unterschiedliche Gründe, die man aktuell so noch nicht ganz klar benennen kann. AMD ist jetzt gerade mal knapp 2 Jahre mit ihrer RT-Implementation auf dem Markt, NVIDIA 4 Jahre.
Grundgütiger schrieb:
Von 80 auf 96 RT Kerne hoch zu gehen ohne enorm an der Taktschraube (Verbrauch)zu drehen bringt auch nicht viel.
Man wird hier mal abwarten müssen, welche Umbauarbeiten AMD noch an den WGPs vornimmt und ob pro WGP von 2 ggf. auf 4 RT-Kerne erweitert wird, weil ggf. ein Ungleichgewicht aus Threads pro WGP hinaus läuft. Gleiches gilt für die TMU.
whyme schrieb:
Im Cache eines MCDs sind auch nur die Daten die im angeschlossenen Speicher liegen und keine Daten aus anderen MCDs.
Richtig, ist bei RDNA2 bereits genau so.
phanter schrieb:
Aber ich hätte größere Dies von AMD erwartet. Wenn AMD mit chiplet Design in N5/N6 gerade so auf ihre 600mm² kommt und NVidia in ihrer 4090 600+mm² in N4 monolithisch nutzt dann kann das fast nicht konkurrenzfähig sein.
Warum kein 600mm² GCD (oder 2x300) + interface chiplets. So verspielt AMD ihren chiplet Vorsprung
Nein, AMD verspielt so nicht ihren Chiplet vorsprung. Aktuell stehen noch einige Informationen aus - L2-Cache bei RDNA3 - dann ist es auch wichtig, wie AMD die WGP umbaut und anpasst. Aktuell kann AMD ihre 5120 ALUs weit aus besser auslasten als NVIDIA knapp die doppelte Anzahl.

Sollte AMD die Auslastung bei RDNA3 beibehalten könnten und die WGPs ggf. um weitere RT-Kerne und ggf. TMU (wobei das weniger notwendig ist) um ein Thread-Gleichgewicht bei zu behalten, dann werden sich AMD und NVIDIA auch diese Generation wieder auf Augenhöhe begegnen mit bestimmten Vorteilen bei AMD und anderen Vorteilen bei NVIDIA.
phanter schrieb:
Das heißt best Case sie haben keinen Nachteil.
Worst Case haben sie schon gegenüber monolithisch N5 einen Nachteil und die Gerüchteküche geht bei Nvidia von 600mm² N4 aus. Damit haben sie dann definitiv einen Nachteil.
Ach, sie haben definitiv einen Nachteil und woraus willst du das schließen? Weil AMD den Memory-Controller und den Infinity-Cache auslagern? Das wäre höchstens von Nachteil für AMD, wenn GPUs von der Latenz beim VRAM und Cache abhängig wären, sind sie aber nicht. Der L2-Cache verteilt die anfallenden Daten an die Shader Arrays, dort der L1 Cache an die WGPs.

Grafikkarten arbeiten auch heute nach einem In-Order-Prinzip und auch heute schickt der Grafikkartentreiber rechzeitig passende Ladeanweisungen an die GPU, so dass sie die Daten aus dem VRAM holen kann.

AMD hat mit dem Infinty-Cache nun bereits einiges an Erfahrung sammeln können weiß auch, wird auch hier die Konzepte weiter gedacht haben.
Humbertus schrieb:
Momentan ist Nvidia mit ner schlechteren Fertigung fast gleichauf mit AMD und nächste Gen setzen beide auf das gleiche Verfahren.
Samsung 8 ist ein Stück schlechter als N7 von TSMC, aber im weiten nicht so schlecht, wie hier gerne behauptet wird.

AMD und NVIDIA werden sich vermutlich wieder auf Augenhöhe begengen, vermutlich dieses mal sogar mit einem "Vorteil" für NVIDIA, aber den Vorteil hatte NVIDIA auch bei Ampere, wenn man ehrlich ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo, Hatch und MasterAK
"dass in diesem Jahr nur noch Navi 31 auf Desktop-Grafikkarten erscheinen wird, deren Referenz-Designs mit einem überarbeiteten 3-Lüfter-Design, aber „nur“ mit zwei 8-Pin-PCI-Anschlüssen erscheinen sollen"

Die für mich interessanteste Neuigkeit. Für mich sehr freuen, wenn es sich als richtig herausstellt. Meine aktuelle Karte hat 2x 8 Pin und ich würde bei der nächsten Karte auch am liebsten wieder mit 2x 8 Pin auskommen.
 
DevPandi schrieb:
Ach, sie haben definitiv einen Nachteil und woraus willst du das schließen? Weil AMD den Memory-Controller und den Infinity-Cache auslagern? Das wäre höchstens von Nachteil für AMD, wenn GPUs von der Latenz beim VRAM und Cache abhängig wären, sind sie aber nicht. Der L2-Cache verteilt die anfallenden Daten an die Shader Arrays, dort der L1 Cache an die WGPs.
Du hast aber schon gelesen was ich geschrieben habe?

600mm² N5 monolithisch vs 600mm² N5 zusammengesetzt aus mehreren Chiplets hat best case keinen Nachteil, worst case einen Nachteil

600mm² N5 monolithisch vs 300mm² N5 + 300mm² N6 hat best case keinen Nachteil, aber wahrscheinlich einen.

600mm² N4 monolithisch vs 300mm² N5 + 300mm² N6 ist auf jeden Fall ein Nachteil!

Chiplets können einen Vorteil haben wenn die Gesamtfläche steigt. TUT SIE ABER NICHT
Und zudem hat selbst der GCD nach aktuellen Gerüchten einen N4 vs N5 Fertigungsnachteil
 
Maxminator schrieb:
diesem Chipletdesign traue ich noch nicht: SLI auf einer PCB --> wird wahrscheinlich zur ungleichmäßigen Leistungen bei den verschiedenen Spielen führen! Monolitisch ist mir da lieber.
Aber warten wir erst mal ab - AMD hat sich ja was dabei gedacht.

Ich kann mir aber schon vorstellen, dass AMD mit genau dieser Generation sehr viel Kopfschmerzen bekommen könnte: Stichwort Treiber und Ungleichmäßigkeit bei den verschiedenen Spiele-Engines...
Kaffeesatz. Chipletdesign siehe moderne CPU's. Da ist nichts mehr mit Flachkabel und so. Die alte Leier mit den Treibern, bitte mal Intel CPU mit Nvidia Grafikkarte googeln. Stichwort Microruckler.
 
@Beg1

Natürlich sind die meisten Grenzen zu einem gewissen Grad willkürlich, da brauchen wir gar nicht drüber diskutieren, aber ich finde es zunehmend wichtig(er) zumindest die Aufmerksamkeit auf solche Probleme zu legen.
Ich will sicher Niemandem sein Hobby verbieten und Alles auf das absolute Minimum reduzieren (oder ganz verbieten), aber ohne Regeln, reizen einige Wenige die Möglichkeiten zum Schaden aller Anderen maximal aus.
Ob das jetzt ein paar tausend Gamer sind, die mehrere hundert Watt rausblasen oder ein tschechischer Millionär, der mit 400Km/h über die Autobahn ballert.

Wenn man da immer nur auf andere, zugegebenermaßen größere Probleme verweist, kommt man nie auch nur einen Schritt weiter.

Und ja, selbst mit eigener PV Anlage ist es sinnig sparsam(er) zu sein, weil für alle 8kwh, die ich einspeise, in irgendeinem Kraftwerk 1kg weniger Kohle verbrannt werden muss.
 
  • Gefällt mir
Reaktionen: DevPandi
phanter schrieb:
Du hast aber schon gelesen was ich geschrieben habe?
Ich habe deinen Beitrag gelesen und auch jetzt wird ich es nicht besser, weil du keine Ahnung hast, aber Hauptsache mal fabuliert.

N4 ist ein etwas verbesserter N5, die Vorteile sind marginal.

Und alles weitere: befass dich mit der gesamten Thematik, bevor du hier was von Nachteilen faselst, ohne dass du sie nennen kannst.

Ich habe Ellen lang erläutert, warum AMDs Schritt in dem Fall eigentlich keine Nachteile hat. AMDs Schritt hier ist nur für die Latenzen vom L2 zum RAM nachteiligster, spielt bei VRAM aber keine Rolle.

AMD hat aber mit dem Schritt einen massiven Kostenvorteil.

N7/N6 kosten pro Wafer ca. 9000 $ für N5/N4 werden ca. 17000 $ fällig.

AMD zahlt für ihre 300 mm (Quadrat dazu denken) in N5 ca soviel wie für 600 mm in N6. Dazu kommen dann 250 mm in N6 dazu. Also zahlt AMD pro Chip das, was aktuell ca. 850 mm in N6 kosten, während NVIDIA mit 600 mm in N4 ca. 1200 mm in N6. Macht also pi mal Daumen einen Preisvorteil für AMD von 25 %.

Dazu kommt dann aber noch, das man mehr 300 mm Chips drauf bekommt auf den Wafer als halbsoviele 600 mm Chips, weil man 300 mm an den Ränder. Besser verteilen kann und weniger tote Fläche hat und die ca. 40 mm für den SI bekommt man noch mehr Chips drauf. Mehr als 12 mal soviel wie bei 600 mm. Eben auch wieder weil die Randbereiche besser genutzt werden oder anders ausgesrückt, vier doppelt sich die Fläche des Chipw bekommt man weniger Chips als die Hälfte heraus, als bei halberfläche.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Colindo und Haldi
Toll ein Milliardenunternehmen kann günstiger produzieren und höhere Margen erwirtschaften. Wen juckts?

Mein Kommentar galt rein der Performance. Und da holt AMD halt nichts egal wie sie ihren chip stückeln solange sie nicht die Gesamtfläche erhöhen. Was ja machbar sein sollte. Aber scheinbar wollen sie nicht die high end Krone
 
SaschaHa schrieb:
Ich stehe einer Dual-Chiplet-Karte auch eher skeptisch gegenüber, habe aber dennoch die Hoffnung, dass solche Probleme dort minimiert werden können. Zwei eng nebeneinander liegende und mit schnellem Interface verbundene Chiplets dürften in einer ganz anderen Liga spielen als die damaligen Dual-GPU-Karten oder SLI/CossFire-Systeme.
Ich sehe es so. Diese Anbindungen sind ein Teil der infinty band Lösung. Vllt sind die Anbindung nicht nur für die Memory/Si Chip gedacht, sondern auch als Anbindung zu einer weiteren GPU Chip oder zu einer CPU.
Das würde zumindestens die Flexibilität stark erhöhen. Vllt sieht man das überraschend dann nächstes Jahr oder dann mit RDNA4.
 
Zuletzt bearbeitet:
Zurück
Oben