TheInvisible
Commander
- Registriert
- Jan. 2022
- Beiträge
- 2.112
Der "Fehltritt" beschert Nvidia gerade einen gaming Quartalsrekord...ruthi91 schrieb:Im Sinne aller kann man nur hoffen, dass Nvidia nicht wieder so einen Fehltritt hinlegt
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Der "Fehltritt" beschert Nvidia gerade einen gaming Quartalsrekord...ruthi91 schrieb:Im Sinne aller kann man nur hoffen, dass Nvidia nicht wieder so einen Fehltritt hinlegt
Weiß wohl nur Nvidia, es gibt aber Games wo eine 4090 knapp 50% vor der 4080 liegt bei 60% mehr shader, ist schon ziemlich gut.Cr4y schrieb:Kommt die Limitierung durch die Hardware oder die Spiele?
Es geht ja nur darum, dass der "Generationensprung" so klein war, und das einem recht langen Zeitraum zwischen den Generationen. Der Teil ist schon enttäuschend. An sich sind die Produkte aber gut.TheInvisible schrieb:Der "Fehltritt" beschert Nvidia gerade einen gaming Quartalsrekord
Einfach Mal dem Beisrefelex widerstehen und den Kontext verstehen auf das sich die 5 Grafikkarten beziehen.Simonte schrieb:sehe da >5 alleine auf MF
DevPandi schrieb:Aktuell einigen sich die Leaker ja auf gewisse Eckdaten und das was Kepler jetzt gebracht hat, ist schon echt sehr genau.
Auf der anderen Seite - @HOT ich hab deinen Beitrag gelesen - gibt es noch zu viele Ungereihmtheiten. Wird bei RDNA 5 / UDNA wirklich die WGP in CU umbenannt? Damit dann statt 64/128 Shader nurn 128/256? Oder bleibt es bei der WGP?
So wie das klingt, sind AT3 und AT4 ja gar nicht als eigenständige GPU gedacht, sondern nur als Chiplet für APUs.Haldi schrieb:Also diese Generation immer noch kein Chiplet design?
Die CU Zahlen von Kepler beinhalten, dass eine RDNA5 CU die doppelte Anzahl von Shadern einer RDNA 4 haben soll. Das wird im AnandtechForum mindestens 2 Mal gesagt. MLID widersricht dem.DevPandi schrieb:MLID hat für AT 0 also das 154 CU - was sogar aktuell rechnerisch sogar falsch ist - vorhergesehen und für AT 2 dann 64. Da hat sehr vieles nicht zusammen gepasst. Da ist das was Kepler hatte, schon substanzieller und wenn MLID jhetzt da mit aufspringt, zeigt das mal wieder, das er sehr kreativ im erfinden war.
Weil das was Kepler verbreitet auf eine "Quelle" im Chiphell Forum zurück geht. Allerding habe ich keinen Link auf diese Quelle mitbekommen.DevPandi schrieb:Aktuell einigen sich die Leaker ja auf gewisse Eckdaten und das was Kepler jetzt gebracht hat, ist schon echt sehr genau.
Für die Zeit nach deinem Workshop:DevPandi schrieb:Reicht meine Zeit aber nicht. Workshop!
Unwahrscheinlichwahli schrieb:Möglicherweise kommt die nächste AMD-Generation gar nicht als kaufbare Gamer-Grafikkarte raus:
Für die Rechenzentren hat AMD eigene Hardware.wahli schrieb:AT0: nur für Rechenzentren
Doch die gibt es im AnanfTechForumpipip schrieb:Es gibt keine Infos zu den CUs selber. Haben diese weiterhin 64 Shaders? Die Steuerelemente verdoppeln sich, kann also gut sein dass die IPC auch wesentlich steigt. Interessant ist auch dass L2 Cache steht (könnte am Ende aber eh auch der L3 Cache sein) usw.
Stimmt, darauf läuft es hinaus.stefan92x schrieb:So wie das klingt, sind AT3 und AT4 ja gar nicht als eigenständige GPU gedacht, sondern nur als Chiplet für APUs.
Wenn Nvidia und AMD sich noch fein absprechen, können sie die Preise der Mittelklasse Karten dann noch schön oben halten. Dann wirds RTX 6070ti nur für 1200€ geben, und RTX 6060ti und RX10060XT (40 CU) für 700€. Win Win für Nvidia und AMD. Lose für den Preisleistungs Gamer.Chismon schrieb:Ohne AT 1 Karten würde es bei UDNA1(/RDNA5) maximal auf eine Abdeckung wie bei RDNA1 hinauslaufen, eher weniger, denn mit 40 CUs der AT 2 Karten bekommt man nicht einmal untere Oberklasse mehr hin wie eine RX 9070XT aktuell (und eine RX 5700XT damals zum Marktstart).
MLID und Kepler erzählen zwar dass AT3 und AT4 auch als dGPU kommen sollen. aber wie weit könnten sie sich tatsächlich von den APUS absetzen. Beim gleichen Speicherinterface nur mit mehr Power.stefan92x schrieb:So wie das klingt, sind AT3 und AT4 ja gar nicht als eigenständige GPU gedacht, sondern nur als Chiplet für APUs.
Warum sollte sich AMD mit 10% Marktanteil zufrieden gebenNighteye schrieb:Wenn Nvidia und AMD sich noch fein absprechen, können sie die Preise der Mittelklasse Karten dann noch schön oben halten.
Warum erzähltst Du sie dann?Nighteye schrieb:Aber das ist nur eine Verschwörungstherorie, an die ich auch nicht glauben will.
AMD kann Nvidia keinen Preisdruck machen. Und hat dies auch gar nicht vor. AMD will GPUs verkaufen und das geht nur wenn AMD Nvidia unterbietet.Nighteye schrieb:Ich hoffe AMD wird die RX10060XT (40 CU,s) Aggressiv für 400€ vermarkten, um Nvidia Preisdruck zu machen.
Es spielt keine Rolle wer alles GPUs anbietet. Die Masse der Gamer kauft nur bei Nvidia.Nighteye schrieb:Auch weil Intels neue Arc wohl auch in der Leistungsklasse mitspielen wird.
So ergibt auch das 512bit Interface für 96 CUs einen richtigen Sinn. So "muss" es sein.ETI1120 schrieb:Mit diesem Faltor 2 ergeben AT3 und AT4 einen Sinn und entsprechen dem was MLID am letzten Donnerstag verzapft hat. Allerdings mutiert damit AT0 bei Kepler zu einem Monster. So wie bei MLID.
Ich habe das alles auch gesucht.ETI1120 schrieb:Allerding habe ich keinen Link auf diese Quelle mitbekomme
Das stimmt. Es ist alt aktuell noch ungenau alles.ETI1120 schrieb:Mit diesem Faltor 2 ergeben AT3 und AT4 einen Sinn und entsprechen dem was MLID am letzten Donnerstag verzapft hat. Allerdings mutiert damit AT0 bei Kepler zu einem Monster. So wie bei MLID.
Die Softwareseite muss langfristig genauso glänzen wie die HW Seite.ETI1120 schrieb:Keine Frage das Interface ergibt Sinn. Aber ergibt eine so Fette GPU für AMD Sinn? Wie will AMD so was verkaufen?
Sicher, aber vielleicht gibt es für bessere Latenzen ja auch ein HBM Modell für die Instinct Serie.ETI1120 schrieb:Als Server GPU ergibt GDDR7 keinen Sinn.
Aber als eigenständige Chiplets und nicht solche die Stackbar sind. Sonst müsste es ja gar keine größeren Dies mehr geben.stefan92x schrieb:So wie das klingt, sind AT3 und AT4 ja gar nicht als eigenständige GPU gedacht, sondern nur als Chiplet für APUs.
Es kommt an der Stelle darauf an, was AMD genau macht. Werden die WGP zu CU umbenannt oder die WGP zu CU umgebaut, die Eckdaten bleiben aber die gleichen, ist das vom Treiber her nicht so „problematisch“ für AMD.Quidproquo77 schrieb:Die Treiberarbeit dürfte aber ein echter Drahtseilakt und Überstundenvertrag fürs Treiberteam werden und der Stromverbrauch evtl. explodieren. 600W fürs Topmodell incoming.