News AMD Radeon RX 6500 XT & 6400: Navi 24 soll die erste GPU in TSMCs N6-Prozess werden

Taxxor schrieb:
Das ist eigentlich schon seit Jahren Allgemeinwissen bei AMD GPUs, dass der angezeigte Verbrauch nicht für die komplette Karte gilt, da AMD im Gegensatz zu Nvidia einfach keine entsprechenden Sensoren auf dem PCB verbaut.

Was dir angezeigt wird, ist die TGP(Total Graphics Power), was die Karte verbraucht und von AMD meist auch zusätzlich angegeben wird, ist die TBP(Total Board Power).
Erstens das bei AMD nur die TGP angegeben ist, ist mir klar, aber das bei NVIDIA anscheinend zusätzliche Sensoren verbaut sein sollen ist mir neu.

Mit anderen Worten kann man sich auf den angezeigten Verbrauch wie z.B. im folgenden Beispiel nicht wirklich verlassen und muss bei AMD noch etliche Watt hinzuaddieren damit es vergleichbar ist.

6600 vs 3060.png
 
  • Gefällt mir
Reaktionen: Onkel Föhn
@ArrakisSand Ja, bei Nvidia ist das, was dir die Software ausspuckt, auch der tatsächliche Verbrauch der Karte, bei AMD nicht und das ist auch schon ewig so.

Wir haben für CX auch schon versucht, aus den Nvidia Sensoren an einen vergleichbaren TGP Wert zu kommen, damit man wenigstens für Nvidia noch einen zweiten Verbrauchswert hat, den man mit dem AMD Verbrauch vergleichen kann(bisher nicht sehr erfolgreich leider...), denn an die TBP von AMD kommt man schlicht nicht ran.

Wenn du z.B. ne 3080 hast, werden dir von der Software hier unter Vollast auch entsprechend die 320W ausgegeben, die sie verbraucht. Für ne 6900XT aber eben nur 255W obwohl sie 300W verbraucht.

Im Bild zieht die 3060 tatsächlich 203W, die 6600 zieht, wenn ich meine Rechnung nutze, hier ca 175W.

Sieht man leider sehr häufig, dass die Verbräuche nur anhand solcher Sensorwerte verglichen werden, obwohl sie überhaupt nicht vergleichbar sind.
Deshalb benutzen ordentliche Reviewer ja auch PCAT, womit man das ganze in Hardware messen kann.
Für einen schnellen Youtube Vergleich ist es natürlich leichter, einfach das Overlay zu zeigen, nur sollte man dann auch auf diesen Umstand hinweisen.
 
Zuletzt bearbeitet:
@ArrakisSand ich glaube C Power ist Chip Power. Da müsste es bei beiden karten passen
 
PS828 schrieb:
@ArrakisSand ich glaube C Power ist Chip Power. Da müsste es bei beiden karten passen
C Power ist die CPU Power, auch gut daran zu erkennen, dass CPU und GPU Werte jeweils gleich eingefärbt sind ^^
 
  • Gefällt mir
Reaktionen: PS828
nvidia mit ihrer Kontrollitis überwacht den gesamten Stromfluß der Karte, deshalb können die einen entsprechenden Wert ausgeben. Die Schlupflöcher über PCIe sind jetzt auch geschlossen und überwacht.
 
@ArrakisSand AMD glaubt, warum auch immer, nicht an Power Messungen über Shunt-Widerstände > Powermessungen finden nur über die Chokes (Spulen) der Spannungsversorgung selbst statt.

=> Nur GPU und VRAM werden gemessen.

Nvidia überwacht jeden Stromanschluss, teils mehrfach. Viele Nvidia haben 7-9 Messstellen, obwohl es nur 4-5 Spannungsanschlüsse gibt (PCIe Slot 3,3V, 12V, und die 6/8 Pin Zusatzstecker)
 
AAS schrieb:
RX570 mit 8GB = 224.0 GB/s
RX 6400 mit 4GB = 112 GB/s

Halber Speicher, halbe Bandbreite, finde es jetzt nicht so daneben für eine OEM Karte
Denke ich auch, immerhin mehr als doppelt soviel Bandbreite, wie bei meiner Ryzen APU


Unnu schrieb:
ich ihm eine APU hinstellen
Laptop? Kommt wahrscheinlich am günstigsten
 
Nvidia überwacht den Stromverbrauch sehr restriktiv damit auch niemand mehr als die freigegebenen Werte verbrauchten kann. Jedes Kartendesign muß einzeln von nvidia freigegeben werden, inklusive der Stromlimits, und kein Hersteller darf da dran drehen.
 
Da kann man sich auch nen Ryzen 5700G kaufen und die integrierte Grafik nutzen ...
 
  • Gefällt mir
Reaktionen: Maxxx800
konkretor schrieb:
Das wird die Karte für 350€ werden.
Willkommen in 2022
Angebot und Nachfrage, ist der Kunde dumm, bleibt der Preis hoch. Traurig ist aber leider eine Tatsache.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich muss mal euren leistungs unterschiede zwischen gpu mal aufräumen
eine gtx1060 ist weit schneller als man denkt die knapp 4,9tf mit etwa 192gb/s ist etwa gleich schnell wie rx5500 mit 4,7tf und 224gb/s
Der unterschied sind die latenzen beim vram also gddr6 vs gddr5
Diese sind nicht bekannt aber essentiell wichtig bei der berechnung
Während bei gddr5 vermutlich ddr3 zugrunde liegt nehme ich an das die latenzen zwischen cl9 bis cl12 liegen und bei gddr6 zwischen cl18-cl22 (ddr4 latenzen)
Die gtx1060 hat 8gbits chips und ist quasi am limit von gddr5 meine hatte 8,5gbits
Gddr6 der rx 5500 hatte 14gbits.
Folglich sind das dann schlechteste fall gddr5 cl12/8500*10000*2=2,8ns
gddr6 22/14000*1000*2=3,14ns
Das ergibt dann folgende Rechnung
100fps angenommen durch 4,86tf (einer gtx1060 bei 1,9ghz 1280 shader)/192gb/s /3,14ns*4,7tf (rx5500 1,7ghz 1408 shader)*224gb/s *2,8ns=100,6fps
Die werte der latenz gegengekehrt weil man die ns teilen muss

Daher muss man die rx6500xt mit vermutlich gddr6 16gbits sehen
22/16000*1000*2=2,75ns vs 3,14ns
100/4,7/224/2,75*5,3*128*3,14=73fps
Da dies nicht sein kann muss die rx6500xt min gddr6 20gbits haben dann käme man auf 91fps
Bliebe noch der höhere takt vermutlich 2,8ghz (5,7tf) dann käme man etwa auf 98Fps
ich glaube nicht dran das amd schon 24gbits bekommen hat die 21gbits von micron gddr6x ist exklusiv bei nvidia
samsung bietet 16gbts 20gbit in produktion 24gbits in planung daher kann es gut sein das amd den n24 auf 2,85-3,0ghz prügeln will.
Was die 6nm fertigung durchaus kann.


Wie schnell wäre das im vergleich zu n23 rx6600xt
Am ende wurde es mir klar 51fps Bezugspunkt rx6600xt auf 100fps

bandbreite limitiert daher der text

Das hängt vom verbauten vram ab 16gbits würde gnadenlos im bandbreiten limit hängen (27fps) 20gbits würde heftigs limitieren (41fps)
24gbit wäre mimimum
Wird es wohl 24gbit sein (192gb/s 1,8ns) ~60fps
Das Problem ist der Bezugspunkt daher können wir von min 40% einer rx6600xt ausgehen bis zu 53% einer rx6600xt
Das wäre aber langsamer als der vorgänger rx5500 daher muss gddr6 24gbit sein (192gb/s) dann kämen 60% einer rx6600xt hin

Ich weiß das samsung gddr6 16gbits und 20gbits in Fertigung hat
Sk hynix gddr6+ mit 24gbits hat aber ob in Fertigung nicht bekannt
Und micron mit gddr6x 21gbits die aber nvidia exklusiv sind


Und es stellt sich die frage ob den die bandbreite limitiert, den das ist primär spiel und Auflösung bezogen.
je höher diese sind desto enger wird es mit der Bandbreite
Grobe Richtwerte kann man kaum festlegen da diese immer vom Design der Spiele abhängt
Also müssten die Konsolen hier Maßstab sein
Die werte sind bekannt
Min wäre hier die ps4 mit 1,8tf 176gb/s und 1,3tf und xbone 68gb/s ddr3 mit dem speziellen cache auf der gpu (Werte vergessen)
Da aber mittlerweile die ps4 pro und xbonex quasi standard sind

ps4 pro 4,1tf und 217gb/s
xbonex 6tf und 326gb/s
Zielauflösungen sind dann 1080p und 1440p

Die ps5 und xsx Sind quasi doppelt so schnell werden auf absehbarer zeit nicht den standard darstellen
Darum gehe ich von einen lebenszyklus von min bis 2026 aus (ohne refresh)

Und quasi standard bei gamedesign ab 2024
Was dann die maße für 1080p und 1440p auf ps5 10,3tf 448gb/s und xsx 12,1tf und 560gb/s anhebt
Somit wären in 1080p folgende gpu 2024 am limit rtx3060 rtx3060ti rx6600 und rx6600xt
Mit dann 60fps 1080p

Was genau derzeit mit den spieln von 2021 hinkommt.
Wo die 4,9tf einer gtx1060 (1,9ghz) und der rx580 (1,4gnz) realen 4,8tf (gcn4 effetkiv 0,75 fp32)
bsp fc6
gtx1060 48fps rx580 53fps vs rtx3060 9,6tf 91fps rx6600xt 10,7tf 100fps
Andere spiele von 2021 agieren gleich obwohl dieses Jahr kaum grafikintensive spiele auf dem markt gekommen sind.
Wird die rtx3060 2024 bei nur noch 60fps liegen auf 1080p
Die rx6500xt ist derweil nur bis maxed 30fps drin (mit gddr6 20gbits)

2021 gpu intesive spiele

hitman 3 (Glacier engine)
re village (re engine)
F1 2022 (ego engine)
farcry 6 (dunia 3 engine)
battlefield 2242 (frostbyte)

Der Rest bewegt sich zwischen 75 und 150fps bei etwa 5tf und etwa 200gb/s

DXR muss man gesondert betrachten da derzeit dies ein addon ist und damit zwischen 15-75% fps Einbrüche gibt. Schön zu sehen bei the ascent (ue4) rtx3060 ohne dxr 150fps mit 48fps oder sehr subtil bei farcry 6 (cpu limitiert) ohne dxr 91fps mit 64fps

2022 erwarte ich deutlich mehr Grafiklastige Spiele da hier die ersten ue5 spiele kommen werden (bsp stalker 2)

Daher wird die rx6500xt so gerade etwas schneller sein als die rx5500xt bis gleich schnell
Und das für 249-279€ Die rx5500xt kam 2019 für 209€ und wurde zerrissen.

Was mir grad auffällt ist ich hab den inf cache vergessen.
Das egalisiert natürlich die 16gbits limitierung 128gb+64bit*2,85ghz*0,48 hitrate=215gb/s
Wo is die wand
 
Northstar2710 schrieb:
Nachwuchs betrifft auch im PC Bereich. Eigentlich war es auch noch nie so billig , legal an spiele zukommen.
Naja Spiele ja HW nein ist fast so hoch wie in der ersten Dekade, dort konnten die Konsolen sich deswegen durchsetzen und wenn sie besser verfügbar wären, würde der Gaming PC recht schnell wieder gehen und sein nischen dasein fristen. 😉
 
  • Gefällt mir
Reaktionen: Col. Jessep
ArrakisSand schrieb:
Es ist schon erstaunlich was man mit einer so alten Gurke die in etwa nur halb so schnell wie eine RX570 sein dürfte noch so spielen kann.

z.B.: Ryse son of rome geht bei mir auch mit WQHD (40 FPS) medium bis high settings unter Linux da kannst du unter Windows gut und gerne nochmals 10% obendrauf legen.

Witcher 3 konnte ich damit auch ohne Probleme mit 900p (medium-high) unter Linux spielen.

Aber bei Spielen wie Guardians of the Galaxy, Mafia DE, Mafia 3 ist sie mittlerweile nur noch unter 720p zu gebrauchen und mit Cyberpunk 2077 ist sie komplett überfordert.
es geht um die hohe Kunst des "Reglerbedienens". Wer diese Zauberkraft beherrscht kann vieles auch mit etwas weniger Leistung erreichen. Für alle anderen muss es halt immer das Neueste sein
 
DaBas schrieb:
4 GB VRAM und 64bit Speicherinterface im Jahr 2022.....
Das AMD sich damit nicht in Grund und Boden schämt.

Welche Kunden sollen mit diesen Krüppeln in Bezug auf VRAM und Speicherinterface angesprochen werden ?

Also ich faende das durchaus ok, wenn auch der Preis dazu passen wuerde. 2008 konnte ich die Radeon 4670 mit 146mm^2 die und 128-bit Speicherinterface um EUR 60 kaufen, da sollte eine Karte mit ca 100mm^2 und 64-bit Speicherinterface weniger kosten (naja, vielleicht gleich viel, mit Inflation).

Für Bürorechner reicht ne APU völlig aus und für ernsthaftes Gaming dürfte Navi 24 kaum zu gebrauchen sein ob der Einschränkungen.

Die 6500XT hat 32CUs 16CUs im Vergleich zu 8 einer APU, und hat 128GB/s RAM-Bandbreite plus Infinity Cache im Vergleich zu 51MB/s (bei DDR4-3200) ohne Infinity Cache bei der APU. Da ist schon deutlich Mehrleistung da, und da wird es das eine oder andere Spiel geben, das auf so einer Karte deutlich mehr kann als auf einer APU. Dass das fuer Dich keine ernsthaften Spiele sind, ist den Leuten, die sich daran erfreuen, wohl egal.
 
Zuletzt bearbeitet: (Falsche Zahl korrigiert.)
  • Gefällt mir
Reaktionen: Zwirbelkatz
Northstar2710 schrieb:
Und ja, ich spreche hier aus Erfahrung in Altersklassen bis 16. manchmal bin ich echt neidisch auf meine Jungs.
Ja gut, mich hat das damalige Elite auch weggeblasen (3D im All, sauschnell) ...
Jedoch auch bei meinem Sohnemann ist zumindest etwas Anspruch vorhanden.
Und ich zocke ja auch mit runtergeregelter Grafik, sonst hätte ich nur noch Diashows.

Aber so ein "klein wenig" muss schon kommen.
Und nein, Minecraft oder so anderes pixelisiertes Zeug zocke ich nicht.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Elemination! schrieb:
Entweder erstes Auto oder Grafikkarte.... Sohn, du hast die Wahl.
Er nimmt einen Tesla, da hat er dann beides 😁
 
  • Gefällt mir
Reaktionen: Onkel Föhn und ArrakisSand
Mit den18gbps Memory modulenund infinity Cach kommen wir dann auch auf 256bit Bandbreite
 
Zurück
Oben