News AMD Radeon RX 6500 XT & 6400: Navi 24 soll die erste GPU in TSMCs N6-Prozess werden

ArrakisSand schrieb:
Defacto hat man mit der 3070 bei 1440p ein ähnliches Problem wie mit der 6500X bei 1080p nur das man es bei der 3070 nicht so an die große Glocke hängt.
Bei neueren AAA Spielen muss man sich einfach bewusst sein, egal ob es sich jetzt um eine 3070 oder eine RX6500 XT handelt, das es sich bei den niedrigsten Texture settings um das höchste der Gefühle handelt.
Was für eine rote Schönrechnung.
Vielleicht sollte Dir auch bewußt sein, daß eine RTX 3070 in 1440p mehr FPS macht als der Tretroller in 720p.
Niedrigste Texturstufe...in 1440p...mit einer RTX 3070? Völliger Humbug.

Seit erscheinen der RTX 3070 wird sie wegen der 8GB von den roten Forensoldaten durch die Foren gejagt....ich möchte nicht wissen was bei Dir dann an die große Glocke hängen bedeutet.

Es ist kein Problem den VRam Krüppel von Anfang an zu haten...die selben Hater haben aber kein Problem damit eine RX 6600 XT zu empfehlen. Die ausser, daß sie ebenso ein VRam Krüppel, auch noch ein Performance Krüppel im Vergleich zu eine RTX 3070 ist. Für 639€, die ich für die RTX 3070 bezahlt habe, kannst Du welche AMD Karte kaufen? Und kommt nicht mit dem AMD Drop....da kann man natürlich sofort kaufen.
 
DaHell63 schrieb:
Für 639€, die ich für die RTX 3070 bezahlt habe, kannst Du welche AMD Karte kaufen? Und kommt nicht mit dem AMD Drop....da kann man natürlich sofort kaufen.

Da du von jetzt sprichst, musst du auch den jetzigen Preis deiner 3070 nehmen , und wie hoch ist dieser jetzt? Sonst musst du fragen welche AMD Karte konnte man für 639€ kaufen.

Und da ist rx6800/6700xt definitiv drin.

In Bezug auf den AMD drop, wo kannst du jetzt sofort ein 3070 für 632€ kaufen. Nirgends, beim drop besteht wenigstens noch eine Chance.
 
Beteigeuze. schrieb:
ich finde die 4GBRam tragen genauso gut dazu bei dass die karte nicht unbedingt für höhere Auflösungen gedacht ist.
Die Wahrscheinlichkeit dass bei (älteren) Games es zu Einbrüchen kommt aufgrund des Speicherinterface aber gleichzeitig nicht aufgrund des geringen Vrams halte ich für sehr gering.
Klar. Hätte natürlich auch dazu noch 8GB haben müssen (gerade in Anbetracht von RX 570 & Co.)
 
Northstar2710 schrieb:
Da du von jetzt sprichst, musst du auch den jetzigen Preis deiner 3070 nehmen , und wie hoch ist dieser jetzt? Sonst musst du fragen welche AMD Karte konnte man für 639€ kaufen.

Und da ist rx6800/6700xt definitiv drin.

In Bezug auf den AMD drop, wo kannst du jetzt sofort ein 3070 für 632€ kaufen. Nirgends, beim drop besteht wenigstens noch eine Chance.
Must ne PS5 / Xbox X kaufen da hast die Leistung einer 6600xt für 500€ all in.
 
ArrakisSand schrieb:
Also so 25 - 30% schneller als deine 1060 dürfte sie schon werden und dann hängt es auch noch davon ab ob es sich dabei um eine 3 oder 6 GB Variante handelt.

Aber mir persönlich wäre das zu wenig um den Preis dafür rechtfertigen zu können, da würde ich in deinem Fall doch lieber gleich auf die RX 6600 aufrüsten wollen.
Die hat dann auch gleich ca. die Doppelte Leistung wie deine 1060 bei einem ähnlichen Verbrauch inkl. 8GB und um die 500€ - 550€ (Straßenpreis)
ehrlich gesagt habe ich nicht wirklich vor rin Sidegrade zu machen und auch noch Geld drauf zu zahlen. Ich besitze meine GPUs meist etwas länger weil ich erst dann aufrüste wenn ich mindestens 4x do viel Leistung für sinnvolles Geld bekomme. Ich schau einfach mal, was in ein paar Jahren -wenn die Chipkrise vorbei ist - für 250-300 Euro verfügbar ist. Eventuell eine RTX 5060 oder das AMD Äquivalent 8600
ArrakisSand schrieb:
Sollte eigentlich möglich sein (zumindest die 6GB Variante) für um die 300€ zu verticken, dann könnte man wenn man noch 200-250€ oben drauf legt noch relativ günstig upgraden.
Das klingt gut, glaub ich sofort... ich kriegs aber nicht übers Herz die Karte, die ich vor über 5 Jahren gekauft und letztes Jahr notdürftig repariert habe, teurer zu verkaufen als ich sie neu gekauft habe
 
Aber für Besitzer einer
BAR86 schrieb:
ehrlich gesagt habe ich nicht wirklich vor rin Sidegrade zu machen und auch noch Geld drauf zu zahlen. Ich besitze meine GPUs meist etwas länger weil ich erst dann aufrüste wenn ich mindestens 4x do viel Leistung für sinnvolles Geld bekomme. Ich schau einfach mal, was in ein paar Jahren -wenn die Chipkrise vorbei ist - für 250-300 Euro verfügbar ist. Eventuell eine RTX 5060 oder das AMD Äquivalent 8600
Das ist lustig weil ich dies normalerweise auch so handhabe bzw. gerade so gemacht habe.
Denn ich habe gerade meine RX560 durch eine RX6600 ersetzt die in etwa 4 x so schnell ist.
Wenn ich allerdings bereits eine 1060 gehabt hätte, wäre mir die Leistungssteigerung wohl auch zu gering gewesen.

Aber die RX560 pfiff bereits dermaßen aus allen Löchern das sie dringend notfallmäßig ersätzt werden musste.
Obwohl ich mit der alten Gurke zuletzt sogar noch recht anspruchsvolle Spiele gespielt hatte: wie z.B.: Mafia Definitive edition (720p, medium settings) und Assassin creed origin (900p, high settings)

Aber für + 30% all zwei Jahre 1000€ auf den Tisch zu legen würde mir im Traum nicht einfallen selbst wenn ich 100 Mal mehr Geld besitzen würde.
 
  • Gefällt mir
Reaktionen: BAR86
ghecko schrieb:
Pfff, damit spiele ich noch Crysis und Warhead in WQHD.
Es ist schon erstaunlich was man mit einer so alten Gurke die in etwa nur halb so schnell wie eine RX570 sein dürfte noch so spielen kann.

z.B.: Ryse son of rome geht bei mir auch mit WQHD (40 FPS) medium bis high settings unter Linux da kannst du unter Windows gut und gerne nochmals 10% obendrauf legen.

Witcher 3 konnte ich damit auch ohne Probleme mit 900p (medium-high) unter Linux spielen.

Aber bei Spielen wie Guardians of the Galaxy, Mafia DE, Mafia 3 ist sie mittlerweile nur noch unter 720p zu gebrauchen und mit Cyberpunk 2077 ist sie komplett überfordert.
 
Nighteye schrieb:
Sorry aber da musste ich herzlich lachen.
Meine fast 6 Jahre alte RX470 mit 4GB und 256bit Speicherinterface die ich Sommer 2016 für 199€ neu gekauft habe, packt bei 56W Stromverbrauch fast durchgehende 144fps in World of Tanks bei 2560×1440.

Anhang anzeigen 1164217
…..
Dein Screenshot zeigt leider überhaupt nicht was du beweisen willst. Deine 56W Leistungsaufnahme liegen laut deinem Screenshot nämlich im Hauptmenü an. Das hat a) mit der Ingame Leistungsaufnahme nichts zu tun und b) ist das Wot Hauptmenü auf 60FPS gedeckelt.
Ich hatte auch mal eine RX 470 und die wird auch bei Wot locker in Ihr TDP Limit laufen.
 
Der sogenannte gute alte Pipecleaner... was die HD 5770 damals auch mit ihrem neuen 40 nm Prozess... ^^
 
PS828 schrieb:
@Nighteye das wird gemacht um Kosten zu senken.
Eher geht es um Effizienz Steigerung (Mit Si kann man nicht nur Fläche einsparen sondern auch Verbrauch und Wärme). AMD braucht endlich einen Nachfolger für die RX 460/RX560 in Notebooks. Ein Chip, für den OEM-Partner mal wieder ein Kontingent aufbauen und in mehren Notebooks verbauen könnten.
Mein vorheriger Kommentar wurde ja aufgrund Erwähnung von Mining verschoben, als ob das niemanden mehr betreffen würde... Aber die "nur" 4GB und das 64 Bit Si in Kombi mit einem Infinity Cache und 6nm könnte vllt die Preise unten halten, falls GPU in großen Massen produziert und fürs Minen uninteressant ist.
Und Kunden wären mit Sicherheit nicht nur Einsteiger, die so eine Karte zu UVP Preisen kaufen würden.
Jeder der aktuell eine neue Karte benötigt, würde ein potentieller Kunde sein.
Ich erwarte mir eine Performance nahe der 1660 (Super).
(5500xt ist 10% langsamer als die 1660 und die 6600 ungefähr bei der 2060).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strahltriebwerk und PS828
Nighteye schrieb:
Ich kann dir leider auch keine Quelle liefern auf die Schnelle. Aber meine 6900XT zeigt als Leistungsaufnahme im Treiber auch nur 255W Maximum an un das ist eben die Leistungsaufnahme des Chips denn die Ganze Karte selbst liegt bei 300W TDP.

Ich kann dir nur empfehlen mal HardwareInfo anzuschauen, da hast du wesentlich mehr Parameter protokolliert, auch den Verbrauch der gesamten Karte glaube ich.
 
Zuletzt bearbeitet:
So eine runtergetaktete RX6400 für Notebooks mit z.B. 35W wäre wohl wenn mich nicht alles täuscht, durchaus konkurrenzfähig.

Die Desktop Variante der RX 6400 soll ja eine TBP von nur 53W haben und wohl laut Gerüchten um die 2.5GHz takten.

Wobei ob es sich bei den 53 W wirklich um die TBP oder doch nur um die TDP handelt ist auch noch nicht wirklich klar.

Aber die Desktop-Variante sollte eigentlich schon in etwa die Leistung einer RX570 bis RX580 bringen können.

Eine Notebook Variante davon sagen wir mal bei 35W entsprechend noch einige Prozent weniger (vielleicht z.B. in etwa 20%)

Meine Frage welche Karte würde den zur Zeit bei der Effizienz ein vergleichbares oder gar besseres Ergebnis bei ca. 35W liefern?
 
Ich Frage mich warum sie die N6 Kapazitäten nicht in große 6000er Karten stecken. Von mir aus eine 6900XT, gerne höherer UVP aber alles was geht. Die Prozesse sind untereinander kompatibel.
Ich würde ja nix sagen wenn sie auf vollen Lagern sitzen würden und keiner was kaufen würde. Aber so...
 
@Maxxx800 der N6 ist weniger komplex und für niedrigere Leistungsklassen angepasst. (Weniger Masken usw)

So stand das zumindest mal in einer News dazu
 
  • Gefällt mir
Reaktionen: Maxxx800
PS828 schrieb:
@Maxxx800 der N6 ist weniger komplex und für niedrigere Leistungsklassen angepasst. (Weniger Masken usw)

So stand das zumindest mal in einer News dazu
OK, ich hatte vor kurzem gelesen das es quasi der selbe Prozess ist, bzw. sogar etwas besser sein soll.
Wenn dem so ist dann OK.

Edit.
Liest sich zumindestens nicht so wie du schreibst.
""Meanwhile, TSMC's 6nm FinFET (N6) technology successfully completed product yield verification in 2019. Thanks to the reduction in mask layer and the process complexity achieved through EUV lithography technology, N6 technology could achieve better yield and shorter production cycles compared to N7 technology in the manufacture of the same products. In addition, N6 manufacturing process delivers 18% higher logic density over the N7 process. At the same time, its design rules are fully compatible with TSMC's proven N7 technology, allowing its comprehensive design ecosystem to be reused.""
 
Ich finde das so wie es ist Super. Der mini Chip wird richtig gut mit lächerlich hohen yields herstellbar sein und durch den anderen node ist massig Kapazität da

Bleibt nur abzuwarten ob es reicht die armen leutchen zumindest temporär zu versorgen deren urualt GPU aktuell drauf gegangen ist^^

Außerdem werden das super Massenprodukte die für FHD high/Medium absolut ausreichend sind
 
Nighteye schrieb:
Das ist eigentlich schon seit Jahren Allgemeinwissen bei AMD GPUs, dass der angezeigte Verbrauch nicht für die komplette Karte gilt, da AMD im Gegensatz zu Nvidia einfach keine entsprechenden Sensoren auf dem PCB verbaut.

Was dir angezeigt wird, ist die TGP(Total Graphics Power), was die Karte verbraucht und von AMD meist auch zusätzlich angegeben wird, ist die TBP(Total Board Power).

Ein Teil an relativer Abweichung kommt z.B. durch VRM Verluste oben drauf, ein Teil an absoluter Abweichung kommt durch andere Komponenten auf dem PCB sowie Lüfter drauf, die unabhängig von der anliegenden Last(alles außer Idle) immer ziemlich gleich viel ziehen.

Unter Vollast habe ich bei meiner Karte ca 17-18% zwischen dem was der Treiber sagt(255W) und dem was die Karte zieht(300W).

Diese Abweichung wird natürlich prozentual etwas größer, je weniger die Karte verbraucht.

Wenn ich nur 100W ziehe, bleibt es nicht bei der 45W Differenz von oben(145W), weil Dinge wie VRM Verluste in absoluten Zahlen auch geringer werden, aber genausowenig wird es bei 17% bleiben(117W), da die fixen Verbraucher gleich bleiben.

Ich hab mit meiner 6800XT die Rechnung ASIC Power(das was der Treiber sagt) * 1,11 + 15W genommen, wobei ich 15W als grobe Schätzung für die fixen Zusatzverbraucher genommen habe und dann den Rest zwischen den dann 285W und den 255W die der Treiber zeigt, als relativen Anteil genommen und damit komme ich ganz gut hin.

Zeigt der Treiber für meine 6800XT also 100W, dann sind 100 * 1,11 + 15 = 126W das, was die Karte als Ganzes zieht.
Zeigt er 255W, sind es 255W * 1,11 + 15W = 298W.

Und mit dem OC-BIOS meiner Karte darf sie laut Treiber bis auf 281W hoch, da kämen mit der Rechnung dann 327W raus. CB hat die Karte im Test unter Vollast auch mit exakt 327W gemessen.

https://www.computerbase.de/2020-11...saufnahme-der-grafikkarte-spiele-durchschnitt

Ohne präzise Messgeräte und Testreihen ist es schwer zu sagen, wie viel von den Differenzen wirklich fixe und wie viel relative Verbraucher sind. Dafür müsste man die GPU mit PCAT mal unter verschiedensten FPS limits und damit unterschiedlichen Verbräuchen Testen und die Unterschiede zwischen ASIC Power und dem, was PCAT anzeigt, betrachten.

Man kann es aber ja auch mal z.B. mit der 6600XT machen, die hat eine TGP von 130W, also das was der Treiber maximal anzeigen wird und eine TBP von 160W, also das was die Karte maximal ziehen wird.
Würde man hier einfach die 17,5% relative Differenz nehmen, die ich mit meiner 6800XT unter Vollast habe, dann käme man hier nur auf 152W, würde man die 45W absolute Differenz nehmen, käme man auf 175W.

Meine Rechnung mit 130W * 1,11 + 15W = 159,5W kommt da nahezu perfekt hin.

https://www.computerbase.de/2021-08...saufnahme-der-grafikkarte-spiele-durchschnitt

Im Test zieht die Referenzkarte zwar nur 147W, aber sie scheint hier durch den Takt etwas limitiert zu sein und erreicht nicht das Power Limit(demzufolge wird sie im Treiber auch nicht die vollen 130W gezeigt haben). Die mitgetestete MSI Gaming X mit angegebenen 135W TGP tut dies und kommt auf 167W in Doom und 163W über alle drei Spiele. Erneute Gegenrechnung: 135W * 1,11 + 15W = 164,5W.


Ich könnte auch die Anteile an fixen Verbrauchern verändern, bei 10W fix blieben ~13% relativ, bei 20W fix blieben ~10% relativ.
Wenn ich dafür jedes mal meine Karte als Basis nehme, kommt natürlich am Ende immer das gleiche raus.
Aber für die 6600XT käme ich dann mit dieser Basis bei z.B. 10W fix auf 130W * 1,13 + 10W = 157W, also etwas niedriger. Bei 20W fix käme ich auf 130 * 1,1 + 20W = 163, also etwas höher.

Ich denke also mit den 15W fix und 11% relativ bin ich, zumindest was RDNA angeht, ganz gut dabei.
 
Zuletzt bearbeitet:
Linmoum schrieb:
Niedrigere UVP heißt immer noch gleichbleibender Marktpreis, aber die Händler kriegen mehr vom Kuchen ab und AMD/NV weniger. Höhere UVP
Dass stimmt darf nix sagen aber der Kuchen ist gewaltig dass ist aber nicht von mir sogar beware wird für uber den Marktpreise Verkauf. 😉
 
Zurück
Oben