Test Radeon RX 7800 XT & 7700 XT im Test: AMDs RDNA-3-Mittelklasse für 549 und 489 Euro im Benchmark

latiose88 schrieb:
Wow die ist aber günstig,im Vergleich zu der gtx 1650,weil die ist teuer.
wenn man bedenkt das eine 1650 auf dem Niveau einer 1060 liegt, ist eine gebrauchte 1070 oder 1080 doch schon eine alternative: https://www.computerbase.de/2020-04...rks_in_full_hd_1920__1080_und_wqhd_2560__1440
Ergänzung ()

ah ne eine 1650Super ist so schnell wie eine 1060, die non Super liegt nochmals nen ganzes Stück drunter
Ergänzung ()

und ja ist krass, eine 1650 non Super beginnt bei 150€: https://geizhals.de/?cat=gra16_512&xf=9810_05+15+-+GTX+1650
Ergänzung ()

dann lieber noch 50€ drauflegen und eine RX6600 holen: https://geizhals.de/?cat=gra16_512&xf=9816_02+04+12+-+RX+6600

die sogar knapp 20% schneller als eine 1080 ist: https://www.computerbase.de/2021-10...ew-test/2/#abschnitt_benchmarks_in_1920__1080
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coxon
Verak Drezzt schrieb:
nehmen sich beide nichts von der Leistung
Performancegewinn meinte ich im Vergleich zur 8GB Version, wenn auch nur bei ganz wenigen Fällen (bisher)
Ergänzung ()

Northstar2710 schrieb:
Bei PCGH liegt die 16gb Version im Index nur leicht vor der 8gb Version. Hier mit einer 7700xt https://www.pcgameshardware.de/Rade...aufen-Specs-Benchmarks-RTX-4060-Ti-1428327/2/

Gelb= FHD
Grün=wqhd

Anhang anzeigen 1405559

Ich kenne den PCGH-Index, danke.
Ich finde trotzdem, dass CB die Karte mittesten sollte
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt
DrFreaK666 schrieb:
Ich finde trotzdem, dass CB die Karte mittesten sollte
Sende ihnen doch eine zu. ;)

Ich meine mich richtig zu erinnern was CB bei Release geschrieben hat: dass nvidia bei der 4060 Ti mit 16GB keine Muster an die Presse versendet hat und das auch nicht gewünscht war. Wäre ich ein eigenfinanziertes und unabhängiges Portal wie CB, würde es mir im Traum nicht einfallen mein eigenes Geld für eine solche Totgeburt von Graka auszugeben. Für Tests und Benchmarks sind Muster nunmal da, und wer keins rausrückt, bekommt auch keinen Test - basta!

Siehe https://www.computerbase.de/2023-07...l-wird-es-keine-offiziellen-testmuster-geben/
 
  • Gefällt mir
Reaktionen: LamaMitHut
Oder es leiht einer so einer Seite eine GPU. Verlangt es nach dem Testen wieder zurück oder wer eine hat,kann selbst Ergebnisse hier hoch laden oder es Coumputerbase selbst zusenden.
Aber nur wer wirklich unbedingt Ergebnisse haben will.Aber wenn das keiner macht,dann ist das halt nichts dran zu ändern.Und so schlimm ist es ja nicht das mit mehr SPeicher nicht zu haben.Man merkt das eh nur in bestimmten extremen Sitationen oder an wenigen Stellen,wenn überhaupt.Ein überlaufen der GPU Speicher ist mir bisher noch nie passiert.Von daher ist es ne gute Frage ob das welche jemals wirklich merken werden oder nicht.
 
coxon schrieb:
Ich meine mich richtig zu erinnern was CB bei Release geschrieben hat: dass nvidia bei der 4060 Ti mit 16GB keine Muster an die Presse versendet hat und das auch nicht gewünscht war.

CB schreibt in dem Link aber auch
Zuletzt ging Nvidia bei der RTX 3080 12 GB so vor.
um später dann doch einen Test der 3080 12GB zu liefern.
Man kann sich ja weiterhin um einen Testmuster bemühen. Das ist preislich nunmal die NV-Konkurrenz zur 7700XT
 
Die RTX 4060Ti mit 16GB ist mit ~530€ imo viel zu teuer für das was sie bietet.
Eine 7800XT kostet nur nen Fuffie mehr, imo ein no-brainer zur 7800XT zu greifen.
 
So... Hab mir jetzt gebraucht die 6800 gegönnt für 320 Euro im Referenzdesign. Unnötig von einer 6750 XT, wobei bisschen mehr Leistung bei quasi gleicher (im FPS-Limit sogar weniger) Leistungsaufnahme nehme ich hier mit...
Und für die 6750 XT, ebenfalls im Referenzdesign, dürfte ich realistisch noch 300 Euro bekommen.

Das "Midnight Black" werde ich aber schon vermissen.
 
  • Gefällt mir
Reaktionen: coxon
Ein wirklich guter Preis wie ich finde @kachiri und gegen ein kleines Upgrade für 20,-€ hat noch nie etwas gesprochen.

Bei meiner 7800XT hat sich mittlerweile folgendes Bild ergeben:
1697381087214.png


Dezeit zocke ich den CP2077 Reboot.

Läuft stabil mit 2,5 bis 2,6 GHz, sehr selten unter 2,5 gesehen.
~240w GPU
~303w GPU Peak
~60w CPU
~340w an der Steckdose.

Senke ich die Max Frequency auf unter 2,4GHz, wandert die Karte in einen anderen P-State und verbraucht max. ~210w. Absenkung der VCore unter 1,06v bringt bei mir spontane CTDs. Bei RAM lassen sich mit Sicherheit noch 100MHz rausholen.
 
  • Gefällt mir
Reaktionen: jlnprssnr, Shadow86, thornhill und eine weitere Person
@Wolfgang

Die "IC-Bandbreite" gebt ihr mit 2,5 TB/s für die 7900XTX an.

Laut Folien von AMD sollen es aber 5,3 TB/s sein. Sind die Folien von AMD falsch, oder eure Angaben in der Tabelle?

https://www.servethehome.com/amd-rd...-and-rx-7900-xt-20gb-launch/amd-rdna-3-specs/

https://www.servethehome.com/amd-rd...h/amd-rdna-3-chiplet-design-memory-cache-die/
Oder sind die 5,3 TB/s so was wie "Bost"-Bandbreite und die 2,5 TB/s die "Base"-Bandbreite?

Schon RDNA2 hatte ja "Boost" und "Base"-Taktraten...

https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/64-1080.2f34e8fd.png
 
Convert schrieb:
@Wolfgang

Die "IC-Bandbreite" gebt ihr mit 2,5 TB/s für die 7900XTX an.

Laut Folien von AMD sollen es aber 5,3 TB/s sein. Sind die Folien von AMD falsch, oder eure Angaben in der Tabelle?
Es ist ganz komisch...AMD gibt je nach Quelle teils völlig verschiedene Werte an...so wirklich verstehen tue ich es auch nicht. Ich habe hier mehrere Dokumente, wo unsere Werte drin stehen. Und dann habe ich auch ältere Dokumente, wo völlig andere drin stehen.

AMD hat irgendwann offenbar mal ihre "Zählweise" geändert. Was sie da genau gemacht haben und warum, weiß ich aber auch nicht.
 
Hallo Computerbase Team,

seit Wochen ist die RX 7800 XT eine der beliebtesten Grafikarten auf dem Markt. Springt jetzt MSI noch auf den Zug auf oder schmollen die weiterhin ? Das wäre mal schön zu erfahren. Vieleicht könnt ihr mal über Eure Kanäle Infos bekommen. Weiterhin finde ich es total doof, dass es für die RX 7800 XT immer noch keinen Wasserkühler gibt. Ich hätte schon längst eine und könnte endlich meine RTX 3060 TI in Rente schicken. Da ich aber eine Custom WAKÜ habe, brauche ich erst mal einen Kühlkörper. Ich denke den einen oder anderen würde das auch interessieren.

Gruß

Jojo_One
 
Nach GE200 APU, RX570, RX580, RX5500 und RX6600XT bin ich vor ein paar Monaten zur RTX4070 gewechselt. Ich bin auf Arch und leider bringen AMD's open source Treiber nur in der Theorie was.
Nervig fand ich z. B. wenn man ein YouTube Video für ein paar Sekunden pausiert und wieder abspielt, dann ruckelt es, als ob es ein 10 FPS Video wäre.
  • Oder das fehlende HDMI 2.1 FRL, obwohl es auf AMD's Seite beworben wird.
  • Ein weiterer Grund für mich, die RTX 4070 zu holen, ist ihre deutlich höherer Energieeffizienz (6800XT 300W TDP vs 7800XT 260W TDP vs 4070 200W TDP)
  • Die RTX 4000 Serie ist nicht nur 22% effizienter als die 7800XT, sondern laut igorslab bis zu 2 mal effizienter, wenn es um sehr Raytracing-intensive Spiele geht (Cyberpunk 2077 "Ultra"). Bei "Overdrive" kann man RDNA3 ganz vergessen.
  • RX 7000 Serie hat/hatte das Problem mit dem nicht herunter taktendem VRAM und damit je nach GPU Modell bis zu über 100 Watt idle Stromverbrauch. Interessant wären die Werte mit einem OLED TV (bei meinem OLED TV verbraucht meine 4070 14-20 Watt laut sensors und NV Settigns sagt 0% GPU Utilization). NV's RTX 4000 Serie kann, je nach Monitor/TV, auch betroffen sein, das Risiko scheint aber geringer zu sein. Bei TechPowerUp im multi-monitor verbraucht AMD immer noch fast 2 mal so viel wie NV.
  • Schlechtes power-scaling bei den chiplets-basierten RX 7000 (also alles über einer RX 7600), siehe meinen Beitrag. Ich nutze das power-scaling selbst bei meiner RTX 4070 200W TDP Karte: -25% Power entspricht nur -5% Performance, die Karte bleibt kühler, belastet das Netzteil weniger, braucht 50 Watt weniger und hält möglicherweise länger.
  • Hardware Unboxed ("Nvidia's DLSS 2 vs. AMD's FSR 2 in 26 Games, Which Looks Better? - The Ultimate Analysis") bewerten NV's DLSS gegenüber AMD's FSR2 in fast allen tests deutlich überlegen.
  • Wie NV, hat AMD auch den Namen verändert. Es gibt zwar den Spruch Namen sind Schall und Rauch, aber trotzdem, denn das ist Kundenve***sche. Wenn AMD also jetzt gleich behandelt werden möchte, dann ok, aber bitte nicht wundern, dass es jetzt eine NV geworden ist. Laut Gamers Nexus' review ("AMD Radeon RX 7800 XT GPU Review & Benchmarks vs. RX 6800 XT, RTX 4070, & More"): "AMD thinks that this card is the true successor to the RX 6800. Not the 6800 XT. The 6800.".
  • Der Chip der 7800 XT ist nur mid-range. Wenn man die Chipgröße als kleinsten gemeinsamen Nenner nimmt, ist, wo vorher eine 6800 non-XT bzw. eine 6800 XT ein 520 mm^2 Chip hatten, jetzt die 7800 XT, die nur einen 346 mm^2 Chip hat. Erst ab der 7900 XT (wenn man nicht von der GRE redet, die den ineffizientesten 529 mm^2 Chip hat) bekommt man einen 529 mm^2 großen Chip. Das gabs bei dem Vorgänger ab RX 6800 non-XT.
Da AMD's Lösungen open source, wünsche ich AMD viel Erfolg und werde RDNA4 eine Chance geben.
 
Die Schwankung war immer nur um die 5 Watt, die GPU war immer auf 100%, ausgelesen mit GPU-Z. Ich hab mir ja den Graphen auf Unstimmigkeiten angeguckt und dann eben daraus ungefähr den Durchschnitt ermittelt.
 
Verstehe ich nicht. Es geht mir um den Peak Verbrauch über ein paar Millisekunden. Meine 7800XT kam auf 390 Watt wenn ich alles auf Standard gelassen, deswegen auch meine Neugier wie hoch die Peaks sind wenn sie so weit runtergetaktet ist.

Ich für meinen Teil senke das PT und OCe die Karte ... kann da nur Jeremy Clarkson zitieren:

1707140016150.png
 
Also diese gpu ist auf dem Level von einer Gtx 1660 so so. Die wiederum auf dem Level zwischen Gtx 1060 und Gtx 1070 oder täusche ich mich da. Nun ja so lange geht es aufwärts. Irgendwann gibt es dann weitere sparsame 75 Watt gpus die keine rauschenden von €kostet. Sondern für rund 200 € und weniger. Man muss halt eben nur geduld mit bringen.
 
🙄

Unbenannt.png



Gleicher Test, gleiche Einstellungen. Betreibe es wie gesagt gerade auf den 1900 MHz Settings. Ich habe einen Average von 177W angegeben und HWiNFO hat einen Peak von 182,667 W gemessen. Das Ergebnis waren sogar 66.130 Punkte in Solar Bay. Settings sind ja alle beschrieben.


latiose88 schrieb:
Also diese gpu ist auf dem Level von einer Gtx 1660 so so. Die wiederum auf dem Level zwischen Gtx 1060 und Gtx 1070 oder täusche ich mich da. Nun ja so lange geht es aufwärts. Irgendwann gibt es dann weitere sparsame 75 Watt gpus die keine rauschenden von €kostet. Sondern für rund 200 € und weniger. Man muss halt eben nur geduld mit bringen.
Dafür hab ich aber zig mal mehr Leistung. Also das ist ja gar nicht vergleichbar. Ich wollte die GPU halt einfach nur drosseln, weil mir die Stock 276W bzw. 250W mit -10% Power Limit einfach zu viel sind. Man kann die Karte ohne FPS-Verlust auch auf 220W drosseln. Und ich habe wirklich keine krassen Settings gewählt, das wird jeder mit seiner Karte hinkriegen. Auf weitere Tests hatte ich einfach keinen Bock, weil die Ergebnisse eh schon gut waren. Ob das jetzt bei einigen auch auf 1020mV geht ist mir Latte, wichtig ist eh das Zusammenspiel zwischen Spannung und Taktrate.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: anarchie99
220 Watt so so. Also das hat dann ne höhere Anforderung an das Netzteil. Und auch mehr Abwärme. Je mehr Strom eine gpu zieht, desto wärmer wird ne gpu. Noch dazu wenn man so wie ich echt sehr selten das Gehäuse von innen sauber macht. Hätte ich das mit ner wasserkühlung so gemacht wäre diese schon längst hin gewesen. Seid dem Tausch der gpu zu der wo ich nun habe machte ich den PC nicht mehr sauber. So weit ich weiß machte ich 2021 den PC von innen mal sauber. Irgendwie ist bei mir ne Spinne bei meinem Gehäuse rein gekommen obwohl da die ganze zeit zu war.
Da geht das dann schon wenn die gpu nicht zu warm wird.
Aber ich meine das halt ernst mit dem stromsparen auf gpu Seite. Nur eben nicht für jeden Preis. Habe also nur begrenztes Geld zur Verfügung und der Bedarf ich auch zum Glück dank full hd sehr gering.
 
Zurück
Oben