News AMD Radeon R9 390(X): 8 GB VRAM für 340 Euro werden heute 10 Jahre alt

Ach was war die Zeit schön, damals nach battlefield 4 mit genialer Grafik gespielt und man wollte mit DSR/VSR eine höhere Auflösung rendern und downscalen....
Jetzt gibt's Artefakte und mogel frames.
 
  • Gefällt mir
Reaktionen: SweetOhm und Phintor
ThePlayer schrieb:
Da stellt sich mir die Frage ob Nvidia und AMD in der nächsten Gen, ganz dreist, wieder Karten mit 8GB bringen???
Wieso denn dreist ? 8GB Vram haben eine KUNDENNACHFRAGE - kapiert das doch mal ! Kein einziger Esportsgamer der Games wie Fortnite, CoD, CS2, Valorant etc zockt braucht auf 1080p mehr als 8GB Vram und deshalb werden sich auch diese Karten wieder verkaufen wie geschnitten Brot ! Einen Esportler interessieren die Games die CB hier testet nicht - die zocken einfach kein Indiana Jones oder sonstige Singleplayer Schinken - das ist eine komplett andere Klientel.
 
  • Gefällt mir
Reaktionen: tuasani und NMA
Vitche schrieb:
Das ist nicht nur angeblich so, ich hab's für ja sogar mehrmals verlinkt. Siehe bspw. Dragon Age: The Veilguard, das hat Wolfgang mit WQHD + DLSS Performance und damit der Render-Auflösung 720p getestet. Und zwar in Setttings, mit denen die bei der GPU identische 16-GB-Variante der 5060 Ti auf super spielbare rund 60 FPS kommt. Ergebnis mit 8 GB: Unspielbar. Bei der 9060 XT siehts nicht wirklich anders aus. Und bei vielen anderen Spielen auch nicht.
die spielewelt besteht nicht nur aus dragon age und indiana jones. die grosse mehrheit daddelt esports oder spielt auf medium. wer heute möglichst günstig eine neue dgpu haben will, kommt an einer 5060/9060 mit 8 GB nicht vorbei. da kann einem der preis nicht gefallen, das ist nun mal so - und günstiger wird nichts mehr.
Vitche schrieb:
Genau deswegen hat Wolfgang diese Tests extra mit abgeänderten Grafikeinstellungen durchgeführt, die für die GPU-Leistungsklasse maßgeschneidert sind. Da hat er sehr ordentlich Regler bedient.
hast du was anderes gelesen als ich? "Kino-Preset", "Extrem-Preset", "Ultra-Preset, Texturen + Detailgrad Nichtsberührt" usw. das sind NICHT die settings, die man mit einer einstiegskarte nutzen sollte. das hätte man auch vor 10 jahren nicht mit einer äquivalenten 2 GB karte gemacht.
Vitche schrieb:
Weil niemand Lust auf matschige Texturen hat und Spiele-Geometrie immer komplexer wurde.
texturen brauchen hauptsächlich ram, nicht die geometrie. und was jetzt wieder als matschig bezeichnet wird ist ein reines luxusproblem, weil auch auf hoch sieht das heutzutage mehr als ordentlich aus. und wo wir beim thema sind: die spieletests enthalten überhaupt keine screenshots mehr bzgl. der texturenqualität in den einzelnen presets. es gibt noch vergleiche zwischen fsr/dlss, raytracing an/aus und 50 bilder auf max aus dem spiel. wie soll man sich da eine meinung bilden, ob "ultra"-texturen und damit der vram-bedarf gerechtfertigt sind oder nicht? der test zum immer wieder angeführten indiana jones hat 119(!) bilder - nicht eines zeigt die unterschiede im texturenpool. da liefert irgendein 0815-youtuber mehr infos...
Vitche schrieb:
Das ist deine rosarote Brille mit einem verklärten Blick in die Vergangenheit. Es gab vor 10 Jahren nicht auch nur im Ansatz ein Spiel, das an die Grafik von bspw. Indiana Jones oder Alan Wake II mit Pathtracing ran kommt.
für pathtracing sind die karte sowieso nicht geeignet und wieder: es werden spiele mit optik auf max settings als standard hergehalten. das funktioniert heute auf einstiegskarten nicht und hat damals nicht funktioniert. und wieder werden nur extrembeispiele herangezogen, die man zum einen mit entsprechenden settings ohne grosse abstriche eben auch mit 8 GB zocken kann und zum anderen wird die riesige menge an spielen ignoriert, die von der masse genutzt wird.

nehmt euren spielepool und testet mit settings, auf denen der vram nicht limitiert und zeigt den leuten den optischen unterschied, den man hinnehmen müsste. erst dann kann man sich eine qualifzierte meinung bilden, ob einem der aufpreis für mehr vram das wert ist oder nicht.
 
  • Gefällt mir
Reaktionen: SweetOhm, _Sebu_, wagga und 2 andere
Ich weiß noch beim Kauf der 390X hatte ich große Hoffnung in Mantle/Vulkan, lowlvlapis im allgemeinen, aber hat dann leider noch ein paar Jahre gedauert und die Karte konnte ihre Performance nie richtig ausspielen. Sollte heute wohl gut gealtert sein.

Danke AMD :)
 
  • Gefällt mir
Reaktionen: NMA, SweetOhm und wagga
Hatte die 390x, nach 9 Monaten flog sie raus. Das war mein erste und bislang letzte Grafikkarte mit > 200 Watt TDP. Brauche ich nicht, das Teil war der reinste Heizlüfter.
 
Schon 10 Jahre? Da werkelt DirectX12 drauf und Diablo, Warcraft sowieso...

Die 290X und 390X gingen zusammen im Crossfire, das war eine Kombination die man zum zocken und für mining gebrauchen konnte. ;)
Die Karte ist dann nur abgelöst wegen zu wenig Power oder weil man mehr wie 8 GB wollte.
Für Managementspiele oder Stronghold reicht sie noch immer.
 
  • Gefällt mir
Reaktionen: NMA, SweetOhm und aklaa
GOOFY71 schrieb:
Ich hatte damals relativ kurz eine 290X, leider nur mit 4GB. Aber unzufrieden war ich mit der Karte nicht! Direkt danach hatte ich eine GTX980, die fand ich persönlich wesentlich besser. Der Benchmarkbalken war aber auch meistens wesentlich länger.


Komische GTX980 hattest du. Denn eigentlich war die gar nicht wesentlich schneller als eine 290X, laut CB hier nur rund 10-15%, kam aber fast ein ganzes Jahr später raus und war viel teurer. Ich habe damals eine 290X gekauft die günstiger war als die meisten GTX970er.
Die 290X war ja der Konter zur GTX780, war 10-15% schneller und bot die Leistung einer GTX Titan zum halben Preis. Zwischen GTX780 und 290X lagen fünf Monate, zwischen 290X und GTX980 dagegen ein ganzes Jahr.

Wenn man bedenkt, dass die GTX980 eigentlich eine Generation neuer ist als die 290X, halte ich die 290X für die wesentlich bessere Karte, bei dem geringen Leistungsunterschied.

Hawaii war grandios, hatte allerdings leider durch das miese Referenzdesign einen schlechten Ruf. Viel zu laut, viel zu heiß und damit auch viel zu ineffizient. Mit einer besseren Kühlung, z.B. einem Raijintek Morpheus, konnte man durchgehend den Uber-Modus nutzen und dank deutlich niedrigerer Temperaturen sank auch der Verbrauch spürbar. Meine lief mit 1100MHz und dürfte damit ungefähr auf dem Niveau einer stock-GTX980 gelegen haben, und insgesamt habe ich mit dem Morpheus so viel bezahlt wie andere für ein Custom-Design einer GTX970. Und das ohne Speicher-Scam. Hab sie dann bis Ende 2020 genutzt, mit Abstand die langlebigste Karte bei mir, und insgesamt würde ich auch sagen die beste.

Aber ob es für den Refresh 8GB gebraucht hat? Ich denke nicht... dass eine Grafikkarte, die relativ schnell für deutlich unter 400€ zu bekommen war, sieben Jahre nach Release immer noch die meisten Spiele mit hohen bis maximalen Details ruckelfrei hinbekam war aber trotzdem überragend.
 
  • Gefällt mir
Reaktionen: NMA, SweetOhm, eXe777 und 2 andere
Habe noch eine R9 390 von MSI im Keller liegen. War zuerst bei einem Kumpel bis 2020 und danach bei mir im 2. Rechner bis 2022 im Einsatz. Tolle Karte mit der man lange Spaß haben konnte.

Leider hat sie mittlerweile VRAM Fehler, da beim Starten des PCs relativ schnell grüne Streifen und Artefakte auftauchen.
 
Sechskern- und Achtkern-CPUs sind so oll, die könnten gemeinsam im Altersheim Kreuzworträtsel berechnen.

Arbeitsspeicher bis ~16GB konnte man vor fünfzehn Jahren bereits hamstern wie Lockdown-Scheißhauspapier, ohne das Schweizer Bankkonto zu überziehen.

Und die ganz Tapferen hatten schon mit dem Ur-Oblivion ihre Pixelschleuder via FHD-Auflösung gequält.



Eigentlich ist es völlig egal, wie lange Hardware auf dem Mark ist. Solange sie in der Breite offiziell unterstützt wird, wird sie weiter sowohl angeboten als auch gekauft. Klingt komisch, ist aber so. So war das schon damals beim Wechsel von 8bit- auf den 16-bit-Heimcomputer. Und von da zum PC. Insofern: Zumindest für Blockbuster-Gaming wird die PS6 in ~zwei Jahren dieses ewige 8GB-VRAM-Triggerthema engültig erledigen. Und dann sind die 16GB fällig -- also jene Ausbaustufe, die auf diversen AAAA-Gaming-"Preisleistungskrachern" für nur 600-700 Euro aufwärts verbaut ist. Indy bettelt ja schon jetzt um 16GB minimum. Zumindest auf Arc+Radeon. Und mit Pathtracing.

Insofern: Popcorn ist startklar. Ich hoffe, ihr seids auch. :D
 
Zuletzt bearbeitet:
Fand die AmD Karten schon immer miserabel was das Marketing und die Referenzkühler die man auf die Menschen losgelassen hat anging.

Bis die Customs von Hawaii kamen sind 6 Monate vergangen. Das gab es schon wieder fast Pascal bei NVIDIA. Und Pascal hat AmD mal sowas von an die Wand genagelt, davon hatten sie sich nie wieder erholt.

Ich weiß noch, wo Raja Koudori oder wie der hieß. Eine RX 480 als Konkurrenten für die GTX 1080 auserkoren hat. Am Ende hat es dann knapp für einen Gleichstand für die GTX 1060 gereicht. 😂

Selbst heute ist so ne 9070XT ungemein Stromfressender als eine 5070 Ti und dabei noch 10% Langsamer im Raster, RT und vom PT wollen wir lieber nicht reden.

Naja. Vlt. die nächste Gen, aber den Gedanken, habe ich jetzt 10 Jahre von Radeon Karten.
 
Ich habe gerade in meinem Zweitpc eine RX 9060 XT 8 GB verbaut (geliehen) und finde die Karte ziemlich gut für das, was ich damit spiele.
Ich warte noch ein wenig ab und hoffe auf eine RX 9050 XT, aber wenn die in 2-3 Monaten nicht erschienen ist, hole ich mir dann wohl auch eine RX 9060 XT mit 8 GB. :)
 
  • Gefällt mir
Reaktionen: anexX und SweetOhm
RiseAgainstx schrieb:
der Knackpunkt hier ist die Sucht nach 2K, 4K, 8K, 144 Hz, 240 Hz in Verbindung mit den viel zu Performance-hungrigen Pseudo-Verschönerern und features wie Raytracing und der ganze Kappes.
Bei sowas bitte nicht verallgemeinern.... ich würde in meinem Leben (nur über meine Leiche) jemals wieder von 4K + DQHD (32:9 WQHD) zurück auf normales WQHD oder oh Gott bewahre mich auf FullHD.
Beide Monitore sind OLED, mögen sie nicht einbrennen (werden sie nicht, aber lustigerweise kann man das ja immer mal sagen).
Ich habe in meinem Leben genug Kopfweh von 60Hz, schlierigem VA/IPS und Kotzgrauem "dunkelgeflimmer" gehabt...
Und wer einmal das knackscharfe Bild auch beim Arbeiten hatte, will nie wieder was anderes.
Und Raytracing und Features wie RTX HDR sind keine Pseudo-Verschönerer, das sind wahrliche Gamechanger.
Du bist halt einfach nicht im Enthusiasten Hobby verortet. Schön, jeder hat andere Anforderungen, aber wenn ich mir heutzutage Games als Alternative zu Filmen/Serien gebe, dann will ich gute Optik, flüssiges Bild usw.
Ich nenne das nicht Sucht, ich nenne das inneren Anspruch.
Aber wie gesagt, jeder ist anders, ich kann gut mit deiner Meinung und Einstellung leben, solche Leute darf und muss es auch geben. Genauso wie die Zielgruppe von mir i.O. ist.
Ich würde jetzt mal generell einfach Stammtisch paukend raushauen, du bist wesentlich älter als ich (33), da schwingt so ein bisschen mehr Skepsis in deinem Post mit :D
#DerPosthatmichGetriggered^^
conf_t schrieb:
Hatte die 390x, nach 9 Monaten flog sie raus. Das war mein erste und bislang letzte Grafikkarte mit > 200 Watt TDP. Brauche ich nicht, das Teil war der reinste Heizlüfter.
Deine Sig zeigt ne 4070.. die hat 220W TGP.
An 220W ist nichts ein Heizlüfter, das ist bestenfalls ein kleiner moderater Handwärmer...
Duran schrieb:
das war eine Kombination die man zum zocken
CF war genau wie SLI die reinste Hölle und in den 2000-2016ern einfach nur die ultimative Geldverbrennung, wer sich damals 2,3 oder bei Gott 4 von bestimmten Karten in das Gehäuse gespaxt hat, genau das sind diejenigen die heute so viel Kohle raushauen für eine einzelne Karte... das lustige an der Sache ist , dass heute, Inflationsbereinigt die eine Karte billiger ist, lässt zusätzlich dein Netzteil wegen Überlast nicht "Boom" machen und ist nicht so laut wie das Triebwerk eines Düsenjets.... achja und liefert FPS die wenigstens nicht deine Augen schädigen...

Als Besitzer eines GTX 1080er SLI Systems (und vieler davor - auch CF Systeme), welches auch glücklicherweise mein letztes war, weil der Kladderadatsch danach eingestampft wurde, muss ich sagen, es war das schlechteste was ich je hatte, lief das s*........:grr:
Ergänzung ()

Samuelz schrieb:
Fand die AmD Karten schon immer miserabel was das Marketing und die Referenzkühler die man auf die Menschen losgelassen hat anging.
Ja, schon lustig, NV Fanboy spoted.
Aber keine Sorge, als stolzer RTX5000 Besitzer kann ich dir sagen, dass NV auch reudig miserable Produkte auf seine Kundschaft loslässt.
Das erste was ich gemacht habe nach Inbetriebnahme meines Systems waren die ROPs zu prüfen, danach den 12VHPWR Stecker inkl. Notification zu Automatisieren, damit ich wenigstens an 3 Stellen ne Benachrichtigung krieg, wenn die teurer HOCHQUALITATIVE Karte in Flammen aufgeht...
Und von dem Mülligen Referenzkühler der Founders von NV möcht ich gar nicht erst anfangen diese Gen... "Neuheit" .... ich lach mich krumm...
Samuelz schrieb:
davon hatten sie sich nie wieder erholt.
RX5000 war in der Mitteklasse gut, RX6000 war überlegen, RTX3000 war Schrott (Fertigungsbedingt).... Wenn AMD einfach eine 600W Karte designed hätte mit den doppelten Einheiten, wäre die Karte schneller als eine 4090 und nahe an einer 5090... aber AMD wollte sich das bei 92% Marktanteil halt nicht geben....
Samuelz schrieb:
Selbst heute ist so ne 9070XT ungemein Stromfressender als eine 5070 Ti und dabei noch 10% Langsamer im Raster, RT und vom PT wollen wir lieber nicht reden.
Dafür ist sie 150-250€ billiger.
RT und PT sind bei RDNA4 sehr gut... siehe Tests...

Man muss den Hersteller der in seinem Gerät steckt nicht anhimmeln... ich hoffe das wisst ihr alle....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777
Knergy schrieb:
Davon gab es ja keine Vergleichskarten mit nur 4 GB, aber ehe man die 8 GB wirklich ausgenutzt hat, war die Karte halt auch schon alt und leistungsschwach.

R9 Fury. kam 2015 raus, war 2017 kaum noch benutzbar wegen dem vram. der core hat hohe Auflösungen gebraucht um voll ausgelastet zu werden, was mit dem knappen RAM direkt doppelt bitter war.

an sich coole Karte, aber die 4gb vram waren ein Todesurteil.
 
  • Gefällt mir
Reaktionen: NMA
@Unti
Ich sehe das anders. Crossfire und SLI sind gerade durch überteuerte Karten sinnvoll geworden.
Hatte nie große Probleme mit Crossfire, das meiste waren Treiberabstürze aber dafür ist ATi auch so bekannt in jedem Forum. ;)
Falls du es nicht wusstest, die Auslastung lag bei guten 90 % Prozent. Mining 200 % Performance.
Bei Youtube findest auch Videos darüber wie zum Beispiel zwei 3090er eine der 40xx einholen.

Es war einfach sehr sehr günstig. Die bekamst du für 280 Euro nachgeschmissen. Im Windowsbetrieb war die zweite Karte meistens ausgeschaltet mit Lüfter off.
Durch X99 konntest du ganz einfach 3 Karten einbauen, nur eine Platzfrage. ;)

Eigentlich ist es sinnvoller die Karten aufzuteilen, so kann man beispielsweise Streaming, Encoding & Gaming voneinander trennen. Technikverrückte machen das ja auch.
Wenn wir mal ehrlich sind, 2x 7900 XT(X) oder 6900 wäre auch jetzt noch billiger als eine 2300 Euro Karte.

Selbst du kannst davon profitieren. Windowsbetrieb = IGP oder (12 W) Karte und dann umschalten wenn die Leistung gebraucht wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Bierliebhaber schrieb:
Komische GTX980 hattest du.
Soweit ich mich erinnern kann, hat mein PC damals nach Wechsel auf die GTX 980 gut 100W weniger verbraucht und war im Gaming 15 - 20% schneller. Mir hat Nvidia damals generell besser gefallen und die Karten habe ich damals maximal 1 Jahr behalten.
 
Unti schrieb:
Bei sowas bitte nicht verallgemeinern.... ich würde in meinem Leben (nur über meine Leiche) jemals wieder von 4K + DQHD (32:9 WQHD) zurück auf normales WQHD oder oh Gott bewahre mich auf FullHD.
Der Kollege verallgemeinert nicht, er stellt fest. Und diese Feststellung ist vollkommen richtig: Höhere Auflösungen und Bildwiederholraten benötigen schnellere Karten.

Bis wohin man da mitgehen will, kann jeder für sich entscheiden: Die "Gewinne" werden immer kleiner, aber die Preissprünge immer größer...
 
Und wieder wird die 8GB VRAM Sau durchs virtuelle Dorf getrieben. Langsam wirds langweilig auf dem Thema in jedem zweiten Artikel herumzureiten, das ist ohnehin das falsche Publikum (30% 4090/5090 Dichte) hier für eure Missionarsarbeit :schluck:
 
Hatte im Oktober von Shappire die R9 290 2x.
War eine super Karte mit dem i7 4790k und 32 GB RAM.Die Karten von Shappire starben aber innerhalb 1 Jahr.
Erste war 2015 hin und die 2. Ende 2015 die R9 390 als Ersatz die erste XFX Karte kam schon defekt an.
Die Ersatzlieferung XFX R9 390 war dann im Dezember 2020 defekt. Lief aber die 5 Jahre ohne Probleme.
Wegen der Chipkrise spielte ich dann eine Zeitlang mit der 5750 von 2009 bzw. zeitweise mit der Intel HD 4600.
Ergänzung ()

Fard Dwalling schrieb:
Hatte auch lange eine Red Devil 390x. Zog aber auch gut Leistung aus der Steckdose. :-)
Aber ist ja heute immer noch so.
Da hat sich die 10 Jahre irgendwie sich nichts zum positiven geändert außer man nimmt Einsteigerkarten.
Ergänzung ()

iPat1337 schrieb:
Ich weiß noch beim Kauf der 390X hatte ich große Hoffnung in Mantle/Vulkan, lowlvlapis im allgemeinen, aber hat dann leider noch ein paar Jahre gedauert und die Karte konnte ihre Performance nie richtig ausspielen. Sollte heute wohl gut gealtert sein.

Danke AMD :)
Ich hatte mit dem 3. Modelll 4 Jahre lang Spaß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und iPat1337
Zurück
Oben