Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Radeon R9 390(X): 8 GB VRAM für 340 Euro werden heute 10 Jahre alt
Wenn ich "zukunftssicher" immer lese. Das gibt es bei IT nicht. Künstliche Beschneidung oder Einstellung des Supports kann man nicht verhindern. Das passiert und kam schon einige Male vor (nur indirekt bei GPU´s wenn man die Treiber bei älteren Modellen nicht pflegen will).
8GB würde ich mir neu auch nicht mehr holen. Dafür finde ich den Geiz der Firmen einfach zu groß. Dennoch ist eine 8GB-Karte für ältere Spiele immer noch ausreichend. Voraussetzung ist der Käufer: Er kennt sich damit aus. Für einen guten Preis hat dann die Karte ihre Daseinsberechtigung. Ich selber spiele nie die neuesten Spiele und warte generall 2 Jahre. Daher komme ich mit genau dieser Größenordung aus. Auf CB gehöre ich wohl zur Minderheit^^
Ich selber spiele nie die neuesten Spiele und warte generall 2 Jahre. Daher komme ich mit genau dieser Größenordung aus. Auf CB gehöre ich wohl zur Minderheit^^
Das glaube ich nicht. Klar gibt es die, die zu jeder Generation auf das Top-Modell aufrüsten, aber ich denke, die meisten wollen mit ihrer neuen Grafikkarte erst Mal einige Zeit ihre Ruhe haben. Aufgerüstet wird dann erst, wenn die Regler für das Lieblingsspiel nicht mehr ausreichen, oder, wie bei den 8GB, das Spiel evtl. Schlicht nicht mehr startet...
Das ist dann der Vorteil der Konsolen... Das gibt's schlicht nicht mehr VRAM in der aktuellen Generation..
Davon gab es ja keine Vergleichskarten mit nur 4 GB, aber ehe man die 8 GB wirklich ausgenutzt hat, war die Karte halt auch schon alt und leistungsschwach.
Mitnichten. Fiji rannte nach wenigen Jahren in sein 4GB Limit, obwohl die Leistung anderweitig noch gereicht hätte. Das erzeugte dann ein paar komische Szenarien, in denen 390/X höhere Settings flüssig schafften als die eigentlich stärkeren Fury Karten.
Das Problem zeigte sich bei den Karten nicht schon ab Launch, das ist wahr. Aber auch innerhalb ihrer "nützlichen" Lebensspanne konnte diese Leistungsklasse mehr als 4GB auslasten.
Sie müssen/mussten ja nicht ihren vollen Speicher auslasten können, nur immerhin mehr als die Hälfte. Sobald das der Fall ist, lohnt sich der volle (bzw doppelte, je nachdem wie man es sieht) Speicherausbau für die GPU.
Ergänzung ()
0x8100 schrieb:
das sind NICHT die settings, die man mit einer einstiegskarte nutzen sollte
Wieso nicht? Die 16GB Varianten können es ja flüssig. Als 8GB Käufer zieht man also notgedrungen visuell die Handbremse und die GPU kann ihr Leistungspotenzial kaum entfalten. Genau das ist der Knackpunkt, der bei diesen Varianten angekreidet wird. Die Speicherkapazität ist heillos veraltet, weil die Kernleistung selbst mittlerweile viel stärker gestiegen ist.
(Zumal auch ein paar Spiele dabei sind, die selbst mit einem oder zwei Presets darunter immer noch Probleme auf 8GB haben. Aber um das zu wissen, müsstest du dich mal tatsächlich mit den Berichten zum Thema beschäftig 😉)
0x8100 schrieb:
die grosse mehrheit daddelt esports oder spielt auf medium. wer heute möglichst günstig eine neue dgpu haben will, kommt an einer 5060/9060 mit 8 GB nicht vorbei.
Daddelt die Mehrheit wirklich nur esports und nie auch mal einen aktuellen AAA Titel? (sofern ausreichend starke Hardware vorhanden - wichtig!)
Spielt diese Mehrheit auf Medium, weil ihre Hardware das bedingt oder würden sie gern mit besserer Grafik spielen?
Ich glaube, du fällst da gerade auf die Marketingbehauptungen von Nvidia und AMD rein. Wenn selbst die zu solchen Ausreden greifen müssen, weil die reale Leistung ihrer 8GB Karten nicht mehr selbst überzeugen kann, sollte dir das auf der Gegenseite vielleicht zu denken geben.
0x8100 schrieb:
texturen brauchen hauptsächlich ram, nicht die geometrie. und was jetzt wieder als matschig bezeichnet wird ist ein reines luxusproblem, weil auch auf hoch sieht das heutzutage mehr als ordentlich aus.
Geometrie braucht natürlich auch Vram. Weniger als Texturen, aber trotzdem einiges. Aktuelle Spiele haben in ihren Szenen teilweise mehrere Gigabytes an Geometrie sichtbar.
Und doch, je nach Spiel darf man das durchaus als richtig matschig bezeichnen. Nicht alle Engines schaffen bei knappem Vram ein gutes Texturmanagement, sondern bremsen lieber stärker ab als nötig. Das aktuelle Space Marine 2 zB zeigt auf 8GB Karten zeitweise richtig hässliche Texturen, die selbst vor einigen Jahren kaum als "Niedrig" durchgegangen wären.
Ich habe das Gefühl, du hast die bisherige Berichterstattung dazu immer noch nicht aufmerksam gelesen/geschaut. Du scheinst das hastig überflogen zu haben, um mit deinem Frust dagegen wettern zu können. Das macht eine sinnvolle und aufrichtige Diskussion natürlich schwierig.
Computerbase, Hardware Unboxed, Digital Foundry und andere haben gutes Material dazu.
Meine R 390 (Sapphire Nitro) läuft noch immer im Zweitrechner tadellos und langweilt sich dort vermutlich sehr
Was ich an der ganzen Sache blöder finde als die aktuelle Speicherthematik ist, dass sich auch nachweislich das Preisgefüge verschoben hat. Das ist jetzt vermutlich keine neue Erkenntnis aber hier Mal sehr plakativ:
2015: R 390 (zweit schnellste AMD GPU) für 350 € / 420 € (inflationsbereinigt)
Heute: RX 9070 deutlich jenseits der 600 €
Ich weiß... Leistung ist ja trotzdem höher. Fertigungskosten höher, Angebot und Nachfrage usw. usw. ... Doof finde ich es trotzdem.
Bis die Customs von Hawaii kamen sind 6 Monate vergangen. Das gab es schon wieder fast Pascal bei NVIDIA. Und Pascal hat AmD mal sowas von an die Wand genagelt, davon hatten sie sich nie wieder erholt.
?
Hawaii kam Ende 2013 auf den Markt. Somit Customs Anfang 2014.
Mitte bis Ende 2014 kam dann erstmal Maxwell dagegen.
Grenada als Hawaii Refresh dann Mitte 2015 als mittelmäßiger Konter gegen Maxwell.
Pascal ging erst Mitte 2016 an den Start, also 2,5 Jahre nach Hawaii.
Vielleicht findest du Hawaii mit dieser Korrektur ja weniger mies
Samuelz schrieb:
Ich weiß noch, wo Raja Koudori oder wie der hieß. Eine RX 480 als Konkurrenten für die GTX 1080 auserkoren hat. Am Ende hat es dann knapp für einen Gleichstand für die GTX 1060 gereicht. 😂
Du "weißt" falsch. Die RX 480 war direkt als Konter zur 1060 angepriesen.
2x (!) RX 480 im Crossfire wurden als Konkurrenz gegen eine GTX 1080 präsentiert, wobei das auch nur in genau einer Marketingfolie gezeigt wurde und danach nie wieder wirklich betont wurde.
Du solltest dein Falschwissen vielleicht mit etwas weniger Überzeugung betrachten...
Samuelz schrieb:
Selbst heute ist so ne 9070XT ungemein Stromfressender als eine 5070 Ti und dabei noch 10% Langsamer im Raster, RT und vom PT wollen wir lieber nicht reden.
Natürlich gibts das, oftmals zeigt sich das zumindest im Nachhinein.
Wir hatten nun einige Generationen (sowohl GPUs als auch CPUs), in denen viele Modelle über 5 Jahre und mehr gut benutzt werden konnten. Da die Modelle zu filtern, die eben nicht so lange so gut altern, macht den Unterschied zwischen Zukunftssicherheit und derer Abwesenheit.
Man kann dabei nicht alle Faktoren langfristig abschätzen, das ist das Hauptproblem und führt zu Ansichten wie deiner. Man kann es aber trotzdem versuchen und wird zumindest innerhalb eines gewissen Kontextes auch ziemlich gute Trefferquote haben.
ich kann es langsam nicht mehr lesen... jetzt ist die 9060 mit 8 GB schon "mieserabel" und angeblich reicht es schon für 720p nicht mehr... liebe redaktion, es gibt auch eine welt ausserhalb der 5090 gefilde, in der man auch regler bedienen kann. und vielleicht sollte man mal hinterfragen, warum 8 GB nicht mal mehr bei 720p reichen sollen und die spiele trotzdem nicht dementsprechend besser aussehen. immer mehr hardware auf ein problem werfen geht eben auch nicht ewig gut. aber es ist anscheinend einfacher, stumpf das "ultra" preset anzuklicken und sich immer wieder über einen vram-mangel zu echauffieren.
genauso gut kann man argumentieren, dass heutige pcs zum teil auch nicht mehr ram haben als damals - das ist aber komischerweise kein thema.
Jup absurd grottige Optimierung (UE5) meets unoptimierte Ultra Settings.
8gb sollten für Full HD jedenfalls noch reichen, aber leider lassen 90% der Entwickler sich für etwas bezahlen was, wenn überhaupt, beim Kunden reift.
ich mein andere schaffen es ja auch, sieht man auch immer wieder wenn Spiele toll auf dem Steam Deck laufen, dann haben die Devs einen guten Job gemacht. Zb Dune, auch ein UE5 Game, hat aber am PC, man solls ned glauben, eine tolle Performance und läuft echt gut aufm steam Deck mit 35-40 frames in richtig guter Optik, als UE5 Spiel… man solls nicht glauben.
Egal welche GPU, PC Gaming könnte so viel mehr sein, wenn die Entwickler mal wieder ihren Job lernen würden.
Daddelt die Mehrheit wirklich nur esports und nie auch mal einen aktuellen AAA Titel? (sofern ausreichend starke Hardware vorhanden - wichtig!)
Spielt diese Mehrheit auf Medium, weil ihre Hardware das bedingt oder würden sie gern mit besserer Grafik spielen?
https://steamdb.info/charts/ das sind die spiele, die am meisten gezockt werden. wo reichen da 8 GB nicht? die meisten titel aus dem vergleichstest spielen doch keine rolle mehr. da gibt es zum release immer einen peak bei der aufregung und dann dreht sich die welt wie immer weiter.
Powl_0 schrieb:
Geometrie braucht natürlich auch Vram. Weniger als Texturen, aber trotzdem einiges. Aktuelle Spiele haben in ihren Szenen teilweise mehrere Gigabytes an Geometrie sichtbar.
gigabytes an geometrie, soso. das hast du dir eben fein ausgedacht. schau dir die wireframe-darstellung einer szene in einem spiel an und du siehst die geometrie, denn das ist einfach nur die menge der dreiecke. da sind keine "gigabytes"...
Powl_0 schrieb:
Und doch, je nach Spiel darf man das durchaus als richtig matschig bezeichnen. Nicht alle Engines schaffen bei knappem Vram ein gutes Texturmanagement, sondern bremsen lieber stärker ab als nötig. Das aktuelle Space Marine 2 zB zeigt auf 8GB Karten zeitweise richtig hässliche Texturen, die selbst vor einigen Jahren kaum als "Niedrig" durchgegangen wären.
dann ist das spiel scheisse und das sollte man herausstellen und ankreiden. doom eternal kann man in 2160p mit "Texturpool Ultra Albtraum" auf einer 8 GB karte laufen lassen, in metro exodus haben laut test in uhd karten mit 8 GB sogar noch reserven. gears 5 sieht auch schick aus und kommt mit 8 GB in uhd aus. wenn ein space marine 2 nicht das schafft, was vor jahren möglich war, dann haben einfach die entwickler versagt.
als 8 GB die technische obergrenze waren, konnte man schicke spiele erstellen und in 4k zocken. und heute soll das laut aussage von cb nicht mehr in 720p möglich sein. wo liegt jetzt der fehler? in der software oder in der hardware?
Die Type ist auch relativ gut gealtert, vermutlich auch wegen dem dicken 512bit Speicherinterface.
Die einzige aktuelle Consumer Karte die das heute noch hat ist die RTX 5090.
Ordentlich Chipfläche hatte die Karte auch. (438mm2)
Das ist mehr als eine RTX 5080 heute hat.
Für solche Ausstattung hat man damals 350-400€ bezahlt.
Wieviel Chipfläche und was für ein Speicherinterface bekommt man heute für das Geld?
Meine Erfahrung war mit dem damaligen Catalyst desaströs, mit Adrenaline hatte ich tatsächlich weniger Probleme, aber immer mehr Probleme als wie mit NV, aber fairerweise muss man sagen, dass NV erst jetzt aus seiner sehr rückständigen Ecke mit der NV App rauskommt, ein Menü das seit 25 Jahren gefühlt gleich ist, buggt halt nicht so rum wie Software die jedes Jahr komplett über den Haufen geworfen wird.
Duran schrieb:
Falls du es nicht wusstest, die Auslastung lag bei guten 90 % Prozent. Mining 200 % Performance.
Bei Youtube findest auch Videos darüber wie zum Beispiel zwei 3090er eine der 40xx einholen.
Ich selber hatte viele Games mit kompatiblen Profilen gespielt, natürlich hast du dann >80-90% Load auf jeder GPU gehabt.
Microstuttering war aber immer vorhanden, es hat sich nie so gut angefühlt wie es mit einer Karte läuft.
Natürlich war es billiger als eine große Karte, aber eben auch keine Garantie, dass du in neuen Games dadurch profitierst, es war russisches Roulette.
Ich habe nie Mining betrieben, ich rede ausschließlich von Gaming Workloads, hierfür war spätestens nach ca. 2012/2013 CF/SLI komplett tot.
Und wenn man sich einfach einen der ersten Einträge auf YT anschaut...
Elderian schrieb:
Höhere Auflösungen und Bildwiederholraten benötigen schnellere Karten.
War doch früher auch so, früher war eben FullHD oder WQHD das heutige 4K, auch da musste man schon mehr Geld auf den Tisch legen, dass alte Technik (also gerade Displaytechnik) billiger ist, ist vollkommen klar.
Es ging mir eher darum, eine Feststellung mit einer verallgemeinerten Aussage darzustellen, dass all das "neumodische" Zeug Müll ist und keine Daseinsberechtigung hat, nur weil es Geld kostet....
Hier gefällt vielen nämlich der Preis nicht, mir natürlich eingeschlossen, aber der Markt funktioniert nun leider so, daran lässt sich nichts ändern.
Und am Ende des Tages entscheidet das Thermometer was ein Heizlüfter ist.
275 Watt, dann Werks OC sogar eher 300 Watt der 390x war einfach zuviel, was da an unangenehmener Wärme Aufstieg, und ich habe auch nur ein kleines Büro mit 11 qm, da heizt sich der Raum Ruck zuck ins Unangenehme auf.
Die 390x wurde alsbald durch die deutlich sparsamere RX480 ersetzt. War deutlich besser. Aber die Erfahrung zeigt es gibt Grenzen für mich persönlich, CPU und GPU müssen unter gewissen Schwellwerten liegen bei der tatsächlichen Leistungsaufnahme.
Grob <=140 Watt Peak bei der CPU und <= 200 Watt bei der GPU.
Abweichung nach oben von 10% toleriere ich aber dann ist Ende.
War auch damals der Grund warum es ein 4070 und keine 7800xt wurde.
Aber trotzdem faszinierend wenn man bedenkt wie alt der Hobel ist und was da drauf noch läuft - siehe hier , schon faszinierend.
Ergänzung ()
@conf_t
Ja das Thema ist ja sehr individuell und subjektiv.
Mein Büro ist hier auch nicht viel größer, aber ich bin die Kategorie "lieber 30°C+ draußen und im Haus", als bei 18-22°C frieren.
Deshalb ist mir eigentlich auch egal ob die GPU 600+W zieht, reduziert schon die Kosten für die Heizung in dem Zimmer, wobei am Ende der Strom teurer ist...
Aber das darf ja jeder fahren wie er will
Für mich zählt da am Ende nur Lautstärke und Stabilität.
Hatte zu der damaligen Zeit nur NV (also GTX900er und dann GTX1000er), aber so wie ich das noch sehe waren die R9 Karten gar nicht so übel.
Ja, am Ende landete ich aber doch bei der GTX1080. Aber die GCN hatte lange das Nachsehen ggü. der 1080 und wenn GCN mal schneller oder ebenbürtig waren, habe sie gesoffen wie ein Loch. Was ja wie erklärt ein NoGo für mich ist.
Bei mir ist es umgekehrt, lieber 20°C und wärmer anziehen, als 30°C und schwitzen, und nein ich habe einen eher niedrigen Ruheblutdruck (125/69 @ 55bpm), aber Wärme (> 26°c ) macht mir zu schaffen.🥵
Der Gegenspieler von NV Pascal war/ist AMD Vega.
Letztgenannte kam halt zu spät und war sehr durstig.
Wenn dann wurde Pascal an die Wand genagelt, bzgl. RX 580/90 vs. 1060, Vega 56 vs. 1070, Vega 64 vs. 1080 und Radeon VII vs. 1080Ti, im Schnitt (20 Games 4 Auflösungen). siehe Anhang 1 u. 2
Und danach mit Ampere vs. RNDA2 sah es nicht viel anders aus ...
Ergänzung ()
Samuelz schrieb:
Selbst heute ist so ne 9070XT ungemein Stromfressender als eine 5070 Ti und dabei noch 10% Langsamer im Raster, RT und vom PT wollen wir lieber nicht reden.
Laut PCGH (und anderen) liegt in RR eine 9070XT mit einer 5070Ti genau auf Augenhöhe (bei ca. 100 € günstiger), sowie eine 9060XT 16 GB vs. 5060Ti 16 GB. siehe Anhang 3
Und ja, lass uns über das PT (Gimmick) lieber nicht reden ...
Ja -- und nein. Die Entwicklung hat sich massiv verlangsamt. Einerseits von Hardware- und Fertigungssseite. Andererseits aber auch von Softwareseite: Higher-End-PC-Hardware ist schon lange nicht mehr das primäre Ziel, die Nische mit Ansage kann sich niemand mehr leisten bei den Kosten. Dazu kommen die explodierenden Entwicklungszyklen samt verringertem Output. Hätte jemand zu Zeiten von GTA4 die Ansage gemacht, dass Leute zwei Jahrzehnte später mal mehr, mal weniger sehnsüchtig auf GTA6 warten würden, er wäre ausgelacht worden. Heute ist der Witz die Realität: 11.11.11, die Ultra-Fankurve der Elder Scrolls weiß Bescheid, was gemeint ist.
Persönlich hatte ich dank Cryptowahnsinn bis vor gar nicht mal allzu langer Zeit sogar noch einen 4GB-Hobel. Damit gingen damals noch Elden Ring und BG3 (1080p), ohne alles runterzufahren. Das Upgrade hatte sich immerhin gelohnt, denn es gab gleich eine Speicher-Verdreifachung. Ob sich das zumindest wieder etwas beschleunigt, werden die Specs der nächsten Konsolengeneration vorgeben. Jetzt rein auf AAAAA-Blockbuster bezogen. Nur ein kleiner Bruchteil aller Games, die jedes Jahr kommen, gehören überhaupt dazu. Auch wenn die wirkliche Masse aller Releases damit auf Enthusiasten-Seiten selten als Stresstest-Software auftauchen.
Dann könnte eine 9070 (220 Watt) eine "Option" für Dich sein.
Mit UV bekommst die sicherlich auch auf 200 Watt getrimmt.
Ist zwar in RR lediglich ca. 20% schneller als Deine 4070, aber mit dem neuen FSR 4(.1) Redstone (Link) könnte der Unterschied deutlicher ausfallen ...