Bericht C:\B_retro\Ausgabe_57\: AMDs weiter Weg zurück nach Hawaii

@SV3N Weil es mir beim Lesen auch sofort auffiel: Das Jahr für Vega steht im Artikel immer noch als 2018, nicht 2017. Da ich nur News bearbeiten kann, kann ich es auch nicht selber korrigieren (OCD-Alarm) :D

Also bevor du es vergisst, hier die freundliche Erinnerung :)
 
  • Gefällt mir
Reaktionen: SVΞN
konkretor schrieb:
Also die 7970 hatte ich sehr lange in meinem Rechner, von 2012 bis 2017 so lange hatte ich noch nie ne Graka im Rechner. In FHD war immer genug Leistung, da auch die 3 GB RAM haben dafür gesorgt, länger nutzbar zu sein.

Ich hatte meine von 2013 bis Anfang diesen Jahres drin - es war unglaublich, wie sich die Leistung mit den neueren Treibern entwickelt hat. Spätestens aber bei BF V war, trotz OC, irgendwann dann Schluss. Es war aber wirklich ein guter Run.
 
  • Gefällt mir
Reaktionen: konkretor und SVΞN
Schöne Zusammenfassung und Übersicht über die letzte Dekade Team Rot. Es wirkte immer bisschen als hätte AMD aufgegeben ernsthafte Konkurrenz im oberen Bereich zu stellen. Die 290X ist damals irgendwie komplett an mir vorbeigegangen. Habe 2013 von einer GTX670 zu einer GTX780 gewechselt und diese bis Anfang diesen Jahres in Betrieb gehabt. Jetzt steckt die 780 im Rechner meiner Lebensgefährtin und verrichtet dort auch noch einen guten Dienst für nicht so hardwarehungrige Titel.
Irgendwie hatte ich die Fury/X und Vega 56/64 auch deutlich schwächer in Erinnerung als die Diagramme vermuten lassen. Kann es sein, dass diese auch erst nach einigen Treiberupdates in den jetzigen Leistungsbereichen angekommen sind?
Polaris war meine große Hoffnung und wurde bitter enttäuscht - die Karte wurde einfach dem Hype absolut nicht gerecht, das sieht man auch rückblickend gut.
AMD war für mich allerdings schon mit RDNA1 "zurück" und die 5700/XT haben zum ersten Mal seit langer Zeit wieder einen "Haben-will"-Effekt erzeugt - meine erste AMD Karte seit einer X800GTO (die als Testkarte übrigens noch immer funktioniert)!
Die 6800XT kommt im Frühjahr '21 insofern diese dann verfügbar ist, dann wandert die 5700XT weiter und für die nächsten 4-5 Jahre wird mit Rot gezockt :D
Ich hoffe AMD bleibt jetzt weiterhin in den oberen Rängen vertreten, sowohl CPU als auch im GPU Segment. Muss nicht immer die absolute Speerspitze sein, aber zumindest um konkurrenzfähig zu sein.
 
illumina7 schrieb:
5700/XT haben zum ersten Mal seit langer Zeit wieder einen "Haben-will"-Effekt erzeugt
Kann ich ehrlich gesagt nicht wirklich nachvollziehen: Gerade der vergleichsweise hohe Verbrauch bei gleichzeitig mittelprächtiger Leistung - trotz 7 nm - haben mich eher abgestoßen. RDNA2 hingegen sieht nun wirklich interessant aus und vielleicht werkelt bei mir in Zukunft die erste AMD-Karte seit der HD 6670 :D
 
MasterAK schrieb:
Ganz so schlecht war GCN nun auch nicht. GCN hatte viel Rohleistung, die aber nicht in FPS umgewandelt werden konnten. Lag daran, dass es sich eher um ne Architektur für den Profi Bereich handelte.
Sorry, aber der muss sein:
Ganz so schlecht war Bulldozer nun auch nicht. Bulldozer hatte viel Rohleistung, die aber nicht in FPS umgewandelt werden konnten. Lag daran, dass es sich eher um ne Architektur für den Profi Bereich handelte.
:D

Bulldozer war ein auf Durchsatz optimierter Server-Chip. Im reinen Durchsatz-Szenario machte ihm im normalen x86-RZ-Umfeld auch kaum jemand was vor. Nur leider brauchte und kaufte (fast) niemand x86-Multi-Purpose-Chips für reinen Datendurchlauf. Und so zerfiel AMDs schöner Plan von "Datacenter first" in seine staubigen Brösel. ^^

Was die Grakas hier angeht: Ich muss sagen, dass ich erstaunt war, wie wenig sich eine 560 sich von einer HD7850 absetzen kann, solange letzterer das Video-RAM nicht ausgeht. o.0 Ich hatte beide da, als ich ein wenig einen "Retro-PC" mit Alt-HW stricken wollte. Wäre spannend, mal einen echten Vergleich beider Karten zu machen. Ich sollte weniger Zeit im Forum verbringen... :D

Regards, Bigfoot29

Nachtrag: Unter Linux ist es bei der 7850 lästig, dass ich ENTWEDER Vulkan-Unterstützung (neuer Treiber) ODER Video-Beschleunigung (alter Treiber) habe. Aber immerhin... mit Vulkan laufen dann auch die neueren Spiele. Blöd nur, dass mit Dualcores die Leistung für aktuelle Highend-Codecs nicht ausreicht. ^^
 
  • Gefällt mir
Reaktionen: Apocalypse und MasterAK
KuestenNebel schrieb:
Kann ich ehrlich gesagt nicht wirklich nachvollziehen: Gerade der vergleichsweise hohe Verbrauch bei gleichzeitig mittelprächtiger Leistung - trotz 7 nm - haben mich eher abgestoßen. RDNA2 hingegen sieht nun wirklich interessant aus und vielleicht werkelt bei mir in Zukunft die erste AMD-Karte seit der HD 6670 :D

Ja da war natürlich noch Luft nach oben in Sachen Effizienz, aber die Leistungsaufnahme ist im Vergleich zur grünen Konkurrenz doch in Ordnung, wenn man den Fertigungsprozess außen vor lässt. Zudem fand ich P/L wirklich sehr fair, hab eine 5700XT Custom im Februar für knapp 370€ im Angebot bekommen, da hat mich AMD einfach abgeholt. Die 2070Super war ja eine ganze Ecke teurer und ist auch nicht in jedem Spiel schneller, bzw. war zum Release deutlich schneller, aber AMD hat hier noch wahnsinnig viel Leistung mittels Treiberoptimierungen rausgeholt, was zum Beispiel sehr schön in den Tests der 3070FE bei hardwareluxx zu sehen ist. So bietet die 5700/XT für Spieler, denen es nicht aufs letzte fps ankommt, schon eine gute Option in der Mittelklasse(imho).
 
KuestenNebel schrieb:
Kann ich ehrlich gesagt nicht wirklich nachvollziehen: Gerade der vergleichsweise hohe Verbrauch bei gleichzeitig mittelprächtiger Leistung - trotz 7 nm - haben mich eher abgestoßen.

Eigentlich bewegen die sich auf Augenhöhe mit ihren Nvidia Gegenspielern. Etwas weniger Leistung als die 2060s/2070s, etwas mehr Verbrauch, dafür aber auch günstiger. Zumal die Karten nur ein paar % trennen.

Was man hier aber sieht, ist das AMD über die Jahre eigentlich nie so schlecht war wie es der Ruf und die Verbreitung denken lässt.

Ich selbst fahre immer noch mit ner R9 290, undrvoltet, übertaktet unter Wasser gesetzt. Viele Spiele laufen immer noch auf mittleren Einstellungen rund. Bin gespannt auf die 6700er im Frühjahr, denn so langsam würde ich gerne wechseln.
 
  • Gefällt mir
Reaktionen: Apocalypse
Ich hatte damals mal für eine kurze zeit ne Asus 7990 im Betrieb wahr auch mein erster und letzter Multigpu ausrutscher.
 
Schöner Artikel, dass aber unter der Flagge von Retro zu veröffentlichen erscheint mir komisch.
 
  • Gefällt mir
Reaktionen: Apocalypse
DVI-Anschlüsse sind für einige schon Retro.
 
  • Gefällt mir
Reaktionen: konkretor und ThePlayer
PS828 schrieb:
@rg88 ich vermische garnichts, ich habe eine Frage gestellt.. und ja ich habe mich informiert, vor 15 Jahren waren die GPUs Idr sehr laut, aber war dies auch der Ursprung bekannter beißreflexe einiger heute in Sachen Lautstärke? Nichts anderes habe ich wissen wollen einfach weil ich nicht dabei war.
Die Karten die du geschrieben hast, waren aber nicht vor 15 Jahren.
 
Wahnsinn wie lange die Zeit der 200er Reihe von AMD schon her ist. Tatsächlich werkelt in meinem Rechner noch immer eine AMD 280x mit 3gb VRAM. Spielen kann ich damit immer noch, allerdings hauptächlich in niedrigen Details, was für mich aber in Ordnung ist. Nächstes Jahr wird es dann endlich ein komplett neues AMD System und ich glaube bei einer derzeitigen AMD 280x und einem i7-3770 von Intel, werde ich vermutlich einen ordentlichen Leistungszuwachs spüren. =D
Freut mich jedenfalls extrem für AMD und für den Markt allgemein. Konkurrenz ist nie verkehrt. Weiter so. =)
 
Ich bin damals von einer ATI Sapphire 6950 1GB auf eine EVGA 970 SSC - ich dachte ich hätte en neues paar Augen. Für The Witcher 3 :)
 
projectneo schrieb:
Ich erinnere mich noch, dass ich mir damals eine 280x gekauft habe von MSI, irgendein Loxusmodell mit gefühltem 2KG Kühler. Leider hat die karte nur Probleme gemacht, da diese MSI zwei große und einen kleinen Lüfter besaß. Den kleinen konnte man nicht vernünftig regeln sondern brauchte irgendein Schrott MSI Tool dazu was nicht gescheit lief. Aber das schlimmste waren die Blackscreens der R280x.

Wenn MSI im Spiel ist, bin ich aufgrund meiner persönlichen und beobachteten Erfahrungen geneigt, den Fehler zuerst immer bei MSI zu suchen!

Meine Sapphire R9 280X OC hat tatsächlich niemals irgendein Blackscreen-Verhalten gezeigt, aber ich weiß nicht, inwieweit es da noch andere Voraussetzungen braucht, bestimmte Spiele/Software/Bios, damit das auftritt...
 
Luxmanl525 schrieb:
Ich habe Vega / Vega 64 nie als völligen Fehler gesehen. Aber Fakt ist, ohne Optimierungen war speziell Vega 64 ein kolossal problematischer Fall. Einige Custom Modelle zogen gerne mal ca. 400 Watt. Dazu die enorme Abwärme die eben auch aus dem Gehäuse raus muß.

Die Vega 64 war nicht direkt fail, aber einfach etwas zu teuer für das Gebotene. Gerade dass man Vega rest anpassen musste, war ein Fail, weil 90% der Kunden das nicht machen wollen.

Erst dann gegen Ende hin, waren die Customs gut erhältlich und auch preiswert - wobei die Vega 64 meistens sich nicht gelohnt hat und die Vega 56 das bessere Produkt einfach war. Für Leute wie mich, die dann auch mal in den Treiber hineinschauen und Spannungen etc. anpassen, war das natürlich ein super Kauf damals, aber für die Masse - ne.



borizb schrieb:
Anhang anzeigen 998581

Wenn man bedenkt, dass die RX 480 (und der Bulldozer) zum Sinnbild AMDs Unfähigkeit wurden, ein
halbes Jahrzent lang eine konkurrenzfähige Performance pro Watt zu liefern, mutet diese Aussage schon
fast surreal an. Mich freuts, dass AMD wieder vorne mitspielt, aber es war ein langer und harter Weg.
Krass, was sie in dieser kurzen Zeit erreicht haben, vom Quasi Bankrott zu AAA. Kann man mal machen.

Naja, damals kam irgendwie der Hype auf, dass die RX 480 High End sein wird und dabei war eigentlich absehbar, dass nur die Mittelklasse bedient werden soll. Die 480 hat sich damals ja gegen die 970 GTX gestellt, da die 1070 und 1080 sowieso viel schneller waren.

Die 480er haben sich einige von meinen Freunden gekauft, weil diese 8GB VRAM haben wollten und nicht mehr als 300€ für ne Grafikkarte ausgeben wollten. Also als Fail würde ich sie nicht bezeichnen und sie dürfte sich sicherlich bezahlt gemacht haben.

Nur zählt aus Marketing-Sicht/Wahrnehmung des Kunden, wer das bessere High-End Produkt hat und das hatte damals eindeutig Nvidia. Halo Effekt funktioniert. Deswegen ist ja auch die 6900XT entstanden.


Ich selber bin erst so zwischen der R9 290 und der R9 380 eingestiegen. Hatte dann folgende Grafikkarten:

1) R9 380 Nitro
2) RX 580 Nitro
3) Vega 64 Powerdevil (560€ hat mich die damals gekostet!) - ist mir in der Garantiezeit abgeraucht, hab die vollen 560€ bekommen
4) Vega 56 für 230€
 
Ich bin bisher immer gut gefahren mit den Karten von AMD und nVidia. Mir ist AMD im Umgang mit den Kunden aber lieber. Ich hatte damals überlegt von meiner 280x auf eine 970 mit 4GB RAM umzusteigen aber dann ist das mit den 3,5GB rausgekommen und ich war ziemlich vor den Kopf gestoßen wie nVidia damit umging. Ich hatte zwar 3gb RAM mit meiner 280x aber bei GTA5 ging mir nach einer Stunde Spielzeit langsam der RAM aus und ich wollte mehr haben. Zum Glück gab es dann wenige Monate später die RX480 mit 8GB RAM die war richtig gut als Red Devil.
Dann habe ich die Karte durch eine 1070 ersetzt, da ich einen WQHD Monitor gekauft habe. Mit der 1070 hatte ich ein Treiberproblem. Und habe die durch eine Vega56 Pulse ersetzt. Und die war nicht lauter als die 1070.
Jetzt habe ich ein RX 5700 XT Pulse im Rechner und warte auf eine bezahlbare RX 6800 XT.
AMD hat schon oft HighEnd geliefert und jetzt ist man wieder ganz oben dabei. Die Radeon 9700, 9800 sowie die 5770 und 5870 waren super Karten damals. Die Fury war mir damals einfach zu teuer.
Und wenn man nicht nur auf die Absoluten FPS schaut sondern auf das 2% Percentil dann steht AMD mindestens so gut da wie Nvidia. Mit der nächsten Generation wird es wirklich spannend.
RT und DLSS steckt noch in den Kinderschuhen und es ist noch zu wenig verbreitet als das es wichtig wäre.
Aber in 2 Jahren sieht es bestimmt ganz anders aus.
 
  • Gefällt mir
Reaktionen: Apocalypse
Meine Historie im Artikel genannten Zeitraum:

290 4GB (November 2014, gebraucht hier im Forum für nur 225€, wäre neu aber auch nur bei 289€ gewesen)
Anschließend kam die Nano als Neukauf Januar 2017, mit 400€ die teuerste Grafikkarte, die ich jemals gekauft habe.
und seit März 2019 die Vega 64 für 389€, ebenfalls Neukauf.

Mir gefallen die aktuellen Preise überhaupt nicht.
Aber meine Vega macht bei 1440p noch eine einigermaßen gute Figur. Also mal schauen, was das nächste Jahr bringt.

Eine 6700XT sollte jedenfalls nicht viel mehr als 400€ kosten und mindestens 50% mehr Leistung bringen. Dann könnte sie noch interessant für mich sein.
 
Zuletzt bearbeitet:
Mensor schrieb:
Eigentlich bewegen die sich auf Augenhöhe mit ihren Nvidia Gegenspielern. Etwas weniger Leistung als die 2060s/2070s, etwas mehr Verbrauch, dafür aber auch günstiger.
Viele vergessen da gerne, dass Turing - von der Effizienz her - auch eher durchwachsen war und je nach Grafikkarte sogar schlechter als Pascal war. Man hat oft nur die effizientesten Karten einer Reihe im Kopf - GeForce GTX 1660 Ti und RTX 2070 - aber gerade die 2060, 2060S sowie eben die 2070S waren nicht wirklich effizienter als die 5700 und die 5700 XT war da auch nicht weit weg von. Im Endeffekt war RDNA genauso effizient oder ineffizient.

Man hat halt mit RDNA nicht die »großen« angegriffen, weil man doch einiges umgebaut hat, die CU vollständig neu organisiert, die WGP, den Treiber von Wave64 auf Wave32 umgestellt. Die Treiberprobleme von RDNA mit den Black Screens kommen ja nicht von ungefähr, so ein Umbau im Treiber - Shader Compiler - kann solche Probleme verursachen.

Mensor schrieb:
Was man hier aber sieht, ist das AMD über die Jahre eigentlich nie so schlecht war wie es der Ruf und die Verbreitung denken lässt.
Nein, wirklich schlecht waren sie nicht, aber wenn man sich mal das aktuelle Video der GameStar zu den Grafikkarten anhört, weiß man aber auch, woher der Wind weht - gut die GameStar-Hardware-Redaktion kann man eh nicht ernst nehmen, das ist aber ein anderes Thema.

Das Problem von AMD war - mit GCN - immer, dass sie die CUs nicht ausgelastet bekommen haben, weil der Treiber auf Wave64 ausgelegt war und die CU trotzt nominell 64 Shader - in 4 Vec16-ALUs - für jeden Wave64-Befehl nur einen Vec16-ALU nutzen und daher 4 Takte brauchten. Um die CUs auszulasten, hätte es immer 4 Wave64-Befehle benötigt.

Deswegen hat AMD ja auch bei Mantle - asynchrone Shader - und später bei DX12 entsprechend profitiert, wobei das aber auch nicht das »Heilmittel« war, für das aktuell viele es in ihrer Verklärung hinstellen.

Egal, mal schauen was kommt.
 
Patata schrieb:
Naja, damals kam irgendwie der Hype auf, dass die RX 480 High End sein wird und dabei war eigentlich absehbar, dass nur die Mittelklasse bedient werden soll. Die 480 hat sich damals ja gegen die 970 GTX gestellt, da die 1070 und 1080 sowieso viel schneller waren.

Die 480er haben sich einige von meinen Freunden gekauft, weil diese 8GB VRAM haben wollten und nicht mehr als 300€ für ne Grafikkarte ausgeben wollten. Also als Fail würde ich sie nicht bezeichnen und sie dürfte sich sicherlich bezahlt gemacht haben.

Nur zählt aus Marketing-Sicht/Wahrnehmung des Kunden, wer das bessere High-End Produkt hat und das hatte damals eindeutig Nvidia. Halo Effekt funktioniert. Deswegen ist ja auch die 6900XT entstanden.
Das 8GB Argument hat aber nicht immer geholfen gegen die wesentlich effizientere
1060 6GB (jedenfalls nicht, bevor die Treiber massiv besser wurden und mehr Spiele
von mehr Speicher profitiert haben).

Die Stromverbrauchsrechnung kann man sich auch mal anschauen für die 480 zur 1060:
Bei 1KWh@0,29€ über einen Zeitraum von sagen wir mal 3-4 Jahren, abhängig von der
aktiven Nutzung sind 45W Mehrverbrauch ggf. für den einigen oder anderen Nutzer schon
ein Kostenpunkt, von der ~10db höheren Lautstärke und mehr Abwärme mal ganz abgesehen.
In dem kleinen ITX Gehäuse, das manche haben, wäre das einfach keine Option gewesen.

https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/

Denoch, Schnee von gestern. Heute ist das wesentlich besser und das ist auch gut so.
 
Zurück
Oben