Bericht AMD Vega: Die Radeon VII mit 7-nm-GPU wird heute 7 Jahre alt

Boimler schrieb:
Letztendlich sind APUs immer durch die Speicheranbindung limitiert, sodass architektonische Aspekte irrelevant werden. Vor allem reicht Vega für alle Aspekte der Bildwiedergabe vollkommen aus. AV1 Encoding gab es bei AMD ohnehin erst viel später bspw.
Auch wenn RDNA2 als iGPU in den 5000er-APUs sicherlich geringere Leistungsvorteile mit DDR4 wie mit DDR5 geboten hätte, aber das Featureset wäre es dennoch definitiv wert gewesen - zumal neue Architekturen abseits von Effizienzverbesserungen oft auch Verbesserungen bei der Speicherkompression mitbringen und dementsprechend auch ein wenig effizienter mit begrenzten Speicherbandbreiten umgehen.

Man würde jetzt noch regelmäßig aktuelle Treiber bekommen. Man würde AV1-Decoding haben. Bei CPUs/APUs, die im Rahmen der 7000er-Serie immernoch in garnicht-mal-so-LowBudget-Geräten verkauft werden (bis hin zum 7730U...) und zwischen 2021 (Ryzen 5000G Desktop) und Anfang 2022 (Ryzen 7000 Barcelo) erschienen und bis Mitte 2023 aktuell waren...

Zu meinem großen Erstaunen gab es tatsächlich zwar Ende Januar einen neuen Treiber für Polaris und Vega... Was aber ein schwacher Trost ist, wenn der vorherige Treiber aus Mitte 2022 stand und so manches Spiel ohne aktuellen Treiber zwischenzeitlich schlicht den Start verweigert hat.
 
Glaube das war DIE Mining Karte schlechthin. Haben sich die Miner die Finger nach geleckt.
 
iGameKudan schrieb:
Man würde jetzt noch regelmäßig aktuelle Treiber bekommen.
RDNA2 ist doch inzwischen auch Legacy, also da ist der Unterschied eher gering, was den Support angeht.

iGameKudan schrieb:
Auch wenn RDNA2 als iGPU in den 5000er-APUs sicherlich geringere Leistungsvorteile mit DDR4 wie mit DDR5 geboten hätte, aber das Featureset wäre es dennoch definitiv wert gewesen
Das einzige Feature, das ich bei Ryzen 5000G vermisst habe, war PCIe 4.0 als ich die RX 9070 gekauft habe. Ich hätte den Dualbetrieb mit den alten Spielen auf der APU und den neuen auf der dGPU gerne beibehalten, aber mit PCIe 3.0 verliert man unnötig einige % Leistung, vom L3-Cache mal abgesehen, der den APUs fehlt.
 
Die brainstorming Headlines sind Weltklasse, CB! 💪🤣
Tolle GPU und Machbarkeitsstudie als sie damals veröffentlicht wurde.
Ich weiß noch wie sie auf der Bühne im Spiel "The Division 2" vorgestellt wurde mit dem ingame Benchmark.

Mein Lan Kollege hat diese Karte und verrichtet mit UV noch tolle Gaming Dienste in seinem Rechenknecht. Leistung ist noch völlig ausreichend für sehr viele Spiele und sie sticht einfach mit ihrer Optik stark heraus.
 
  • Gefällt mir
Reaktionen: SweetOhm
Volvo480 schrieb:
z. B. die seither unerreicht hohe FP64 Leistung für meine damaligen BOINC GPU-Berechnungen.

ein beachtlicher einfluss nimmt halt der extrem schnelle VRam.
die Vega 64 war bis auf den VRam mit der Radeon VII fast identisch und dennoch war eine 100-110% höhere mining leistung möglich.
 
PERKELE schrieb:
Fuer 800€ gekauft und fuer 1.300€ verkauft. Nice! =}
PERKELE schrieb:
Das grenzt ja schon an Betrug. :O [...]
...

BTT:
Ich hatte zu dem Zeitpunkt eine 2080 drin und war damit recht zufrieden.
Wenn man sich das mal vorstellt ... für 639EUR eine 80er!

Habe die dann nach der Anschaffung einer 6900XT für 550EUR verkauft. Ja, ich hätte auch mehr bekommen können, aber dem Interessenten war seine Karte abgeraucht und ich konnte einfach keinen Vorteil aus seiner Situation schlagen ... da kann ich Abends nicht schlafen.
 
  • Gefällt mir
Reaktionen: stevefrogs
iGameKudan schrieb:
Denn während die damals 16GB HBM-VRAM damals Perlen vor die Säue waren, verreckt die 2080 im Gegensatz zu damals heute an den 8GB VRAM...
Unsinn, die Radeon verreckt schon daran daß sich RT spiele gar nicht starten lassen. Bei der 2080 musst halt im Notfall Regler bedienen, bei 7 Jahre alten Karten verschmerzbar...
 
  • Gefällt mir
Reaktionen: stevefrogs
LucasAppelmann schrieb:
aber die Workstation-Version ist wenigstens schick.
Ich weiß nicht, was ihr an einer Weisen rechteckigen Kiste mit einem roten Streifen besonders Chic findet, zumal die Grafikkarte zumeist in einem geschlossenen Gehäuse steckt.

Meiner Meinung nach muss eine Grafikkarte nicht besonders hübsch sein, sondern das Design muss die Grafikkarte vor allem gut vor Überhitzung schützen, ob die dann rot oder grün ist, ist vollkommen egal.
 
PERKELE schrieb:
Fuer 800€ gekauft und fuer 1.300€ verkauft. Nice! =}
Damals für 666 € gekauft und habe sie immer noch im 2. Desktop ... :freaky:
 
  • Gefällt mir
Reaktionen: Boimler
TheInvisible schrieb:
Unsinn, die Radeon verreckt schon daran daß sich RT spiele gar nicht starten lassen. Bei der 2080 musst halt im Notfall Regler bedienen, bei 7 Jahre alten Karten verschmerzbar...
Ist das nicht lediglich in Spielen ein Problem, die RT nicht opt-out haben? Mit meinen APUs konnte ich bisher alles starten, auch wenn RT verfügbar war.
 
  • Gefällt mir
Reaktionen: SweetOhm
War eine wunderschöne Karte. hab damit ein 1080 ersetzt.
Hatte sie allerdings nicht so arg lang, hab sie dann durch eine RX5700xt ersetzt.
IMG_20190215_173224.jpgIMG_20190215_185633.jpg
 
  • Gefällt mir
Reaktionen: LETNI77, danyundsahne und SweetOhm
TheInvisible schrieb:
Unsinn, die Radeon verreckt schon daran daß sich RT spiele gar nicht starten lassen. Bei der 2080 musst halt im Notfall Regler bedienen, bei 7 Jahre alten Karten verschmerzbar..
Spiele die RT-Fähigkeiten zwingend voraussetzen sind bisher noch die absolute Ausnahme - mir ist da zugegeben bisher bloß Indiana Jones bekannt.

Und naja... Ob man auf einer 7 Jahre alten Karte aktuelle Titel mit RT spielen möchte sei mal dahingestellt. Meine 5060 liegt ja in etwa in dem Leistungsbereich der 2080, da habe ich RT mal als Beispiel in Cyberpunk lieber ausgeschaltet. Die 8GB VRAM laufen selbst mit RT Mittel in WQHD sonst über bzw. müsste man andere Bildqualitätsoptionen so weit runterdrehen, dass das Ergebnis mit RT schlechter aussieht wie ohne RT.

Abseits von der fehlenden RT-Fähigkeit sehe ich die Radeon VII daher durchaus sogar noch vorn... Da es eben sogar für diese mit 26.1.1 nen neueren Treiber gab dürfte sogar das Spiele-Startproblem baw wieder erledigt sein...
 
  • Gefällt mir
Reaktionen: blauescabrio, Boimler und SweetOhm
fand die technisch total spannend.
damals mit wakü betrieben.

mining sei dank dann deutlich über kaufpreis abgegeben

DSCN2377.JPG
 
  • Gefällt mir
Reaktionen: LETNI77 und danyundsahne
Die Karte war recht ordentlich bepreist für damalige Verhältnisse.
Allerdings wenn man später nachgeschaut hat wie die Leistung zu den Nachfolgern steht, dann sieht es hier ziemlich mau aus.
Lohnt sich noch nicht mal als Nachkauf jetzt. ;)

HBM ist auch enttäuschend, lieferte nicht das was es versprach.
 
Ah, die Karte für jenen bemitleidenswerten Pöbel, der sich keine Titan V leisten konnte :D
 
  • Gefällt mir
Reaktionen: Samuelz
Der Puritaner schrieb:
Ich weiß nicht, was ihr an einer Weisen rechteckigen Kiste mit einem roten Streifen besonders Chic findet, zumal die Grafikkarte zumeist in einem geschlossenen Gehäuse steckt.
Sie ist schlicht und technisch funktional designed. Alle “normalen” Karten sehen immer wie ein futuristisches Plastikraumschiff aus - an sich kein Ding aber trifft meinen Geschmack echt null. Die VII und die aktuelle NVIDIA Founders Edition sind echt schick. Oder die RX5700 (non-XT) -> schicke Aluwürfel.

Wobei das “Gaming”-Design gefühlt auch schon schlimmer war als aktuell.
 
  • Gefällt mir
Reaktionen: thom_cat
@spezialprodukt Dat wird mitunter auch am Design liegen, weil die Abluft nur über die I/O Blende erfolgt, ich hatte hier auch mal eine 1080 NVIDIA Founders Edition die besaß auch solche Starallüren und wollte unbedingt bei Beschleunigung gehört werden.
 
  • Gefällt mir
Reaktionen: spezialprodukt
Boimler schrieb:
RDNA2 ist doch inzwischen auch Legacy, also da ist der Unterschied eher gering, was den Support angeht.
RDNA2 ist noch nicht Legacy.
 
@LETNI77 s. PCGH
Auch wenn AMD da sprachlich wieder etwas zurückgerudert hat, ist das quasi die Rente für RDNA2. Aber ja, Legacy-Treiber gibt es offiziell noch nicht für RDNA2.
 
Zurück
Oben