Notiz Download: Custom Radeon RX Vega benötigen Treiber Crimson 17.11.4

Jan

Chefredakteur
Teammitglied
Dabei seit
Apr. 2001
Beiträge
10.142
#1
Dabei seit
Juli 2016
Beiträge
2.193
#2
Okay dann bitte einen nach Test aller Costums mit neuen Treiber danke für die Info.
 
Dabei seit
Feb. 2009
Beiträge
139
#3
Es wird einen Nachtest aller Karten geben, wenn alle Customs released worden sind (steht im Test zur PowerColor RX Vega 64 Red Devil).
 
Dabei seit
Jan. 2017
Beiträge
255
#6
Wie dem auch sei, wenn Vega, dann RX Vega 56 als eine Custom, deren Leistung-Energie-Verhältnis alles rausholt, was bei Vega 56 rauszuholen ist. Man braucht kein Effizienzfanatiker zu sein, um sich das zu wünschen.
 
Dabei seit
Dez. 2013
Beiträge
2.205
#7
Wer Effizienz will kauft sich aktuell wohl kaum eine AMD GPU x)
Ja die Treibergeschichten seit der R290 waren mitunter die Gründe wieso ich zur Konkurrenz gewechselt bin.
Das hatte AMD mal besser im Griff
 
Dabei seit
Nov. 2011
Beiträge
527
#9
D

DasUnding

Gast
#10
Ich finde die Effizienzdiskussion ein bisschen flach. Vega ist sehr effizient, wenn der Takt nicht gerade bei 1500MHz ist. Ich hatte ein Spiel gespielt, mit Framecap in 4k auf 57FPS um in FreeSyncRange zu sein und die Karte lief mit 800MHz. Mein Netzteil meldete mir 120Watt (im Idle habe ich 80Watt) Totalverbrauch. Ich will mal sehen, wie bei einem realistischen Test, wie diesem, Nvidia abschneidet. Maximallast haben wir ja schon tausend mal gesehen.

Ich glaube sogar Kaduri hat das mit dem Dynamikbereich kritisiert. Die Effizienz wird sich mit den Primitive Shadern sowieso nochmal ändern, wenn sie denn endlich kommen.
 
Zuletzt bearbeitet:
Dabei seit
Mai 2011
Beiträge
2.841
#11
Vega ist sehr effizient, wenn der Takt nicht gerade bei 1500MHz ist. Ich hatte ein Spiel gespielt, mit Framecap in 4k auf 57FPS um in FreeSyncRange zu sein und die Karte lief mit 800MHz.
Was für ein Spiel war das denn?

Ganz im Ernst, 800MHz ist nichts, womit man selbst ältere anspruchsvollere Spiele in 4K spielen könnte.
Man könnte jetzt mit Warframe kommen, da bin ich in 1440p mit 60fps Limit sogar bei nur 400Mhz.
4K mit 800Mhz könnte hier also klappen, aber versuche mit dem Takt mal ein Battlefield, Assassins Creed, GTA, Witcher ect. zu spielen.

Dass die Karte nur mit 800Mhz taktet bedeutet ja, die Karte läuft bereits nur mit halbem Takt und ist nicht mal damit ausgelastet, sonst würde sie ja höher takten, insgesamt ist sie also weniger als 50% ausgelastet.
Und das nennst du dann einen "realistischen" Test?
Für Spiele, in denen die Karte so taktet, holt man sich keine teure Vega.




1500Mhz ist nun mal grob der Bereich, in dem die Vega Karten zu ihrem Preis überhaupt konkurrenzfähig sind und es ist mit UV zudem noch der Sweetspot zwischen Leistung und Verbrauch.


Und ich glaube auch nicht, dass Pascal hier weniger effizient wäre. Im Gegenteil, sieht man die Unterschiede der Idle Last an(GTX1070 8W, Vega56 12W), dann ist es ziemlich sicher, dass die Nvidia Karten in diesem Szenario ebenfalls weniger verbrauchen.
 
Zuletzt bearbeitet:
D

DasUnding

Gast
#12
Vega 56 hat 12 Vrms, damit ist im Leerlauf der Verbrauch höher, jedoch unter Volllast niedriger als mit weniger Vrms, da der Wirkungsgrad bei höherer Temperatur mit weniger Vrms schlechter ist als mit niedriger Temperatur mit mehr Vrms. D.h. das "Design" ist auf hohen Verbrauch ausgelegt.

Es läuft natürlich nicht jedes Spiel mit 800MHz in 4k mit 60Hz aber doch Einige. Warhammer: Spacmarine, Die DeadSpace Reihe, Dishonored usw.

Was ich damit sagen will: Es ist recht primitiv immer nur den Maximalwert zu vergleichen. Das ist exakt ein Punkt im Leistungsspektrum. Man könnte ja zumindest grob die Kurve abfahren um ein besseres Bild zu bekommen. In der Vergangenheit mag das Sinn gemacht haben, da die Karten immer zu langsam waren. Das ist aber immer weniger der Fall.

Beim Auto messe ich ja nicht nur den Verbrauch bergauf und postuliere dann eine allgemeine Aussag, obwohl ich weiß, dass Autos mit Getriebe X besser als mit Getriebe Y bergauf sind.

Wenn ich als Physiker in einem Leistungsspektrum nur einen Punkt messe und dann eine generelle Aussage mache, ist das nicht gerade glaubwürdig.

Z.B.: Welche Photodiode ist effizienter? X ist bei 12 Spannungseinheiten besser weil mehr Germanium drin ist (hypothetisch), aber Y ist bei 5 Einheiten besser. Was nehme ich nun?

Analogie: Ich messe z.B. die Masse eines Körper bei Geschwindigkeit 0 und postuliere, die Masse sei konstant, obwohl sie sich mit zunehmender Geschwindigkeit ändert. Dazu muss ich natürlich wissen, dass es solch einen Zusammenhang gibt, der aber in unserem Fall offensichtlich ist.

Man könnte nun z.B. einen Verbrauchsindex über das Spektrum erstellen, um eine Zahl über die gleich gewichteten oder realistisch gewichteten Verbrauchsstufen zu haben, die den täglichen, monatlichen oder jährlichen Mittelwert beschreibt.
 
Zuletzt bearbeitet:
Dabei seit
Feb. 2017
Beiträge
935
#14
Wer Effizienz will kauft sich aktuell wohl kaum eine AMD GPU x)
Ja die Treibergeschichten seit der R290 waren mitunter die Gründe wieso ich zur Konkurrenz gewechselt bin.
Das hatte AMD mal besser im Griff
"Und täglich grüßt das Murmeltier " muss man hier im übertragenen Sinne schreiben . Denn das AMD Treiber Karussell
dreht sich schneller als man glauben kann . Ohne FreeSync Monitor würde ich wohl auch zu NVIDIA wechseln .

Jetzt startet der Browser wo man sich bedankt . Sollten sie doch lieber die Zeit aufwenden für sinnvolles .
 

stoneeh

Lt. Commander
Dabei seit
Juli 2007
Beiträge
1.078
#15

Jan

Chefredakteur
Ersteller dieses Themas
Teammitglied
Dabei seit
Apr. 2001
Beiträge
10.142
#16
Artikel-Update: Der Download des Treibers ist in der Nacht bereits freigegeben worden. AMD hat somit schnell reagiert, sollen ab 1. Dezember doch die ersten Custom Designs im Handel erhältlich sein. Neben dem Fix für die Custom Designs wurde auch ein Problem bei der Einstellung von HBCC behoben und der Support für die Beta von Oculus Core 2.0 und DOOM VFR integriert.
 
Dabei seit
Juli 2010
Beiträge
128
#17
Dabei seit
Nov. 2011
Beiträge
527
#18
@MajorP ich denke wir sind an einem Punkt angelangt, wo es bereits als Fail gilt, wenn die Tester den funktionierenden Treiber nicht ab Tag 1 ihrer Testphase haben. Ist zwar traurig aber so scheinen Leute einfach zu denken.
 
Dabei seit
März 2017
Beiträge
351
#19
Bringt der auch was bei der RX Serie?
 
Dabei seit
Jan. 2012
Beiträge
2.676
#20
ich glaube man kann den "fail" vorwurf schon alleine daran festmachen, dass es ein thema zu "amd" ist.

hier wird sich über bios switches, vulkan und schnellen treiber support beschwert ala: bios switch an der falschen stelle, vulkan nur gameworks für amd und zu viele treiberreleases.

ist echt ein affiges gebaren geworden hier.

ich für meinen teil finde es gut, dass amd hier so konsequent treiber updates nachschiebt. wäre schön, wenn man mal nicht mehr den overwatch bug in "known issues" lesen müsste und die letzten vega features freigeschaltet werden, aber aussagen im stil von "fail", "launch verkackt", "schlechte treiber", "amateurhaft" geben eigentlich mehr auskunft über den kommentator selbst als über amd.
 
Top