Notiz Download: Custom Radeon RX Vega benötigen Treiber Crimson 17.11.4

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.151
Okay dann bitte einen nach Test aller Costums mit neuen Treiber danke für die Info.
 
Es wird einen Nachtest aller Karten geben, wenn alle Customs released worden sind (steht im Test zur PowerColor RX Vega 64 Red Devil).
 
Mcr-King schrieb:
Okay dann bitte einen nach Test aller Costums mit neuen Treiber danke für die Info.

Der Treiber wurde im Test ja schon verwendet.
Und die "Vorabversion" wird sicherlich, wie immer, absolut keinen Unterschied zur finalen Version machen in der Leistung.
 
Zuletzt bearbeitet:
Okay dann bitte einen nach Test aller Costums mit neuen Treiber danke für die Info.

Bitte? Wir haben den Treiber schon für die PowerColor genutzt und bei der Strix im September gab es das Problem noch nicht. Lesen!
 
Wie dem auch sei, wenn Vega, dann RX Vega 56 als eine Custom, deren Leistung-Energie-Verhältnis alles rausholt, was bei Vega 56 rauszuholen ist. Man braucht kein Effizienzfanatiker zu sein, um sich das zu wünschen.
 
Wer Effizienz will kauft sich aktuell wohl kaum eine AMD GPU x)
Ja die Treibergeschichten seit der R290 waren mitunter die Gründe wieso ich zur Konkurrenz gewechselt bin.
Das hatte AMD mal besser im Griff
 
Willkommen zu einer weiteren Runde des "Wie man einen GPU-Launch verkackt"-Workshops mit AMD.
 
Mcr-King schrieb:
Okay dann bitte einen nach Test aller Costums mit neuen Treiber danke für die Info.

Ich kann's langsam nicht mehr lesen...es heißt custom nicht costum das hat nichts mit Kostümen zu tun...wenn man Anglizismen verwendet dann bitte richtig. Am schlimmsten ist es bei Caramelito...der schreibt das andauernd so...
 
Ich finde die Effizienzdiskussion ein bisschen flach. Vega ist sehr effizient, wenn der Takt nicht gerade bei 1500MHz ist. Ich hatte ein Spiel gespielt, mit Framecap in 4k auf 57FPS um in FreeSyncRange zu sein und die Karte lief mit 800MHz. Mein Netzteil meldete mir 120Watt (im Idle habe ich 80Watt) Totalverbrauch. Ich will mal sehen, wie bei einem realistischen Test, wie diesem, Nvidia abschneidet. Maximallast haben wir ja schon tausend mal gesehen.

Ich glaube sogar Kaduri hat das mit dem Dynamikbereich kritisiert. Die Effizienz wird sich mit den Primitive Shadern sowieso nochmal ändern, wenn sie denn endlich kommen.
 
Zuletzt bearbeitet:
DasUnding schrieb:
Vega ist sehr effizient, wenn der Takt nicht gerade bei 1500MHz ist. Ich hatte ein Spiel gespielt, mit Framecap in 4k auf 57FPS um in FreeSyncRange zu sein und die Karte lief mit 800MHz.

Was für ein Spiel war das denn?

Ganz im Ernst, 800MHz ist nichts, womit man selbst ältere anspruchsvollere Spiele in 4K spielen könnte.
Man könnte jetzt mit Warframe kommen, da bin ich in 1440p mit 60fps Limit sogar bei nur 400Mhz.
4K mit 800Mhz könnte hier also klappen, aber versuche mit dem Takt mal ein Battlefield, Assassins Creed, GTA, Witcher ect. zu spielen.

Dass die Karte nur mit 800Mhz taktet bedeutet ja, die Karte läuft bereits nur mit halbem Takt und ist nicht mal damit ausgelastet, sonst würde sie ja höher takten, insgesamt ist sie also weniger als 50% ausgelastet.
Und das nennst du dann einen "realistischen" Test?
Für Spiele, in denen die Karte so taktet, holt man sich keine teure Vega.




1500Mhz ist nun mal grob der Bereich, in dem die Vega Karten zu ihrem Preis überhaupt konkurrenzfähig sind und es ist mit UV zudem noch der Sweetspot zwischen Leistung und Verbrauch.


Und ich glaube auch nicht, dass Pascal hier weniger effizient wäre. Im Gegenteil, sieht man die Unterschiede der Idle Last an(GTX1070 8W, Vega56 12W), dann ist es ziemlich sicher, dass die Nvidia Karten in diesem Szenario ebenfalls weniger verbrauchen.
 
Zuletzt bearbeitet:
Vega 56 hat 12 Vrms, damit ist im Leerlauf der Verbrauch höher, jedoch unter Volllast niedriger als mit weniger Vrms, da der Wirkungsgrad bei höherer Temperatur mit weniger Vrms schlechter ist als mit niedriger Temperatur mit mehr Vrms. D.h. das "Design" ist auf hohen Verbrauch ausgelegt.

Es läuft natürlich nicht jedes Spiel mit 800MHz in 4k mit 60Hz aber doch Einige. Warhammer: Spacmarine, Die DeadSpace Reihe, Dishonored usw.

Was ich damit sagen will: Es ist recht primitiv immer nur den Maximalwert zu vergleichen. Das ist exakt ein Punkt im Leistungsspektrum. Man könnte ja zumindest grob die Kurve abfahren um ein besseres Bild zu bekommen. In der Vergangenheit mag das Sinn gemacht haben, da die Karten immer zu langsam waren. Das ist aber immer weniger der Fall.

Beim Auto messe ich ja nicht nur den Verbrauch bergauf und postuliere dann eine allgemeine Aussag, obwohl ich weiß, dass Autos mit Getriebe X besser als mit Getriebe Y bergauf sind.

Wenn ich als Physiker in einem Leistungsspektrum nur einen Punkt messe und dann eine generelle Aussage mache, ist das nicht gerade glaubwürdig.

Z.B.: Welche Photodiode ist effizienter? X ist bei 12 Spannungseinheiten besser weil mehr Germanium drin ist (hypothetisch), aber Y ist bei 5 Einheiten besser. Was nehme ich nun?

Analogie: Ich messe z.B. die Masse eines Körper bei Geschwindigkeit 0 und postuliere, die Masse sei konstant, obwohl sie sich mit zunehmender Geschwindigkeit ändert. Dazu muss ich natürlich wissen, dass es solch einen Zusammenhang gibt, der aber in unserem Fall offensichtlich ist.

Man könnte nun z.B. einen Verbrauchsindex über das Spektrum erstellen, um eine Zahl über die gleich gewichteten oder realistisch gewichteten Verbrauchsstufen zu haben, die den täglichen, monatlichen oder jährlichen Mittelwert beschreibt.
 
Zuletzt bearbeitet:
alxtraxxx schrieb:
Wer Effizienz will kauft sich aktuell wohl kaum eine AMD GPU x)
Ja die Treibergeschichten seit der R290 waren mitunter die Gründe wieso ich zur Konkurrenz gewechselt bin.
Das hatte AMD mal besser im Griff

"Und täglich grüßt das Murmeltier " muss man hier im übertragenen Sinne schreiben . Denn das AMD Treiber Karussell
dreht sich schneller als man glauben kann . Ohne FreeSync Monitor würde ich wohl auch zu NVIDIA wechseln .

Jetzt startet der Browser wo man sich bedankt . Sollten sie doch lieber die Zeit aufwenden für sinnvolles .
 
WakeX schrieb:
Willkommen zu einer weiteren Runde des "Wie man einen GPU-Launch verkackt"-Workshops mit AMD.

Haha, exakt. Wieviel amateurhafter geht es eigtl noch? Anscheinend hat AMD sämtliches gutes Personal der Terascale- und early GCN Architekturen gefeuert und arbeiten nur noch mit Praktikanten.
 
Artikel-Update: Der Download des Treibers ist in der Nacht bereits freigegeben worden. AMD hat somit schnell reagiert, sollen ab 1. Dezember doch die ersten Custom Designs im Handel erhältlich sein. Neben dem Fix für die Custom Designs wurde auch ein Problem bei der Einstellung von HBCC behoben und der Support für die Beta von Oculus Core 2.0 und DOOM VFR integriert.
 
WakeX schrieb:
Willkommen zu einer weiteren Runde des "Wie man einen GPU-Launch verkackt"-Workshops mit AMD.

Was für ein Quatsch ist das denn bitte?

Die Custom-Modelle sollen frühestens ab 01.12.2017 verfügbar sein. Der Treiber wurde bereits jetzt gefixed, also vor dem Launch.
Also wurde hierdurch kein einziger Launch verkackt.
 
@MajorP ich denke wir sind an einem Punkt angelangt, wo es bereits als Fail gilt, wenn die Tester den funktionierenden Treiber nicht ab Tag 1 ihrer Testphase haben. Ist zwar traurig aber so scheinen Leute einfach zu denken.
 
Bringt der auch was bei der RX Serie?
 
ich glaube man kann den "fail" vorwurf schon alleine daran festmachen, dass es ein thema zu "amd" ist.

hier wird sich über bios switches, vulkan und schnellen treiber support beschwert ala: bios switch an der falschen stelle, vulkan nur gameworks für amd und zu viele treiberreleases.

ist echt ein affiges gebaren geworden hier.

ich für meinen teil finde es gut, dass amd hier so konsequent treiber updates nachschiebt. wäre schön, wenn man mal nicht mehr den overwatch bug in "known issues" lesen müsste und die letzten vega features freigeschaltet werden, aber aussagen im stil von "fail", "launch verkackt", "schlechte treiber", "amateurhaft" geben eigentlich mehr auskunft über den kommentator selbst als über amd.
 
Zurück
Oben