Test Radeon RX Vega 56 Strix im Test: Leiser Betrieb zu Lasten der Temperatur

Dabei seit
Apr. 2008
Beiträge
2.450
#81
Es wurde zumindest gezeigt, dass der SoC höher takten muss als der HBM. Der default Clock ist wohl 1107 MHz und wird dann dynamisch angehoben auf ~1200 wenn man mit HBM versucht höher zu kommen. Das war wohl anfangs ein Problem beim Vega HBM
übertakten wurde dann später eingeführt. Durch erhöhte SoC Geschwindigkeit wird mehr Sapnnung benötigt. Wenn man nun die "HBM Voltage" zu gering einstellt kann es wohl zu Problemem im System GPU <-> Interposer <-> HBM kommen. .....
Hey Danke! :)

Da muss ich wohl nochmal genauer rumprobieren. Eventuell finde ich ja eine Möglichkeit niedriger zu undervolten oder den HBM2 höher zu takten.

Mit ziemlich alten Treibern war für mich 1105MHZ HBM2 einstellbar und perfekt stabil. 5MHz mehr ging kein Stück...und wenn man die Performance in 5MHz Schritten getestet hat, zeigt sich, dass es nur stufenweise Änderungen gibt....1095 1100 und 1105 sind z.B. exakt gleich schnell....die Stufen sind aber unterschiedlich weit und unterschiedlich hoch...insgesammt aber eine lineare Leistungssteigerung in Furmark....mir war aufgefallen, das ich mit neueren Treibern bis 1195 MHz einstellen konnte, aber ab 1125 hatte ich in Witcher 3 Artefaktbildung.

Mit der Info, das der soc Clock sich jetzt ändert, muss ich das nochmal untersuchen...mit dem alten Treiber konnte ich auch nicht unter 1050mV GPU Voltage kommen...als einstellen schon aber es wurde nicht übernommen...egal was ich im Memory Bereich eingestellt hatte.
Eventuell hat sich das ja jetzt geändert.
 
Dabei seit
Mai 2007
Beiträge
5.700
#82
Hallo zusammen,

@ graysson

Da sind sie wieder, die Farbengeilblinden Fanboys.

Ich sehe schon ein paar Sachen, die gegen NVidia sprechen wie die ganze 970-Geschichte, wegen der ich von NVidia auf AMD gewechselt bin.
Was bitte hat Maxwell - also speziell die von dir erwähnte GTX 970 Sache - mit Pascal zu tun? Und wenn du gerade so schön am Aufzählen bist, ich könnte dir locker auch einiges Aufzählen, wo ATI respektive AMD sich nicht gerade mit Ruhm bekleckert hat. Warte Warte Warte, da war doch was, jaaaaa, genau. Das ist nicht mal lange her, die RX 480. Du erinnerst dich? Der Stromverbrauch im IDLE, der laut AMD per Treiber gefixt werden sollte. Noch Fragen?

Damit will ich Sagen, von denen nimmt sich keiner was. Die versuchen seit jeher uns Kunden zu Verarschen wo es geht, um nur irgendwie an unser Geld zu kommen. Und da gibt es keine einzige Ausnahme. Keiner von denen nimmt sich da was gegenüber dem anderen.

Ehrlich gesagt finde ich das Rumreiten auf den Stromverbrauch übertrieben. Zumal oft die Stock-Versionen bei NVidia sehr viel weniger und die AMD-Karten sehr viel mehr Verbrauchen.
Laß mich doch mal Raten, du zahlst deinen Strom nicht selbst, hmmm? Schau, wenn ein Mitbewerber eine Karte aus ähnlichem Preissegment hat, die locker über 100 Watt mehr Strom zieht, merkt man das einfach im Geldbeutel. Und nicht nur, wenn man seinen Strom selbst zahlt. Wobei 100 Watt je nach Modell noch niedrig gegriffen sind. Von der Abwärme will ich gar nicht erst Anfangen, daran denken die meisten in dem Zusammenhang nicht einmal. Und ich will nicht mal Anführen, daß die Karte mit dem eklatant niedrigeren Stromverbrauch dann auch noch schneller ist.

Einem Spieler kann es aber eigentlich egal sein, solange das Netzteil ausreichend groß ist.
Ja nun, da hast du ja mal ein Argument angeführt. Bei nicht wenigen Leuten kommt beim Kauf einer Vega 64, oder eben Vega 56, nämlich in nicht wenigen Fällen auch noch der Kauf eines Netzteils dazu, aufgrund des exorbitant erhöhten Stromverbrauchs. Einem Spieler kann es also alles andere als egal sein, wenn mit den Zusatzkosten zum erhöhten Stromverbrauch auch noch die Kosten für ein Neues Netzteil dazu kommen. Und ich schätze ehrlich gesagt, daß u. a. deswegen nicht wenige eher zu Pascal Karten gegriffen haben.

So long....
 
Zuletzt bearbeitet:

Retro-3dfx-User

Lt. Junior Grade
Dabei seit
März 2017
Beiträge
350
#83
559€ für die Red Devil Vega64 von Mindfactory im Dezember und ich lache immernoch!
Ichill+Frametarget, Vsync und Effiziens sowie Stromverbrauch stehen im durchschnitt einer 1080 teils deutlich besser gegenüber...
 
K

kavaciko

Gast
#84
Ich hatte mich zu Beginn auf diese Karte sehr gefreut. Ich habe halbes Jahr gewartet und dann mich damals für die 1070 entschieden. Ich finde AMD hat super Ideen, aber die Umsetzung ist nicht immer das beste. Ich werde mich für die Zukunft glaube ich von AMD distanzieren. Auch meine Ryzen Plattform macht mir im Augenblick nur ärger. Bei Intel hatte ich diese ganzen Probleme nicht und AMD Grafikkarten im Vergleich zu Nvidia hängen einfach stark hinterher. Wenn ich meine 1070 mit der RX 580 von meinem Cousin vergleiche, ist meine 1070 einfach viel leiser und beide Karten verbrauchen gleichviel Strom, trotz das die 1070 viel mehr Leistung hat. Ich sehe für AMD keine positiven Argumente mehr. Ich war mal echt ein großer Fanboy aber da gibts nichts mehr zum Fan sein :)
 
Dabei seit
März 2006
Beiträge
2.377
#85
Was bitte hat Maxwell - also speziell die von dir erwähnte GTX 970 Sache - mit Pascal zu tun?
Was hat bitte eine Nvidia Grafikkarte mit einer andere Nvidia Grafikkarte zutun? Richtig, das Unternehmen Nvidia!

Jedenfalls schön zu wissen, dass es noch Konsumenten gibt, die Unternehmen für ihre Fehler auch bestrafen können anstatt zu belohnen. Wenn du das anders machst und alle über einen Kamm scherst, brauchst du dich in Zukunft über solche Aktionen von Nvidia (und ganz andere in Vergangenheit) nicht zu wundern. Ich kann mich zumindest über keine Aktionen von AMD erinnern, wo bei kaufbaren Karten am Markt vorsätzlich über Spezifikationen gelogen wurde und dann heruntergespielt. Bei Nvidia ist es bereits die zweite Karte mit vorsätzlich falschen Spezifikationen (GTX660). Zudem wüsste ich auch nicht, wo AMD proprietäre Technologien in den Markt drückt (schadet schließlich auch allen Kunden) oder wo Nvidia sich für OpenSource einsetzt. Und DX12 ist noch so eine Sache. Wenns bei Nvidia nicht läuft, brauchts der Markt nicht.


@kavaciko
keine Ahnung was du für Probleme mit AMD etc. hast, aber wer eine GTX 1070 gegen eine RX 580 vergleicht braucht sich nicht wundern, dass er seinen Ryzen nicht problemlos zum laufen bekommt.
 
Zuletzt bearbeitet:
Dabei seit
Mai 2007
Beiträge
5.700
#86
Hallo zusammen,

@ berkeley

Jedenfalls schön zu wissen, dass es noch Konsumenten gibt, die Unternehmen für ihre Fehler auch bestrafen können anstatt zu belohnen.
Wer sagt, daß ich das anders mache? Ansonsten wieder einmal typisches Fanboytum von dir, wie man es kennt. Dies obzwar ich klar aufzeigte, daß sich keiner der beiden Akteure was nimmt mit ihrem Gebaren.

Ich kann mich zumindest über keine Aktionen von AMD erinnern, wo bei kaufbaren Karten am Markt vorsätzlich über Spezifikationen gelogen wurde und dann heruntergespielt.
Dann hast du ein ganz schönes Problem mit deinem Erinnerungsvermögen. Oder anders ausgedrückt, deine Farbengetönte Brille läßt anderes nicht zu offenbar.

@ kavaciko

Wenn ich meine 1070 mit der RX 580 von meinem Cousin vergleiche, ist meine 1070 einfach viel leiser und beide Karten verbrauchen gleichviel Strom, trotz das die 1070 viel mehr Leistung hat.
Der Gegner der RX 580 ist im eigentlichen Sinn die GTX 1060. Der Vergleich ist also nicht gerade Glücklich gewählt. Allerdings dann wieder schon, wenn man sieht, daß beide einen ähnlichen Stromverbrauch haben und die GTX 1070 deutlich schneller ist dabei. Und natürlich mehr als deutlich Leiser.

So long....
 
Dabei seit
Apr. 2008
Beiträge
2.450
#87
@Luxmanl525

Man muss kein fanboy oder miner sein um sich Vega zu kaufen.
Ich sehe zwar Nvidia kritisch wegen dem gameworks Mist. Aber mir ist klar, das AMD nicht die Unschuld vom Lande ist.

Und es gibt gute Gründe gegen Vega...ich denke die sind inzwischen oft genug erwähnt worden ;).

Aber als Technik interessierter bietet Vega sehr viel zu entdecken. Zu testen und zu optimieren.... mir war es die 730€ für die 64LC Version wert.

Eine Nvidia Karte ist einfach langweilig. Die mag überall gut laufen und weniger Energie brauchen.....aber spiele laufen auch auf Vega gut...der Verbrauch mag höher sein, aber des Geldes wegen stört mich das nicht. Was sind denn 100-150W mehr für ein paar Stunden die Woche? Lächerlich was das kostet.

Den Punkt der Kühlung und der Wärmeentwicklung im Sommer lasse ich aber gelten.;)

Ich würde Vega keinem Bekannten empfehlen, der nur spiele möchte und sonst keine Ahnung hat. Aber es gibt durchaus Kunden wie mich, die Spaß an etwas nicht so weichgespültem haben.

Ich bin allerdings auch letztens einen golf mit DSG gefahren und war angeekelt von dem Fahrgefühl;)....viele deutschen scheint das aber zu gefallen.
 

Darkseth88

Fleet Admiral
Dabei seit
Nov. 2010
Beiträge
11.078
#88
559€ für die Red Devil Vega64 von Mindfactory im Dezember und ich lache immernoch!
Ichill+Frametarget, Vsync und Effiziens sowie Stromverbrauch stehen im durchschnitt einer 1080 teils deutlich besser gegenüber...
Darf ich auch ne runde Lachen?

Meine GTX 1080 verbraucht auch nur 60 Watt, wenn ich League of Legends zocke. :freak:

Bei gleicher gelieferten Leistung wird eine 1080 deutlich sparsamer sein.
Wenn deine RX 64 dank v-Sync nur noch 60 fps liefern muss, statt 100, trifft das auch auf die GTX 1080 zu.

Und rate mal, Undervolten geht auch bei Pascal ;-)
Ich krieg meine 1080 bei max paar % Leistungsverlust auf <130-140 Watt unter voller Last dauerbelastung. Du deine Vega 64?
Dabei ist meine noch etwa so schnell, wie ne referenz Vega, die 300w schluckt vor dem optimieren.

Es sei denn, du kannst dafür mal einige belege nennen? ^^ Würde da gerne mal paar werte + vergleiche zur 1080 haben.

Appropos: Frametarget brauchst nicht, wenn du V-Sync an hast.
Und, wenn dir nur ein Bruchteil der Leistung genügt hättest ja auch ne günstigere Karte kaufen können?

Interessant wird es in szenarien, wo die karte nicht nur auf 40% gedrosselt läuft, dank frame limit etc.
 
Dabei seit
Mai 2007
Beiträge
5.700
#89
Hallo zusammen,

@ Baal Netbeck

Man muss kein fanboy oder miner sein um sich Vega zu kaufen.
Nein, das ist auch nicht meine Auffassung. Ich halte Vega auch nicht für einen kompletten Reinfall, was ich übrigens in mehreren Beiträgen in den entsprechenden Threads auch schon dargelegt hatte. Es kommt halt auch auf die Gewichtung an. Eine Vega 56 ist in meinen Augen nicht Unattraktiv, je nach Modell. Es kommt halt auch sehr auf das Modell an. Ich selbst habe übrigens extra auf Vega gewartet. Und nicht zugeschlagen, weil der Preis unattraktiv war bzw. ist und weil ich eine andere Gewichtung habe.

Eine Nvidia Karte ist einfach langweilig.
Das ist doch Okay. Du hast eine andere Gewichtung. Du experimentierst gerne. Kein Problem. Wenn man Optimiert, sind einige Vega Modelle ja auch für mich zu Passablem Stromverbrauch in Relation zur Performance zu bringen. Aber wie gesagt, ich habe keine Lust, noch rumzupfriemeln und der Stromverbrauch in Relation zur Performance Respektive Effizienz ist mir zu hoch. Was noch dazu kommt, nur am ersten Tag war Vega zu dem Preis zu kriegen, wie sie gedacht war. Ich denke im Großen und Ganzen, daß AMD sich das auch im Endergebnis anders vorgestellt hat. Und nicht zu vergessen, die Pascal Modelle kann man auch noch Optimieren. So daß im Endeffekt alles wieder im gleichen Verhältnis ist.

Ich sehe zwar Nvidia kritisch wegen dem gameworks Mist. Aber mir ist klar, das AMD nicht die Unschuld vom Lande ist.
Ja eben, wie ich schon sagte, von denen nimmt sich keiner was gegenüber dem anderen. Ich hatte übrigens weit mehr ATI / AMD Karten als Nvidia Karten. Und bin eigentlich so eingestellt, wenn die Relation in etwa stimmt, eher zum Underdog zu Greifen. Aber das ist bei den GPU`s leider nicht Gegeben im Großen und Ganzen, wohlgemerkt bei meiner Gewichtung.

So long...
 
Zuletzt bearbeitet:
Dabei seit
März 2006
Beiträge
2.377
#90
Dann hast du ein ganz schönes Problem mit deinem Erinnerungsvermögen. Oder anders ausgedrückt, deine Farbengetönte Brille läßt anderes nicht zu offenbar.
Na dann hilf mir bitte auf die Sprünge. Du redest von 40W Idle Verbrauch einer 480. Keine Ahnung auf welchem Planeten sie 40W verbraucht, auf der Erde zw. 16-20W.
Was der Hersteller im Nachhinein "verspricht" oder ankündigt ist die eine Sache. Man entscheidet sich ob man einem Hersteller Vertrauen schenkt oder lieber abwartet bis dieser das angekündigte auch liefert. Jedoch kauft man eine Karte zum Kaufzeitpunkt bewusst und explizit OHNE dieses Feature. So wie Nvidia die magischen DX12 Treiber für Maxwell versprochen hat.
 
Zuletzt bearbeitet:
Dabei seit
Mai 2007
Beiträge
5.700
#91
Hallo zusammen,

@ berkeley

Na dann hilf mir bitte auf die Sprünge. Du redest von 40W Idle Verbrauch einer 480.
Nein. Du liegst da völlig Falsch. Die RX 480 hat im IDLE ca. 16 Watt gezogen und keiner konnte erklären woher das kommt. Wohingegen Pascal ca. 8 - 10 Watt im IDLE. AMD wollte die Choose per Treiber Fixen. Bis heute ist das nicht geschehen. Ich meine, das ist ja nichts Neues und wenn du mal in den entsprechenden Threads schaust, wirst du feststellen, daß ich schon direkt seinerzeit meine Meinung äußerte, daß da nichts mehr Passieren wird. Damit will ich das jetzt nicht über die Methodik des Mitbewerbers stellen, sondern einfach aufzeigen, daß sich die nichts Nehmen. Keiner von denen.

Fahr dich jetzt nicht daran fest. Es gibt genug andere Böcke aus der Vergangenheit, die man stellvertretend einsetzen könnte. Egal von wem.

So wie Nvidia die magischen DX12 Treiber für Maxwell versprochen hat.
Ja, ganz genau. Das ist auch so ein Bock. Ein weiteres Beispiel dafür, daß sich keiner da was ausnimmt. Deshalb verstehe ich auch nicht im Großen und Ganzen, wie hier ständig solche Fässer aufgemacht werden, wo beide in der Gegenwart, oder eben in der Vergangenheit, ähnlich die Leute für Dumm und dämlich zu Verkaufen suchten.

So long...
 
Zuletzt bearbeitet:
Dabei seit
März 2006
Beiträge
2.377
#92
Du kannst nicht pauschan Äpfel mit Birnen vergleichen und Nvidia sowie AMD über einen Kamm scheren. Fakt ist, AMD hat eben noch nie über die Spezifikationen einer Karte gelogen und diese nach Releas als "Fehler" betitelt.

Nvidia und AMD sind sich nicht ansatzweise gleich. AMD geht einen ganz anderen Weg im Bezug auf Software und Hardware als Nvidia oder auch Intel.

AMD orientiert sich an offenen Standards (oder zumindest an einheitlichen) bei Software und Hardware um für fairen Wettbewerb und niedrigere Preise zu sorgen anstatt Soft- und Hardware über proprietäre Technologien ausschließlich an sich zu binden und den Fortschritt effektiv zu verhindern indem man andere ausschließt (Beispiele AdaptiveSync, OpenCL, DirectCompute, DX12, Vulkan aus Mantle, TressFX usw.)
Nvidia forciert lieber Technologien wie GSync, Cuda, GameWorks (inkl. HairWorks) die alle ausschließlich an die eigenen Grafikkarten gebunden werden und nimmt freie Stadards (adaptiveSync) nicht mal auf. Optionen wie sinnlos 64xTessellation in GameWorks etc. bremsen die Konkurrenz. Der Konsument macht es mit...
 
Zuletzt bearbeitet:

graysson

Lt. Junior Grade
Dabei seit
März 2010
Beiträge
318
#93
Hallo zusammen,

@ graysson

Da sind sie wieder, die Farbengeilblinden Fanboys.

Ich frage mich, wie man jemanden, der bis vor ca. 3 Jahren nur NVidia hatte und jetzt erst AMD,
als AMD-Fanboy bezeichnen kann


Was bitte hat Maxwell - also speziell die von dir erwähnte GTX 970 Sache - mit Pascal zu tun? Und wenn du gerade so schön am Aufzählen bist, ich könnte dir locker auch einiges Aufzählen, wo ATI respektive AMD sich nicht gerade mit Ruhm bekleckert hat. Warte Warte Warte, da war doch was, jaaaaa, genau. Das ist nicht mal lange her, die RX 480. Du erinnerst dich? Der Stromverbrauch im IDLE, der laut AMD per Treiber gefixt werden sollte. Noch Fragen?

Ich wurde bei der 970 beschissen. Und zwar so extrem, dass ich sogar nach deutschem Recht einen Sachmangel geltend machen konnte und vom Vertrag zurücktreten konnte. Das ist mir bisher von keinem andren Hersteller bekannt.

Damit will ich Sagen, von denen nimmt sich keiner was. Die versuchen seit jeher uns Kunden zu Verarschen wo es geht, um nur irgendwie an unser Geld zu kommen. Und da gibt es keine einzige Ausnahme. Keiner von denen nimmt sich da was gegenüber dem anderen.

Es stimmt zwar, dass alle nur unser Geld wollen...Ich differenziere aber doch schon etwas zwischen so etwas mit der 970 oder auch Milliardenstrafen gegen Intel wegen unlauterem Wettbewerb und Herstellern, die etwas nicht gebacken kriegen wie z.B. bei der Vega die Verfügbarkeit/Preis/Leistung etc.

Laß mich doch mal Raten, du zahlst deinen Strom nicht selbst, hmmm? Schau, wenn ein Mitbewerber eine Karte aus ähnlichem Preissegment hat, die locker über 100 Watt mehr Strom zieht, merkt man das einfach im Geldbeutel. Und nicht nur, wenn man seinen Strom selbst zahlt. Wobei 100 Watt je nach Modell noch niedrig gegriffen sind. Von der Abwärme will ich gar nicht erst Anfangen, daran denken die meisten in dem Zusammenhang nicht einmal. Und ich will nicht mal Anführen, daß die Karte mit dem eklatant niedrigeren Stromverbrauch dann auch noch schneller ist.

Doch...mit über 40 Jahren auf dem Buckel muss ich meinen Strom selber zahlen. Man kann übrigens den Stromverbrauch von Vega extrem senken ohne großen Leistungsverlust. Imho sogar fast auf 1070 Niveau.

Ja nun, da hast du ja mal ein Argument angeführt. Bei nicht wenigen Leuten kommt beim Kauf einer Vega 64, oder eben Vega 56, nämlich in nicht wenigen Fällen auch noch der Kauf eines Netzteils dazu, aufgrund des exorbitant erhöhten Stromverbrauchs. Einem Spieler kann es also alles andere als egal sein, wenn mit den Zusatzkosten zum erhöhten Stromverbrauch auch noch die Kosten für ein Neues Netzteil dazu kommen. Und ich schätze ehrlich gesagt, daß u. a. deswegen nicht wenige eher zu Pascal Karten gegriffen haben.


Die meisten Leute haben ein sehr überdimensioniertes Netzteil...außer sie haben einen Rechner von der Stange oder betreiben Stromsparen als Hobby (wobei die Kosten für für stromsparende Hardware meist den eingesparten Strom um ein vielfaches übersteigen). Mein fast 10 Jahre altes 750 Watt Netzteil hätte sogar auch die Vega verkraftet. Habe mir trotzdem jetzt mal ein 850W Seasonic mit Titanium Effizienz geholt.

So long....
...
 
Dabei seit
Mai 2007
Beiträge
5.700
#94
Hallo zusammen,

@ berkeley

AMD hat eben noch nie über die Spezifikationen einer Karte gelogen und diese nach Releas als "Fehler" betitelt.
Wir hatten ja schon die RX 480 im Bezug auf den IDLE Verbrauch. Es gab bei der Karte aber noch ein viel kritischeres Problem. Und da wurde die PCI-Express Spezifikation verletzt. Du erinnerst dich? Dies konnte nur durch solche Webseiten wie HardTecs4u verifiziert werden. Also wie gesagt, die nehmen sich da nichts.

AMD orientiert sich an offenen Standards (oder zumindest an einheitlichen) bei Software und Hardware um für fairen Wettbewerb und niedrigere Preise zu sorgen
AMD hatte in der Vergangenheit auch die höchsten Preise für ihre GPU`s verlangt, wenn der Mitbewerber geschlagen wurde. Ich hatte mehr ATI / AMD Karten als Nvidia Karten. Ich kann dir sogar Sagen, wann das war und mit welcher Karte. AMD ist kein Robin Hood-Verein. Aber okay, wenn du das so siehst, ist das in Ordnung.

@ graysson

Ich wurde bei der 970 beschissen. Und zwar so extrem, dass ich sogar nach deutschem Recht einen Sachmangel geltend machen konnte und vom Vertrag zurücktreten konnte. Das ist mir bisher von keinem andren Hersteller bekannt.
Ist doch okay. Das freut mich für dich. Mein Einwand, mein Passus, bezog sich aber schlicht darauf, daß Nvidia nicht alleine mit fragwürdigen Methoden agiert. Sondern ATI / AMD sich da ebenfalls nicht mit Ruhm bekleckert, keiner da eine Ausnahme darstellt.

Ich differenziere aber doch schon etwas zwischen so etwas mit der 970 oder auch Milliardenstrafen gegen Intel wegen unlauterem Wettbewerb und Herstellern, die etwas nicht gebacken kriegen wie z.B. bei der Vega die Verfügbarkeit/Preis/Leistung etc.
Da findest du mich völlig auf deiner Seite. Und die Milliardenstrafen seinerzeit waren noch viel zuwenig. Denn AMD war seinerzeit bei den CPU`s lange Technologieführer und durch kriminelle Methoden im Prinzip um die Früchte ihrer Arbeit gebracht worden. Aber das war halt bei den CPU`s. Und einmal mehr ein Beispiel dafür, daß in dem Segment eben jeder zu eher fragwürdigen Methoden greift, wenn irgendwie machbar. Das ist ja geradezu ein Paradebeispiel.

Man kann übrigens den Stromverbrauch von Vega extrem senken ohne großen Leistungsverlust. Imho sogar fast auf 1070 Niveau.
Du hast nicht Unrecht. Das bestreitet auch im Kern keiner. Allerdings darfst du nicht vergessen, daß die Pascal Modelle sämtlich auch Extrem Optimierbar sind und das Verhältnis dann wieder in der gleichen Relation ist. Bei manchen Modellen sogar noch Extremer. Schau dir nur mal hier im Forum die Beiträge einiger an, die Pascal Modelle Undervolted haben. Aber wie ich schon sagte, es ist auch eine Frage der Gewichtung. Ich halte Vega nicht für komplett Fail.

Die meisten Leute haben ein sehr überdimensioniertes Netzteil...außer sie haben einen Rechner von der Stange oder betreiben Stromsparen als Hobby (wobei die Kosten für für stromsparende Hardware meist den eingesparten Strom um ein vielfaches übersteigen). Mein fast 10 Jahre altes 750 Watt Netzteil hätte sogar auch die Vega verkraftet. Habe mir trotzdem jetzt mal ein 850W Seasonic mit Titanium Effizienz geholt.
Das mag vielleicht für Leute hier auf CB Stimmen. Die meisten haben aber Netzteile die zwischen 400 - 500 Watt Liegen. Und ich rede eher nicht von Modellen von BeQuiet oder Seasonic. Schau nur mal hier im Forum bei den Beiträgen, wieviele Leute mit ihren Xilence etc. Teilen hier aufschlagen.

So long...
 
Zuletzt bearbeitet:

neofelis

Lt. Commander
Dabei seit
März 2008
Beiträge
1.272
#95
Dabei seit
März 2006
Beiträge
2.377
#96
@Luxmanl525
Seit wann ist der Idle-Verbrauch eine zugesicherte Spezifikation oder überhaupt "fest" in Hardware? Bei dem PCIe Verbrauch hat auch niemand "gelogen" sondern der Verbrauch lang zw. 150-160W wodurch bis zu 10W mehr ausm PCIe gezogen wurde, was jedoch absolut unproblematisch war/ist. Als Kunde konnte man nach den Tests dafür oder dagegen entscheiden. Ist es aber eine Hardware-Spezifikation? Oder konnte das Problem innerhalb von wenigen Tagen durch Software behoben werden? Bei Nvidia kam es monate später, wurde nur zufällig entdeckt, sollte vertuscht werden, ist ein "Hardware-Feature"... Am Ende gab es teilweise Rücknahmen der Karten, gab auch rechtlichen Druck. Ist also schon noch etwas anderes.

Ich habe auch nichts dagegen wenn Unternehmen entsprechend der Nachfrage und der Marktlage ihre Preise gestalten. Wie sollte es auch anders sein. Entscheidend ist aber die Unternehmensphilosophie und Ausrichtung. Wie gesagt, bei AMD eben OpenSource was für mich langfristig besser ist. Bei Nvidia eben proprietär, kurzfristig sicher "cool" aber langfristig würde ich mich als Kunde abhängig machen. Deshalb auch keine Unterstützung für Nvidia.
Dass sie z. B. 900€ für ihre GTX1080ti verlangen sehe ich absolut unkritisch. Angebot & Nachfrage. Wenn es nichts konkurrenzfähiges gibt, warum sollten sie die Karte "verschleudern"? Wenn es niemanden gäbe der sich die Karte kaufen/leisten will, würden sie auch mit dem Preis runter gehen.
 
Zuletzt bearbeitet:
Dabei seit
Mai 2007
Beiträge
5.700
#97
Hallo zusammen,

@ berkeley

Seit wann ist der Idle-Verbrauch eine zugesicherte Spezifikation oder überhaupt "fest" in Hardware?
Völlig Falsch. Wir Reden hier von 2 Paar verschiedenen Schuhen.

Bei dem PCIe Verbrauch hat auch niemand "gelogen" sondern der Verbrauch lang zw. 150-160W wodurch bis zu 10W mehr ausm PCIe gezogen wurde, was jedoch absolut unproblematisch war/ist.
Das ist es eben nicht. Deswegen gibt es ja eine solche Spezifikation. Es kann zu Schäden an der Hardware kommen, zugegeben im Extremfall. Und es wurde auch nicht nach wenigen Tagen mit Software Behoben. Erinnere dich, AMD hat als Reaktion auf die Problematik einen sogenannten "Kompatibilitäts-Modus" im Treibermenü eingeführt. Und die Pointe ist, dieser wurde nicht Standardmäßig Aktiviert. Erst wenn man den Modus aktivierte, wurde die Spezifikation eingehalten.

Aber jetzt kommt der Knackpunkt, damit einhergehend wurde die Karte eingebremst. Dieser Modus kostete bzw. kostet Leistung. Eine gewisse Analogie zu der GTX 970 ist nicht ganz von der Hand zu Weisen. Es ist auch kein Zufall, daß die RX 480 relativ schnell vom Markt verschwand und durch die RX 580 ersetzt wurde. AMD wollte kein Risiko eingehen. Wie ich schon mehrmals äußerte, keiner von denen nimmt sich vom "Bock Schießen" aus.

So long...
 
Zuletzt bearbeitet:

cruse

Vice Admiral
Dabei seit
Sep. 2013
Beiträge
6.605
#98

Bairok

Cadet 4th Year
Dabei seit
Juli 2015
Beiträge
104
#99
Top