Test Pascal, Polaris und Vega im Test: Mit neuen Benchmarks und Treibern in das Jahr 2018

Ernsthaft, die 1030 hat keinen HW-Decoder? Ich finde die Karte so schon überteuert. Für Spiele unbrauchbar aber kostet 80 €. Für 30 mehr bekommt man schon die 1050 die doppelt so viel leistet und auch mit 1080p keine Probleme hat. Bei Maxwell hat sogar nur der GM206 einen echten HW-Decoder.
 
Leli196 schrieb:
Die RX Vega 64 kostet also nicht ungefähr 25 Cent pro Stunde mehr beim Spielen, sondern weniger als 4 Cent.
Wenn jemand bspw 3 Stunden an jedem Tag im Jahr zockt - was schon sehr viel ist - kostet eine RX Vega 64 rund 42 € mehr als eine 1080.
Wobei die Rechnung auch nicht stimmt (siehe Post 244). 14 € außerhalb der Heizperiode (ich gehe von 4 Monaten aus) und nur ein Bruchteil während der Heizperiode.
 
Zuletzt bearbeitet:
Doch, meine Rechnung stimmt durchaus. Ich bezog mich lediglich auf den Stromverbrauch der beiden Grafikkarten und nicht auf den gesamten Haushalt.

Ich halte es für unklug andere Faktoren wie die Heizung mit einzubeziehen. Was man im Winter durch die abgegebene Wärmeenergie der GPU spart, das bekommt man in den warmen Sommermonaten in Form von viel höheren Temperaturen im Zimmer wieder heimgezahlt, was einen dann entweder Geld kostet (wenn man eine Klimaanlage hat), oder Wohlbefinden.
 
Doch, meine Rechnung stimmt durchaus.
Logisch, dass Du von Deiner Meinung überzeugt bist. Das macht sie aber trotzdem nicht richtig.
Ich bezog mich lediglich auf den Stromverbrauch der beiden Grafikkarten und nicht auf den gesamten Haushalt.
Ich auch.
Ich halte es für unklug andere Faktoren wie die Heizung mit einzubeziehen.
Weil man damit den Nvidia-Fanboys auch ein Argument nimmt. Dennoch entspricht das der Realität, weil die Heizung entsprechend der Wärmeabgabe vom PC weniger heizen muss.
Und "viel höhere Temperaturen" hat man im Sommer bei 140 W mehr auch nicht, wenn schon die Sonne mit der zehnfachen Leistung (und das nicht nur für 3 Stunden) durch das Fenster in die Bude knallt (zzgl. Wärme über die Aufheizung der Außenwand).
 
Bitte nicht mit Logik und weiter Denken als bis Tellerrand kommen. Sonst fällt noch das eine wirklich wichtig Argument weg, das seit über 1 Jahr jetzt so ein fester Bestandteil der Diskussionen ist. ;)

Es ist immer wieder faszinierend, das wenn es kein anderes Argument gibt, irgend ein User wieder mit der Stromverbrauchs Argumentation anfängt. Und die lustigen Rechnungen dann immer.

Es gibt nur 1 Grund im Moment keine Vega zu kaufen. Und das ist der Preis der im Moment aufgrund der geringen bis keinen Verfügbarkeit vorherrscht. Alles andere ist aufgewärmter Mist von vor 3 Monaten bis 1 Jahr. Aber an irgendwas muss man sich ja immer aufhängen um überhaupt einen Grund zu haben, Vega/AMD Produkte nicht kaufen zu müssen (wo ich mir immer denke, es muss überhaupt keiner irgendwas kaufen) und dies auch allen anderen mit zu teilen. ;)
 
Also schafft die 1030 das doch. Wenn nicht hätte es mich auch echt verwundert. Wer kauft eine HDMI-2.0-Karte die keine 4K-Inhalte abspielt? Ich nehme trotzdem lieber Vorlieb mit einer gebrauchten 960. Die ist sogar günstiger, im Leerlauf ähnlich sparsam und schafft Spiele wie Warframe sogar in 4K. Die 1030 ist schwächer als eine 750 Ti.

Unterschätzt mal die Heizkraft einer Grafikkarte nicht. So ein 350-W-Ding, wie damals meine 780 Ti heizten immer enorm. Wenn man dann ein paar Stunden spielt merkt man das. Ich hatte immer so ein Lagerfeuer-Feeling beim Zocken. Pascal ist bedeutend energieeffizienter als AMD, die derzeit etwa auf Maxwell-Niveau liegen. Das wäre für mich auch das Hauptargument wenn man die TDP vergleicht. Der Stromverbrauch ist relativ egal, aber die Heizkraft nicht. Nicht jeder kann die Wärme aus dem Gehäuse schaffen. Und dann ist sie immer noch im Raum. Wenn sich die Hitze aber im Gehäuse staut wird es kritisch.

Woran liegt das eigentlich dass Vega nicht ausgeliefert wird? Zu wenig Chips? Auf Mindfactory sind sie mittlerweile nicht mehr erhältlich. Ich befürchte dass es nächstes Jahr genauso laufen wird, NVIDIA bringt wieder sein gesamtes Lineup völlig überteuert, AMD tut gar nichts. Nach einem Jahr hat sich dann jeder mit NVIDIA eingedeckt der Bedarf hat außer er ist ein Hardcore-Fanboy. Dabei verspricht Vega durchaus Potential, gerade die Vega 64 ist unter Umständen schneller als eine 1080 (auch wenn sie mehr verbraucht).
 
Dark_Knight schrieb:
Bitte nicht mit Logik und weiter Denken als bis Tellerrand kommen. Sonst fällt noch das eine wirklich wichtig Argument weg, das seit über 1 Jahr jetzt so ein fester Bestandteil der Diskussionen ist. ;)
Logik und Weiterdenken hat Leli196 bewiesen. Was Vindoriel macht ist Rosinenpickerei.

Der Effekt des Stromverbrauchs auf die Heizkosten ist minimal, denn mit Strom zu heizen ist sehr kostspielig. Das heißt von den 14€ fällt nicht ein Großteil weg, sondern der Großteil bleibt während der Heizperiode bestehen.

Bei seinem Sommerbeispiel wirft er dann alle Annahmen, die er für die Heizperiode gemacht hat, über den Haufen. So ging er davon aus, dass man im Winter die Temperatur exakt nachregelt, was im Sommer plötzlich nicht mehr wichtig zu sein scheint. Weiterhin geht er gleich vom Worst Case aus (Fenster gen Süden) und setzt auch noch ein Fehlverhalten im Bezug auch noch ein Fehlverhalten des Bewohners voraus (kein Abdecken der Fenster).
 
uploader77 schrieb:
Unterschätzt mal die Heizkraft einer Grafikkarte nicht. So ein 350-W-Ding, wie damals meine 780 Ti heizten immer enorm. Wenn man dann ein paar Stunden spielt merkt man das. Ich hatte immer so ein Lagerfeuer-Feeling beim Zocken. Pascal ist bedeutend energieeffizienter als AMD, die derzeit etwa auf Maxwell-Niveau liegen. Das wäre für mich auch das Hauptargument wenn man die TDP vergleicht. Der Stromverbrauch ist relativ egal, aber die Heizkraft nicht.
Das stimmt. Mein altes System mit FX-8350 + 7870 XT + OC hatte mich jeden Sommer richtig ins Schwitzen gebracht. Insbesondere die 7870 XT war eine richtige Heizung. Laut war sie auch.
 
@Vindoriel
Wenn du meinst, meine Rechnung (die eigentlich gar keine Meinung ist, sondern einfach nur rudimentäre Mathematik) sei falsch, kannst du ja gerne eine korrekte Rechnung aufstellen. Mehr als "du hast unrecht" kannst du aber auch nicht sagen.
Abgesehen davon sind 300 W Abwärme eines Computers enorm, vor allem im Sommer wo es eh schon sehr heiß in den Räumen ist. Aus Erfahrung kann ich sagen, dass es da schnell mal 5 °C wärmer wird, als wenn der Computer im Leerlauf oder aus ist.

Übrigens habe ich die Rechnung (offensichtlich) nur aufgestellt, um die Aussage "eine RX Vega 64 kostet pro Stunde 25 Cent mehr als eine 1080" zu widerlegen.


Dass Vega immer noch nicht richtig verfügbar ist und das zu vernünftigen Preisen, ist wirklich schade. So bleibt den meisten gar keine andere Wahl, als zu Nvidia zu greifen, selbst wenn sie lieber AMD kaufen wollen würden.
 
Mit einem 140-W-Prozessor merkt man es natürlich noch eher. Das System emittierte dauerhaft um die 400 W in den Raum. Wenn man zockt und schon nackt neben dem PC sitzt bei 30° wird es schnell unerträglich.

Das ist der Punkt. Eine sinnvolle Alternative ist Vega derzeit nicht. Wie meinen Bekannten, der eine R9 290 benutzt. Auf eine 580 zu wechseln wäre sinnfrei. Unter einer 1080 will er gar nicht anfangen. AMD hätte den Vorteil von Freesync, der aber bei den Preisen gar nicht mehr existiert, da man bei dem Aufpreis wahrscheinlich schon einen Monitor mit Gsync bekäme statt einem Normalen.
 
Hätte man im Sommer geschrieben, das Ende Dezember so gut wie keine Custom-Modelle von Vega gibt,( bei CaseKing gibt es die Gigabyte Radeon RX Vega 64 Gaming OC für schlappe 749€), wäre man vermutlich gesteinigt worden. Alleine diese Tatsache macht Vega zur Enttäuschung vieler die Monatelang auf Vega gewartet haben, sieht man sich nüchtern die Fakten an, liegt in der Summe der Dinge wie Preis, Leistung und Verfügbarkeit Pascal einfach vor Vega. Sollte im Januar 18 es endlich mit den Custom-Modelle langsam losgehen, bleibt nicht viel Zeit bis Ampere daher kommt, für Zocker die ausschließlich auf AMD setzen wollen, sind das keine guten Aussichten.
 
Als Polaris angekündigt wurde schrieben Leute in Foren die sei stärker als eine 1080. Und es las sich so, als würden sie das tatsächlich geglaubt haben. Ich habe aber keine Lust zwei Jahre zu warten.

Bei den CPUs läuft es ja wenigstens. Vielleicht kann AMD nicht an zwei Fronten gleichzeitig bestehen. Wünschenswert wäre es aber, weil dann auch NVIDIA die Preise senken müsste. Das sieht man ja bei Intel. Hätte AMD nichts gebracht würden wir nach 2020 noch Vierkerner benutzen. Jetzt ist richtig Bewegung im Markt und ich bekomme unter 300 € einen 8C/16T mit Intel-Leistung NEU!
 
Wäre für GPUs natürlich auch wünschenswert, vielleicht kommt ja mit Vega Refresh oder Navi eine bessere Verfügbarkeit der GPUs von AMD, Ryzen läuft ja sehr gut, vielleicht kann sich AMD jetzt mehr auf die Grafiksparte konzentrieren, den da scheint ja einiges schief gelaufen zu sein, was jetzt genau die Ursache der schlechten Verfügbarkeit der Vega GPUs war/ist werden wir wohl nie so ganz erfahren.
 
Leli196 schrieb:
Doch, meine Rechnung stimmt durchaus. Ich bezog mich lediglich auf den Stromverbrauch der beiden Grafikkarten und nicht auf den gesamten Haushalt.

Ich halte es für unklug andere Faktoren wie die Heizung mit einzubeziehen. Was man im Winter durch die abgegebene Wärmeenergie der GPU spart, das bekommt man in den warmen Sommermonaten in Form von viel höheren Temperaturen im Zimmer wieder heimgezahlt, was einen dann entweder Geld kostet (wenn man eine Klimaanlage hat), oder Wohlbefinden.

Es ist vollkommen korrekt bei den Energie Kosten die Heizkosten mit einzubeziehen, auch wenn man das bestenfalls abschätzen kann, denn für die Raumtemperatur ist es vollkommen egal wo die Wärme her kommt. In meiner besten Daddler Zeit hatte ich die größten Heizkostenrückzahlungen überhaupt. :lol:

Bei der Klimaanlage kann ich deinen Einwand ja noch nachvollziehen aber das Wohlbefinden...?
Wem trotz Belüftung zu warm ist läßt die Kiste doch eh aus, gerade weil das Zeil zusätzlich den Raum aufheizt udn wen das Teil aus ist frisst es keinen Strom.
 
Und da ja jeder hier seinen PC min. 3 Stunden am Tag unter Dauerlast laufen lässt und das 365 Tage im Jahr, ist das wie immer alles zu 100% der Realität entsprechend und jeder Haushalt benötigt sein eigenes Kernkraftwerk um überhaupt einen PC mit AMD Krafikkarten betreiben zu können.

Ich hoffe ja inständig, das hier die Stromnörgler ebenso bei allen anderen Haushaltsgeräten darauf achten wie hoch der Verbrauch ist und ebenso im ganzen Haus auf unnötigen Stromverbrauch verzichten (Weihnachtsbeleuchtung etc.). Ebenso auch das Auto mal lieber stehen lassen, die Heizung möglichst runter gedreht lassen, nicht jedes Jahr sich ein neues Smartphone zulegen, auf Einweg Flaschen verzichten, usw.

Weil wenn nicht, da sind diese ganzen Aussagen einfach nur heuchlerisch und ein vorgeschobener Grund.
 
Zurück
Oben