News AMD-Grafikkarten: Performance pro Watt für Radeon ab 2016 verdoppelt

DrToxic schrieb:
Beim Strommix von 2013 wird 559g/kWh Strom angegeben (wenn man Ökostrom gebucht hat, natürlich viel weniger). Die o.g. 1,41kg CO2 entsprechen umgerechnet im Mix also 2,52kWh. Wie man also sieht, muss man eine Karte mit 100W Mehrverbrauch unter Last etwa 25 Stunden in Furmark laufen lassen, damit die CO2-Differenz auch nur einer Stunde Rad fahren oder 12km Auto fahren entspricht.

Verdammt hab 100% Wasserkraft Strom gebucht. 1h Radeln, aber das eher um die 200-250W, hab ich zumindest jeden Werktag.
Ich wusste es, ich bin ein Klimakiller :D

ToniMacaroni schrieb:
Zur Effizienz: da kann man sich den Mund fusselig reden, ob das ins Gewicht fällt oder sich bei den Anschaffungskosten amortisiert. Der Markt verlangt danach, egal ob das nun rational erklärbar ist oder nicht. AMD sollte sich besser auf diese Gegebenheiten einrichten.

Ja das ist leider so, wie bei den Autos. Fast nur noch Vierzylinder-Turbos, halt verschieden stark aufgeblasen. Schöne Vielfalt :( Kaum mehr Reihensechser von BMW, auch Volvo hat soweit ich das sehe keine Fünfzylinder mehr :(
 
MichiSauer schrieb:
Bezieht man es auf gpu-computing s,d die karten sogar höchst ineffizient.
.

Das ist einfach falsch. Meine BOINC Projekte laufen schneller\gleich schnell als mit der 780 Ti und verbrauchen dabei etwa 60W weniger. 980 eignet sich hervorragend für Computing.
 
Zuletzt bearbeitet von einem Moderator:
ToniMacaroni schrieb:
So siehts aus. AMD muss erstmal die Stromsparmechanismen von Maxwell abkupfern, ich hoffe, dass das bei Fiji geschehen ist. Genug Zeit hatten sie.

Ist das dein Ernst? :lol: Wenn AMD sein PowerTune verbessert, seine Spannungsregelung sensibler macht, dann haben sie abgekupfert oder was? Ihr grünen Fanboys glaubt wahrscheinlich auch, Nvidia hätte die GPU erfunden!

Tja und Nvidia muss dann erstmal die HBM Technik von AMD abkupfern ;)
 
Scheiß auf Watt, ich will Leistung.
 
Krautmaster schrieb:
ich lese aus der News und aus vielem was AMD heute von sich gab dass 2016 wohl AMDs Jahr wird. ;)

Auch les ich da schlicht raus dass man mit Fiji + HBM vermutlich kein Durchbruch bei der Effizienz einhergeht (Maxwell find ich für dieselben 28nm als schon erstaunlich effizient. Ich mein Nvidia hat mit Maxwell fast das geschafft was nun AMD mit Shrink für 2016 ankündigt), viel eh......

Sagmal Krauti, fällt die selbst eigentlich nicht auf, dass du ALLES schlecht redest, was von AMD kommt? Kannst du mal ausnahmsweise nicht so viel von deinem AMD-Pessimismus hineininterpretieren? :rolleyes:
Maxwells Vorteil ist die sensible Spannungsregelung, das hat Igor Wallossek von Toms Hardware schon hinreichend erläutert, ich wüsste nicht warum AMD sein PowerTune nicht entsprechend optimieren könnte. So, und bleiben wir mal fair und vergessen nicht, dass der GK110 der eigentliche Konkurrent des Hawaii Chips ist.

Ja, AMD's Antwort auf Maxwell verspätet sich, aber das kann nun mal vorkommen, wenn man eine Innovation wie HBM einführt.
Wenn Fiji's TDP tatsächlich bei 300W liegt, dann wäre das eine gewaltige Effizienzsteigerung gegenüber Hawaii, dessen TDP AMD mit 290W angibt. Bei AMD ist damit aber die maximal mögliche Wärmeabgabe gemeint, während Nvidia's TDP's best Case Szenarios darstellt. So hat zB die R9 285 laut AMD eine TDP von 190W, Nvidias 970 aber angeblich 145W, im Gaming Loop verbrauchen beide GPUs aber etwa 170W.

Im Artikel steht, dass AMD's 14nm GPUs 2016 eine doppelt so hohe Leistung/Watt bieten werden wie die aktuellen. Nicht mehr und nicht weniger ;)
 
Brauche noch eine Wohnzimmerheizung für nächsten Winter. Wenn dabei noch Rechenleistung rauskommt, umso besser :evillol:
 
Necareor schrieb:
Diesen Dialog könnte man sicherlich gut bei der Wikipedia-Definition für "Fanboy" einpflegen. :p

Wobei ich zwar AMD Produkte bevorzuge, aber kein Fanboy bin. Es gibt einen großen Unterschied zw. "Fan" und "Fanboy". Ich muss keine Lügen über Nvidia erzählen und mich als Besitzer einer AMD Karte besser zu fühlen. Und ich kann sehr gut mit Fakten umgehen. Das Problem ist natürlich, dass viele ihr Halbwissen als Fakten verstehen. Während ich mich auf seriöse Reviews und meinen logischen Verstand verlasse.

Was ich da oben geschrieben habe, ist eine sarkastische Antwort auf den ziemlich hohlen Kommentar von Tonimacaroni.
 
Das war gar nicht wirklich gezielt an dich gerichtet, schon gar nicht böse oder abwertend. Tut mir Leid, wenn das so rüberkam. Ich fand diese beiden Kommentare zusammen einfach echt witzig.
 
Was ich an den Angaben auf der Folie von AMD noch nicht so ganz verstehe ist auf was sich die Effizienzverdopplung bezieht.
Falls es bezogen ist auf die aktuelle Generation von Hawaii und Co., wäre es meiner Ansicht nach etwas enttäuschend, da dies voraussichtlich alleine durch den verkleinerten Prozess zustande kommen würde und keine/kaum Verbesserungen an GCN zu erwarten wäre.
Ist jedoch der Sprung zwischen Fiji und Arctic Island gemeint, wäre dies deutlich positiver und man müsste abwarten was Fiji bringt.
 
radical1983 schrieb:
Was ich an den Angaben auf der Folie von AMD noch nicht so ganz verstehe ist auf was sich die Effizienzverdopplung bezieht.
Falls es bezogen ist auf die aktuelle Generation von Hawaii und Co., wäre es meiner Ansicht nach etwas enttäuschend, da dies voraussichtlich alleine durch den verkleinerten Prozess zustande kommen würde und keine/kaum Verbesserungen an GCN zu erwarten wäre.
Ist jedoch der Sprung zwischen Fiji und Arctic Island gemeint, wäre dies deutlich positiver und man müsste abwarten was Fiji bringt.

100% weniger Leistungsaufnahme allein durch den Sprung auf 14nm? Ne, wohl kaum. Und was wäre so enttäuschend an einer 125W Karte mit der Leistung einer R9 290X?
 
Da hast du einfach eine andere Ansicht zu diesem Thema als ich.
Unter Berücksichtigung von HBM und des Shrinks sehe ich selber den Sprung als nichts besonderes an.
 
nik_ schrieb:
das problem ist aber folgendes:
der grüne riese hat jetzt schon gute watt/leistung. gerade mit der gtx9XX Serie. Amd ließ ja verkünden, dass die neuen Modelle ne TDP von 300W (eher mehr) haben werden. da sind sie ja jetzt schon weit hinter nvidia

Welche "Watt TDP" hat denn die Titan X oder 980 GTX TI ? (besonders Watt TDP kein Standard ist und vom Hersteller selbst definiert wird).
Soviel ich mich erinnere, verbaucht eine Titan X auch um die 250 Watt. Die 980 GTX TI mit etwas mehr Clock wird dann auch Richtung 300 watt tdp gehen. Soviel dazu.
Es stellt sich mehr die Frage wo die Performance der Karte sein wird.

Und dass NV "jetzt" schon so wenig verbraucht, liegt wohl auch teils an dem schmalen SI der Maxwell GPU und dass keine DP-Einheiten, auch bei GM200 vorhanden sind. Die wenigen Transistoren machen selbst beim nicht verwenden "Dreck" im Stall.
 
MichiSauer schrieb:
Wer noch nicht verstanden hat, wieso maxwell so "effizient" ist, sollte sich maL den test bei anandtech rei,ziehen...
Nvidia erkauft die nämlich durch reduktion der dual-precision leistung und durch ein starkes micromapping. Sobald diese verfahren nicht mehr greifen, z.b. in furmark sprengen die karten den rahmen und sind nur noch so effizient wie ihre Vorgänger.
Bezieht man es auf gpu-computing s,d die karten sogar höchst ineffizient.

Geht man davon aus, dass pascal die gpu-compute wieder erhöhen soll fällt ein mechanismus somit weg.

Danke ... er hat es kapiert.

Zudem ist der Hawaii Chip noch kleiner als der nVidia Chip und somit nicht so leicht zu kühlen.

Kann man jetzt sehen wie man will .... ob AMD hier beim Design einen Fehler gemacht hat, oder nicht.
Schlussendlich sind es Szenarien, in denen einmal die GTXn vorne liegen, einmal die Radeons ... und das gilt auch beim Verbrauch.

nVidia wurde doch sogar kritisiert für die Streichung der DP Leistung bei den Titanen oder?

Wie auch immer ...
einzig die Tatsache das nur 1 % Wachstum vorher gesehen wird, stimmt mich Nachdenklich ...

Sollte sich Fiji allerdings vor die aktuelle Titan platzieren, und dabei weit weniger Kosten,.. wovon man ausgehen kann, .... dann darf die Karte auch die 300 Watt kratzen.
 
[eTP]AcCiDeNt schrieb:
einzig die Tatsache das nur 1 % Wachstum vorher gesehen wird, stimmt mich Nachdenklich ...

Erstens nicht 1%, sondern einstelliger Prozentbereich :)

Und zweitens ist das relativ logisch, da wohl jetzt im Juni der neue Fiji Chip erstmal nur im HighEnd-Segment kommt und die Leute, die >700€ für eine Karte ausgeben, am Gesamtmarkt nicht so eine große Rolle spielen. Ich finde das schon vernünftig eingeschätzt. Wenn Fiji mit HBM dann gut läuft und ankommt, sieht es nach dem Launch der kommenden Midrange-Karten mit Fiji und HBM sicher nochmal anders aus.
 
zeedy schrieb:
100% weniger Leistungsaufnahme allein durch den Sprung auf 14nm? Ne, wohl kaum. Und was wäre so enttäuschend an einer 125W Karte mit der Leistung einer R9 290X?

vorallem 100% >.<

Halbierung im Shrink von 28nm auf 14nm wäre doch nicht verwunderlich. Hallo, wir reden nicht von 20nm. 28 auf 14nm wären theoretisch bis zu Faktor 2.5, so einen grßen Sprung gab es bisher kaum. Nvidia hat ja auch mindestens 50% mehr Effizienz bei Maxwell udn selbem Node herausgeholt (bezogen auf Gaming Leistung).

Er hat schon ein Stückweit recht. Mit 14nm hat diese "Verdopplung der Effizienz" weniger Gewicht. Die Architektur muss Fortschritte machen - denn die 14nm Fertigung hat die Konkurrenz ggf, genauso + die stand heute effizientere Architektur.

@ DrToxic

würde es dann nicht vielleicht Sinn machen HBM gerade mit einem Mainstream Chip einzuführen und zu testen? zB einen Tonga mit 2- 4GB HBM ? Ich meine... da spielt doch die Musik wenn es um Marge und Gewinn geht.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
würde es dann nicht vielleicht Sinn machen HBM gerade mit einem Mainstream Chip einzuführen und zu testen? zB einen Tonga mit 2- 4GB HBM ? Ich meine... da spielt doch die Musik wenn es um Marge und Gewinn geht.

Ich habe ja jetzt nur vom Fiji-Chip gesprochen. Ob es eventuell auch Refreshs anderer Chips mit HBM gibt, weiß man momentan leider nicht. Ich kann auch nicht beurteilen, wie komplex das Chip-Redesign für einen Wechsel von GDDR5 auf HBM sein muss.
 
Krautmaster schrieb:
vorallem 100% >.<

Halbierung im Shrink von 28nm auf 14nm wäre doch nicht verwunderlich. Hallo, wir reden nicht von 20nm. 28 auf 14nm wären theoretisch bis zu Faktor 2.5, so einen grßen Sprung gab es bisher kaum.

Ich weiß es nicht, ich kenne mich mit der Thematik nicht so gut aus, und lehne mich deshalb nicht so weit aus dem Fenster. Jedoch könnten Leckströme ein größeres Problem werden.
 
Danke Krautmaster, darauf wollte ich hinaus.

@zeedy
Ich möchte beim besten Willen einen Effizienzsprung von 100% nicht klein reden, jedoch muss man doch schon etwas auf die Konkurrenz schauen, die Effizienzverbesserungen im mittleren zweistelligen Bereich bietet, ohne die Möglichkeiten eines Shrinks oder HBM zu haben.

Wie sich der Wechsel der Fertigungsgröße bei solch großen Chips verhält ist mir als Laie auch nicht bekannt. Häufig wurde/wird dieser aber als "Heilsbringer" für die nächste Grafikkartengeneration gewertet. Darum ist meine Erwartungshaltung entsprechend hoch.
 
Zurück
Oben