News AMD Polaris: Radeon RX 460 und Radeon RX 470 folgen der RX 480

Laut diesen Leaks stehen wohl die Daten der GTX 1060 fest:
http://www.tomshardware.de/nvidia-pascal-geforce-gtx-1060-192-bit,news-255958.html
Bei 192 Bit SI und 6 GB dürfte diese Karte keine echte Alternative zur RX 480 8GB mit 256 Bit SI darstellen.
12 GB wird NV wohl kaum auf die Karte löten (wäre eh Overkill).
Aber wer weiß, vielleicht greift NV zum altbewährten Trick und macht doch 8 GB auf die GTX 1060.... so ähnlich wie bei der GTX 970.
 
Wenn dann wohl eher 9 GB.
 
Luxmanl525 schrieb:
weil ja die 1060 auch noch kommen wird.
Alle bisherigen Infos sehen die 1060weit langsamer als die 480...
Warum argumentierst du überhaupt mit wirklich absoluten Spekulationen und nutzt dann nichtmal den Konjunktiv? Oo
 
Denke die 1060 wird noch weniger empfelenswert als es schon die 960 war.

Diesmal ist der STromverbrauch wohl bei beiden nicht viel auseinander und für weniger als AMD verkaufen sie das ding sicherlich nicht.
 
ZuseZ3 schrieb:
Wenn dann wohl eher 9 GB.
Hehe touché. Aber 9 GB würde selbst den verblendetsten Usern komisch aufstoßen.
ich denke es werden 6 GB und der Konkurent eher zur RX 470. Mit der GTX 1060 Ti könnte aber dann basierend auf dem GP104 mit 8 GB und 256 Bit SI ein Konkurent zur RX 480 kommen. Diese könnte dann die Lücke zwischen GTX 1060 und GTX 1070 gut füllen.
 
Hallo zusammen,

@ Shelung

Shelung schrieb:
"Stromverbrauchsniveau von ca. 150 Watt" --- Nein, einfach nein

Könntest du bitte mal darlegen, was du mit deinen Silben Sagen willst?

@ issenia

Warum denn bitte mehr als 6 Gbyte Ram? Willst du jetzt implizieren, daß für Full HD mehr als 6 Gbyte Videospeicher nötig sind? Ich denke nicht, daß jemand eine GTX 1060 kaufen wird und diese für 4K Auflösungen vorsieht.

@ Sunji Kamikaze

Eine GTX 1070 zieht um die 150 Watt Strom. Du kannst also davon Ausgehen, daß eine GTX 1060 deutlich darunter Liegen wird. Ebenfalls davon Ausgehen kannst du, daß diese wenigstens auf dem Leistunsniveau einer GTX 980 oder wenig darunter Liegen wird. Das scheint mir doch ein ziemlich gutes Effizienzergebnis zu sein, was da in Aussicht steht.

So long....
 
Zuletzt bearbeitet:
http://www.3dcenter.org/dateien/abbildungen/AMD-Radeon-RX480-3DMark13-FireStrike-Ultra-Graphics.jpg

Hier ist die RX 480 etwas oberhalb der 980 GTX im Ultra Setting. Ich glaube, dass GCN 4.0 eventuell einen Turbo hat, das culling ect. Eventuell wird sie je nach Game oberhalb oder unterhalb der R9 390X befinden. Das wird vermutlich auf das Game ankommen.
Bisher hatten die AMD ja immer einen quasi fixen Takt, denn sie unter Last angehalten hatten.

Einen Vorgeschmack hierauf gibt eine Meldung bei Reddit, welche europäische Händlerpreise zu einer (wohl Referenz-mäßigen) Sapphire Radeon RX480 in der 4-GB- und 8-GB-Version offeriert. Jene sollen (mit Mehrwertsteuer) bei 211 Euro für die 4-GB-Version sowie 265 Euro für die 8-GB-Version liegen.

Ich gehe fest davon aus, dass die 4GB eine Referenzkarte sein wird und die hat AMD auch vorgestellt. Die Hersteller Partner werden vermutlich gleich eine 8 GB Karte mit ihren eigenen Kühlerlösungen verbauen. Ich gehe da nicht mehr von Referenzkarten aus. Also muss der höhere Preis nicht nur am Speicher liegen, kann aber natürlich auch der Grund sein.

Ich vermute es gibt zwei Desktop Karten, die in OEM PCs verbaut werden. Die RX480 4G und die 460 2-4G.

Polaris 11 wäre ja ca 950-960 GTX Performance, je nach Takt, TDP, das wissen wir ja schon seit dem Vergleich von damals. Das wäre für viele OEM-PCs völlig ausreichend und günstig.
 
Zuletzt bearbeitet:
@Luxmanl525
Weil 150TDP nicht gleich 150W Verbrauch sind. Und 150W verbraucht sie auch nicht.
Das sollte mittlerweile jeder Laie verstanden haben, auch auf die explizite Frage an raja koduri, die er mit "less than" erwiderte.
 
Ich will gar nix implizieren. Ich komme ja auch mit 4 GB gut hin. Na ja bis ich dann Skyrim mit Texturmods selbst unter 1080p spielen will.:(
Dann kommt das große Erwachen.
Mir geht es da eher um das schmale 192 Bit SI wie bei der GTX 960.
 
Luxmanl525 schrieb:
Könntest du bitte mal darlegen, was du mit deinen Silben Sagen willst?
Kann ich auch machen. Der PCIe slot ist zwar theoretisch fuer 75 Watt ausgelegt bei mehr als 60 Watt muss man aber deutlich mehr aufwand betreiben um sie zu nutzen. Dies hat daher keine Karte, weder von AMD, noch von NVIDIA die letzten Jahre gemacht.
Es bleiben also 135 Watt, da es bei mid-range loesungen realitaetsfern ist anzunehmen das AMD die Spezifikationen ignoriert.

Darueber hinaus wird kein Ingenieur/verantwortlicher das ganze bei AMD derart auf Kante naehen, mindestens 10% Spielraum kann man erwarten. Dies macht bei 135 * 0.9 121,5 Watt.

Daher gehe ich von 110-120 Watt aus und stimme ihm zu das die Karte einfach keine 150 Watt verbrauchen wird. Falls du meiner Rechnung nicht glaubst wuerde ich uebrigends eine high-lowend Karte (keine Custom) sehen wollen welche die Spezifikationen verletzt, bzw. 75 Watt ueber PCIe zieht.
Abgesehen von Dual-chip karten gibt es da imho naemlich nichts.
 
Luxmanl525 schrieb:
Könntest du bitte mal darlegen, was du mit deinen Silben Sagen willst?

Ich denke, dass er damit sagen will, dass die RX480 wohl einen deutlich geringeren Stromverbrauch als 150 Watt haben wird. Die zuvor genannten 150W werden genannt, weil ein 6-pin Stecker verbaut ist. Die aktuellen Gerüchte gehen davon aus, dass zwei RX480 ähnlich viel Strom verbrauchen werden, wie eine GTX1080.
 
Hallo zusammen,

@ Cyberfries & Zuse73 BlauX

Cyberfries schrieb:
Ich denke, dass er damit sagen will, dass die RX480 wohl einen deutlich geringeren Stromverbrauch als 150 Watt haben wird. Die zuvor genannten 150W werden genannt, weil ein 6-pin Stecker verbaut ist. Die aktuellen Gerüchte gehen davon aus, dass zwei RX480 ähnlich viel Strom verbrauchen werden, wie eine GTX1080.

Natürlich ist das klar. Aber nehmen wir mal die GTX 1070 von Nvidia. Diese wird mit ca. 150 Watt spezifizeirt von Nvidia selbst angegeben. Genau darauf beziehe ich mich. Deshalb mein Verweis auf den Verbrauch von 150 Watt bei der RX 480, da dies von AMD selbst so dargelegt wird.

Und natürlich zolle ich bei der RX 480 auch dem Fakt Tribut, daß dies noch gar nicht wirklich überprüfbar ist was den Verbrauch angeht, daher auch vor allem mein Bezug zu der Aussage von AMD. Offenbar ist bei euch hingegen der Verbrauch schon überprüfbar.

@ Issenia

Keine Ahnung, warum du jetzt mit irgendwelchen Mods kommst. Ich kann manche Spiele so mit Mods betreiben, daß sogar 8 Gbyte Videospeicher zu wenig sind, klar, keine Frage. Ich gehe einfach grundsätzlich von den normal üblichen Spielekonfigurationen aus, mit den implementierten Möglichkeiten.

So long...
 
Moriendor schrieb:
Vergiss den China-Leak. Ist inzwischen als Fake identifiziert worden. Das hier dürfte deutlich näher an der Wahrheit liegen.

Bezweifle ich, dass das näher an der Wahrheit liegt. Zumal es sich um den Firestrike handelt und AMD in der Vergangenheit das Problem hatte die Leistung in Games auf den Boden zu bringen. Da sie aber viel überarbeitet haben, traue ich ihnen da imo mehr zu.
 
Luxmanl525 schrieb:
Ich habe noch eine 5850 Xtreme im Rechner und wollte eigentlich jetzt Aufrüsten. Aber ich werde dann wohl noch bis Ende des Jahres Warten. Das Preisniveau der GTX 1070 / 1080 ist mir deutlich zu hoch.

So long....

Und was hindert dich? Eine 370 wäre schon ein Upgrade. Und die liegt bei um die 150 €. Die 480 wird wohl auf dem Niveau der 390 liegen, dafür aber 100 - 150 € weniger Kosten.
 
zeedy schrieb:
Naja du machst es dir zu einfach. Tahiti hat 60% mehr Shader als Pitcairn ist aber bestenfalls 40% schneller. Wie erklärst du dir das? Hawaii hat 37% mehr Shader als Tahiti ist aber teilweise 40% schneller.

Selbst in Ashes ist Fiji weit davon entfernt 45% schneller als Hawaii zu sein, egal bei welcher Auflösung. Und das Spiel ist AMD's Vorzeigen DX12 Benchmark mit Async Compute und bester Auslastung.

Ich denke eine GPU ist mehr als nur ein Ansammlung von verschiedenen Funktionsblöcken. Bei AMD gibt es mit Tahiti und Fiji zwei recht unausbalancierte GPUs, während Pitcairn und Hawaii ihre Leistung sehr gut entfalten.

exakt 100% wird es selten skalieren, es gibt aber dennoch Titel bei denen das annähernd zutrifft. Fiji skaliert bestenfalls zu Release etwa 37% zur R9 390X. Das ist schon nah dran und der Takt ist auch etwas geringer, egro sollte sie um die 40% Scaling schaffen.
Ich geb dir recht, ich mach es mir einfach. Dass es immer +-10% sein werden ist schon wegen Texture Units, ACEs, SI, VRam Größe usw klar - aber vergleiche mal die Skalierung unter Maxwell und Pascal Karten.

Versteh mich nicht falsch, das soll nicht Anti AMD sein, ich sage nur dass es normal und kein Geheimnis ist dass AMD die letzten Generationen an GCN Karten erst mit der Zeit besser auslasten konnte und das angesichts eines zunehmenden GPU Limits durch fordernder Engines auch teilweise normal ist. Eben wegen dieser zunehmend besseren Auslastung scheint es als wären AMDs Karten über die Architektur zukunftssicherer, was zumindest aber stand heute eher eben an dieser schwachen Auslastung zu Release liegt.

Aktuell skaliert AMD die Leistung bis Hawaii ausgezeichnet, heißt nicht dass da kein Raum nach oben ist aber zumindest bekommt man ein 2816 Shader Karte so gut ausgelastet wie 2048 Shader.

Schau ich mir die Historie an dann war die Auslastung von Hawaii zu Beginn auch nicht gerade toll:



Wenns gut lief etwa 30% Mehrleistung zur R9 280X, also etwa 10-20% Optimierungspotential wenn man davon ausgeht das Tahiti damals gut ausgelastet war.

Und nun Jahre GCN später siehts so aus, wieder Full HD:


Aus ~30% wurden ~45-54%. -> "Karte altert langsamer"

Und schauen wir uns dann Fiiji zu Release an:


2816 zu 4096 Shader und wir haben eine minimale Skalierung von +14%. Gut, lass es 20% sein wegen geringerem Takt aber dennoch, das ist krass schlecht, gerade auch weil man Bandbreite satt hat. Wir haben wie gesagt 45% mehr Shader, wenn es also so läuft wie bei Hawaii dann ist es doch nur logisch dass die Fiji Karten noch gut zulegen. Ich hatte beim Release von Fiji eigentlich sogar erwartet dass AMD 10-20% draufpacken kann in den ersten Monaten.

Stattdessen hat AMD noch 1-3% aus Hawaii rausquetschen können.


Dass auch bei Fiji mehr geht zeigt zb Metro in 4K

Umso erstaunlicher dass Fiji über viele Auflösungen und Titel extrem einbricht trotz der guten Bandbreite. Deswegen denk ich auch nicht dass es bei Fiji "nur" eine API / Treiber Sache ist, ich denke eher dass an der Architektur /Vllt HBM SI etwas nicht ganz rund läuft und eine bessere Auslastung verhindert. Auch die Bandbreite ist für HBM eigentlich gemessen zu klein.

100% Skalierung kann man kaum erwarten, richtig. Aber auch ohne Nvidia Vergleich fällt auf dass Fiji extrem schlecht skaliert. Und genau das muss Vega mit eventuell ebenfalls 4096 Shadern deutlich besser machen, auch unter DX11. Denn wie du ja siehst passt die Skalierung auch bei Fiji in DX12 kaum.
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Diese wird mit ca. 150 Watt spezifizeirt von Nvidia selbst angegeben. Genau darauf beziehe ich mich. Deshalb mein Verweis auf den Verbrauch von 150 Watt bei der RX 480, da dies von AMD selbst so dargelegt wird.

Watt TDP =Thermal Design Power und wie oft gesagt, ist die unterschiedlich. Der Hersteller empfiehlt, die Karte mit einem Kühler auszustatten, die diese Menge an Wärme abführen kann. Das ist lange kein Indiz dafür, dass die Karte so viel braucht, einfach abwarten.
Da aber die meisten OEM sowieso fette Kühler verbauen, ist die Angabe der TDP meist sowieso unnötig, außer man will selbst einen Kühler auf die Platine schnallen. Aber vllt ist das auch der Grund, wieso es NV GPUs gab, welche wegen einem Bug im Treiber während des Betriebes abgefackelt sind, weil unter Spitze, die TDP Angabe nicht ausreichend war?

Bei der 1080 GTX ist ein 8Pin und kein 6Pin verbaut. Das wären 75 + 150, somit theoretisch würde AMD jene Karte sogar mit einer 225 Watt TDP spezifizieren.

Watt kann man Marketingtechnisch immer leicht einsetzten und ist hier nicht das erste Beispiel. Wenn du eine Hawaii unter Wasser kühlst und die Temperaturen sehr weit unten hälst, verbraucht sie auch wesentlich weniger als jene mit Referenzkühlung, welche ja unterdimensioniert war.
 
Zuletzt bearbeitet:
@Luxmanl525

AMD spricht von max 150 W Boardpower.
Die TDP, welche nicht mit NV TDP des typischen Verbrauchs zu vergleichen ist, wird darunter liegen.
Ausserdem sprach Koduri von <150 W.

Ich geh jetzt mal von 130W aus, was auch zur Chipgrösse in 14NM LPP passen würde.
 
Bärenmarke schrieb:
Bezweifle ich, dass das näher an der Wahrheit liegt. Zumal es sich um den Firestrike handelt und AMD in der Vergangenheit das Problem hatte die Leistung in Games auf den Boden zu bringen. Da sie aber viel überarbeitet haben, traue ich ihnen da imo mehr zu.
Hier hast du mehr: https://www.youtube.com/watch?v=nUG9jgERvEQ
Allerdings sind die Temps auch "mehr".
Was es mit OC schon irgendwie glaubwürdig macht.
 
@Luxmanl525,

TDP von Nvidia ist nicht die selbe wie AMD TDP.

Beide legen die TDP unterschiedlich aus. Bitte informiere dich!
 
Darkscream schrieb:
Hier hast du mehr
Allerdings sind die Temps auch "mehr".
Was es mit OC schon irgendwie glaubwürdig macht.

Find ich ehrlich gesagt nicht wirklich seriös, wobei wir auch in deinem Beispiel wieder beim Firestrike wären. Mich interessiert aber die Spieleleistung und inwiefern sich an den Bottlenecks durch die Architektur was verändert hat.
 
Zurück
Oben