News AMD Polaris: Radeon RX 460 und Radeon RX 470 folgen der RX 480

Hallo zusammen,

@ OiOlli

OiOlli schrieb:
Und was hindert dich? Eine 370 wäre schon ein Upgrade. Und die liegt bei um die 150 €. Die 480 wird wohl auf dem Niveau der 390 liegen, dafür aber 100 - 150 € weniger Kosten.

Mich hindert, daß die von dir erwähnten Karten eben nicht Ausreichen, um The Witcher auf höchsten Details zu Spielen. Das ist eines der spiele, weswegen ich mal wieder eine Aufrüstung vornehmen will. Wenn ich also zu einer 370 Greifen würde, würde mir dies Null Helfen.

Natürlich gibt es Karten, die mir Helfen würden. Aber eine R9 390 / 390 X ist mir im Stromverbrauch zu hoch. Viel zu hoch. Und deshalb wollte ich Warten.

@ BlauX @ modena.ch

Denkst ihr mal nach? Ja? Wir Reden von der RX 480. Die ist noch gar nicht raus. Und es liegen keine wirklicheren Daten zum Verbrauch vor, als die, welche AMD propagiert, darauf muß ich mich auch Beziehen und beziehe ich mich auch und nicht auf irgendwelche Phantastereien. Grundgütiger!

Und AMD redet von ca. 150 Watt. Schluß, Aus, Ende!

So long....
 
Zuletzt bearbeitet:
@Darkscream

Danke für das Video. Der Fan muss aber ganz schön gedrosselt sein wenn das Teil mit 150W so heizt. Kann natürlich auch Auslesefehler sein. Oder halt ne R9 290X mit Mod iD ;)
 
Zuletzt bearbeitet:
Und AMD redet von ca. 150 Watt. Schluß, Aus, Ende!


AMD spricht von 150W Boardpower. Was die 75W PCI-E und die 75W des 6 Pin Steckers auch klar zeigen.
Das ist kein TDP und wird man auch bei einer Referenzkarte keinesfalls ausschöpfen.
Eher bei einer OC Variante.
Ergo liegt der Verbrauch sicher unter 150W was AMDS Koduri auch schon gesagt hatte.
Also denkst du mal nach?
 
Alles über 120W würde mich schwer wundern und wäre eine schwere Enttäuschung, zumal die GTX1070 doch eine Ecke schneller ist mit ihren 150W. Deshalb liebe ich die Angaben von NV, man kann sich darauf verlassen weil sie ja immer an genau diesem Powerlimit hängen ohne Eingriff.

Kann ich auch machen. Der PCIe slot ist zwar theoretisch fuer 75 Watt ausgelegt bei mehr als 60 Watt muss man aber deutlich mehr aufwand betreiben um sie zu nutzen. Dies hat daher keine Karte, weder von AMD, noch von NVIDIA die letzten Jahre gemacht.
Eben... die ganzen Costum Modelle der 1080 mit 8 Pin haben auch diesen Respektabstand.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ modena.ch

modena.ch schrieb:
Und AMD redet von ca. 150 Watt. Schluß, Aus, Ende!


AMD spricht von 150W Boardpower. Was die 75W PCI-E und die 75W des 6 Pin Steckers auch klar zeigen.
Das ist kein TDP und wird man auch bei einer Referenzkarte keinesfalls ausschöpfen.
Eher bei einer OC Variante.
Ergo liegt der Verbrauch sicher unter 150W was AMDS Koduri auch schon gesagt hatte.
Also denkst du mal nach?

Das weißt du doch gar nicht! Ich kann mich nur auf etwas Beziehen, was unumstößlich ist. Klar, wenn der Verbrauch am Ende bei 148 Watt liegt, kommt es auch hin *lol*.

Alleine schon nach der Erfahrung der bisherigen letzten Karten von AMD bin ich höchst Mißtrauisch. Ich erwarte eher, daß der Stromverbrauch ziemlich am Limit der Spezifikationen liegen wird.

Im Grunde liegt Nvidia hier auch wieder vor. Denn man bedenke, daß die GTX 1070 gerade mal um die 150 Watt liegt und mehr als eine Performancestufe über der RX 480 liegen wird. Soviel kann in jedem Fall schon gesagt werden. Ohne zu Phantasieren.

So long....
 
Luxmanl525 schrieb:
Hallo zusammen,

@ OiOlli



Mich hindert, daß die von dir erwähnten Karten eben nicht Ausreichen, um The Witcher auf höchsten Details zu Spielen. Das ist eines der spiele, weswegen ich mal wieder eine Aufrüstung vornehmen will. Wenn ich also zu einer 370 Greifen würde, würde mir dies Null Helfen.

Natürlich gibt es Karten, die mir Helfen würden. Aber eine R9 390 / 390 X ist mir im Stromverbrauch zu hoch. Viel zu hoch. Und deshalb wollte ich Warten.

@ BlauX @ modena.ch

Denkst ihr mal nach? Ja? Wir Reden von der RX 480. Die ist noch gar nicht raus. Und es liegen keine wirklicheren Daten zum Verbrauch vor, als die, welche AMD propagiert, darauf muß ich mich auch Beziehen und beziehe ich mich auch und nicht auf irgendwelche Phantastereien. Grundgütiger!

Und AMD redet von ca. 150 Watt. Schluß, Aus, Ende!

So long....

Entweder kennst die Informationem nicht, oder aber du scheinst diese nicht verarbeiten zu können. Damit wird es schwierig mit dir zu diskutieren.
Ich versuche es doch noch einmal : AMD hat klar gesagt, dass zwei 480 EFFIZIENTER sind als eine 1080 die mit 180Watt angegeben wurde. Nun rechne 180/2 und du hast den Verbrauch zweier 480 mit 51%Auslastung im multigpu verbund... Deine 150TDP haben NICHTS!!! Mit dem Verbrauch zu tun. Die beziehen auch bei amd lediglich die maximale mögliche Stromzufuhr durch Pci-e und Stecker... Und nun höre bitte auf mit deinem Unfug, den du total haltlos und ohne ein Fundament von dir gibst, das ist nur noch peinlich!

So long

Edit: ok, du scheinst wirklich daran zu glauben, was du schreibst, das tut mir sehr leid! Wirklich!
 
@ Verbrauch.

Den müsste man zudem in AoS mit DX12 Async Shader untersuchen wenn man auch die Karte Max auslasten will. Oder eben Hitman.
http://www.tomshardware.com/reviews...e-multi-adapter-power-consumption,4479-5.html

Da explodiert der Verbrauch teils ganzschön und da kann ich mir 150W schnell vorstellen, auch als TDP die tatsächlich erreicht werden. Mag sein das das eine RX480 dann aber locker mit normalem Boost Takt macht während bei einer GTX 1070 das einfach über Runtertakten bezüglich Power Limit eingehalten wird.
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Im Grunde liegt Nvidia hier auch wieder vor. Denn man bedenke, daß die GTX 1070 gerade mal um die 150 Watt liegt und mehr als eine Performancestufe über der RX 480 liegen wird.

Andere Frage, was ist denn, wenn es so wäre ? Weder sind 150 watt zu viel Wärme zum Abführen, noch werden sich 150 Watt in deiner Stromrechnung bemerkbar machen ect. Was wäre eigentlich, wenn es so ist ?

Krautmaster
Ich glaube kaum, dass was beim Verbrauch von 2304 Shader viel explodiert. Und was die anderen Karten angeht, hat die Performance in Relation ebenso "expodiert". Es bleibt also im Verhältnis.
 
pipip schrieb:
Andere Frage, was ist denn, wenn es so wäre ? Weder sind 150 watt zu viel Wärme zum Abführen, noch werden sich 150 Watt in deiner Stromrechnung bemerkbar machen ect. Was wäre eigentlich, wenn es so ist ?

Für die RX480 selber ist das kein Problem.
Für die RX480M, sowie für Vega wäre das aber ein schlechtes Vorzeichen.
 
pipip schrieb:
Andere Frage, was ist denn, wenn es so wäre ? Weder sind 150 watt zu viel Wärme zum Abführen, noch werden sich 150 Watt in deiner Stromrechnung bemerkbar machen ect. Was wäre eigentlich, wenn es so ist ?

Krautmaster
Ich glaube kaum, dass was beim Verbrauch von 2304 Shader viel explodiert. Und was die anderen Karten angeht, hat die Performance in Relation ebenso "expodiert". Es bleibt also im Verhältnis.

Naja, schau den THG Link an wie 2816 Shader von Hawaii explodieren wenn kein Strinktes Power Limit wie bei der Nano / Fury vorliegt.

211 -> 333W !

Ergo kann es gut sein dass die RX480 in vielen oder fast allen Games um 100W zieht, aber auch mal erst bei 150W abregelt wenn die Auslastung gegen Maximum geht, sei es durch Async Compute oder sonstwas.

Aber gesagt, interessiert mich wenig wenn die Leistung stimmt. Dann darf sie auch 200W ziehen wenn sie dafür der GTX 1070 mit Async Compute davon rennt.
 
Hallo zusammen,

@ pipip

pipip schrieb:
Andere Frage, was ist denn, wenn es so wäre ? Weder sind 150 watt zu viel Wärme zum Abführen, noch werden sich 150 Watt in deiner Stromrechnung bemerkbar machen ect. Was wäre eigentlich, wenn es so ist ?

Krautmaster
Ich glaube kaum, dass was beim Verbrauch von 2304 Shader viel explodiert. Und was die anderen Karten angeht, hat die Performance in Relation ebenso "expodiert". Es bleibt also im Verhältnis.

Schlichweg nicht sonderlich beeindruckend und eben im Verhältnis zur vorhergehenden Generation in Relation zum Stromverbrauch nicht so verbessert, wie man Glauben machen möchte. Erst Recht im Angesicht der Effizienz einer GTX 1070.

Ansonsten freut man sich im Angesicht ständig steigender Strompreise über jedes Watt Stromersparnis. Wie gesagt, die Strompreise gehen nicht runter.

@ Achim_Anders

Das wird ja immer besser, jetzt vollziehst du also Berechnungen mittels 2er RX 480! Es wird immer lächerlicher! Noch dazu verläßt du dich auf die Angaben der Hersteller. Klar, hat ja schon immer Total gestimmt, was die Propagiert haben.

Mann, Mann, Mann!

So long...
 
Dann verlasse bitte bitte diesen Thread, denn für dich gibt es hier nichts zu diskutieren! Wir haben außer der Herstellerangaben nämlich nichts ;]

Aber deine kruden 1060 Argumentation ist legitim? Ich bin raus, du bist kein würdiger Diskussionspartner. Viel Spaß noch :)
 
Cyberfries schrieb:
Für die RX480 selber ist das kein Problem.
Für die RX480M, sowie für Vega wäre das aber ein schlechtes Vorzeichen.

Für die Notebooks wäre das sicherlich suboptimal, wobei auch hier die Frage ist, ob AMD für die erste RX 480 nicht wieder zu viel Spannung ansetzt und wie in der Vergangenheit dann eine 2.0 optimierte Karte rausbringt.

Was Vega angeht, HBM Speicher und eine weiter optimierte GCN Architektur (angeblich sogar gravierender als Polaris). Also auch hier nicht unbedingt linear zu betrachten.

Meine Frage bezog sich aber noch konkreter auf Luxmanl525 Fall bezüglich Witcher 3.

Ansonsten freut man sich im Angesicht ständig steigender Strompreise über jedes Watt Stromersparnis. Wie gesagt, die Strompreise gehen nicht runter.
Die 5850 verbraucht laut Angabe 150 Watt und die RX 480 wäre somit in Relation x fach schneller.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ pipip

Durchaus richtig. Aber ich warte auf jeden Fall auf eine GTX 1060. Wenn diese auf dem Niveau einer GTX 980 liegt - was durchaus zu Erwarten ist -, im Verbrauch aber ein gutes Stück unter der GTX 1070 - was ebenfalls nicht von der Hand zu Weisen ist - würde ich eher zu dieser Tendieren, auch wenn sie ein Paar € Teurer sein sollte. Zumal man hier Erwarten kann, daß unter DX 12 der Stromverbrauch am Ende nicht noch Exorbitant steigt, wie es bei der R9 390 / 390 X der Fall ist und bei der RX 480 auch möglich sein könnte, was ich nicht hoffe.

So long...
 
Ich denke ja bei der Stromaufnahme auch an die Chipgröße, ist ein gutes Argument wenn man im Hinterkopf behält das ein kleiner Chip schwieriger zu kühlen ist.
Und ich warte noch bis VEGA:p
Bis dann!
 
Dann sag das gleich so, dass du noch die 1060 GTX abwarten willst, weil du da mehr an Effizienz erwartest, wobei ich kaum glaube, dass die 30-50 Watt im best Case für die NV einen Unterschied machen würde, falls die 480 150 Watt verbrauchen würde.
Was DX12 angeht, wäre mir lieber, meine GPU gewinnt an FPS und verbraucht von mir dann sagen wir 50 Watt mehr, als dass meine GPU zwar weniger verbraucht, aber dann nicht mehr mithalten kann.
Btw, wegen KM und DX12 Verbrauch. Wie ich schon sagte, der Performance Gewinn und der Verbrauch stand in Relation und bei Hawaii lag es an dem Boardpartner Modell von MSI (was auch Krautmaster selbst sagte) und der Tatsache, dass die Hawaii ca 500 Shader mehr hat, die außerhalb des Sweetpoint getaktet sind.
Somit muss das nicht auf die Polaris abfärben, die wohl auf Shader Anzahl und Takt im Sweetpoint liegen soll, da eben auf Effizienz getrimmt.

Hinzufolgt, dass die kleineren GCN Karten der 200 Serie was Effizienz anging, trotz des Alters am nähsten zu den Maxwell Varianten befindet.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ pipip

pipip schrieb:
Dann sag das gleich so, dass du noch die 1060 GTX abwarten willst, weil du da mehr an Effizienz erwartest, wobei ich kaum glaube, dass die 30-50 Watt im best Case für die NV einen Unterschied machen würde, falls die 480 150 Watt verbrauchen würde.
Was DX12 angeht, wäre mir lieber, meine GPU gewinnt an FPS und verbraucht von mir dann sagen wir 50 Watt mehr, als dass meine GPU zwar weniger verbraucht, aber dann nicht mehr mithalten kann.
Btw, wegen KM und DX12 Verbrauch. Wie ich schon sagte, der Performance Gewinn und der Verbrauch stand in Relation und bei Hawaii lag es an dem Boardpartner Modell von MSI (was auch Krautmaster selbst sagte) und der Tatsache, dass die Hawaii ca 500 Shader mehr hat, die außerhalb des Sweetpoint getaktet sind.
Somit muss das nicht auf die Polaris abfärben, die wohl auf Shader Anzahl und Takt im Sweetpoint liegen soll, da eben auf Effizienz getrimmt.

Hinzufolgt, dass die kleineren GCN Karten der 200 Serie was Effizienz anging, trotz des Alters am nähsten zu den Maxwell Varianten befindet.

Grundsätzlich tendiere ich momentan dazu, bis Vega zu Warten. Da Nvidia zuwenig Konkurrenz hat im Oberen Segment, glaube ich, daß Ende des Jahres man als Verbraucher mehr Geboten bekommt. Mein Preislimit war bei 300 - Maximal 400 €. Da ist aber so schnell nichts.

Die Performance in diesem Segment wird ähnlich wie das der GTX 980 sein, höchstens knapp darüber. Im Grunde wird sich da relativ wenig tun. Erst darüber steigt die Performance und dies gleich Überproportional, durch die GTX 1070 / 1080. Und das ist mir deutlich zuviel Geld, was diese Kosten. Im Grunde sind diese Preise dem Fakt geschuldet, daß AMD da leider nichts zu Bieten hat, voraussichtlich bis Ende des Jahres, bis Vega.

Und ich hoffe wirklich, daß AMD da endlich in die Pötte gekommen ist. Sonst sehe ich Schwarz. Und dies nicht nur für AMD, sondern auch für uns Verbraucher. Denn Nvidia kann dann noch mehr Schalten und Walten als jetzt schon. Fehlende Konkurrenz ist für niemanden förderlich.

So long....
 
Das Line Up sieht interessant aus. Damit wird der Bereich unter 200$ noch mehr abgedeckt. Mal schauen wie diese sich in den Benchmarks schlagen. Würde mich nicht wundern wenn diese demnächst in etlichen 08/15 Gaming PCs bis 500€ zu sehen sind.
 
BlauX schrieb:
Was erwartest du von einer Mainstream-Segment Karte - Performance-Segment für Mainstream-Preis :D?
Versteh mich nicht falsch, aber deine Aussage suggeriert, dass du ernsthaft geglaubt hast, mit ner Mainstream Karte, Performance Leistung bekommst.
Seit einigen Monaten ist das aber bereits bekannt, dass AMD zunächst Low-Mainstream beliefert und Vega den Rest übernimmt.


Edit zu deinem Edit: Hat hier absolut nichts mit Preis/Leistung zutun. Sondern das du Mainstream mit Performance-Segment gleichsetzt.

Dein Low-End heißt eigtl. Entry (Einsteigerklasse). So was wie ne R5 240 oder ne GT 420 sind Low-End, weil quasi nix auf 720p/1080p spielbar ist was ansatzweise Grafikleistung benötigt. ;)

Low-End > > > Entry > > > Mainstream > > > Performance > > > High-End > > > Enthusiast
R5 250 > > > R7 360(X) > > > R7 370(X) > > > R9 380(X) > > > R9 390(X) > > > R9 Fury(X)
GT 740 > > > GTX 950 > > > GTX 960 > > > GTX 970 > > > GTX 980 > > > GTX 980 Ti

Aber wie man merkt sind die Grenzen schwer zu ziehen. Die R9 380er sind ja kaum Gegenspieler zur 970.
 
Zuletzt bearbeitet:
Was wir nun wissen ist ja wir bekommen 980 Leistung.. (siehe Posting vom Xbox Heini Spencer) Danke hierzu ;)

It’s kind of like a [GeForce GTX] 980 card on the PC. I get the capability that I need as a developer to deliver a high-fidelity 4K game. ”
http://www.wired.com/2016/06/xbox-vr-scorpio-phil-spencer/

Wir wissen wir reden von 150W TDP (verbrauch zwischen 76W und 135W (10% Notfallreserve sonst PCIe Vorgaben-Verletzung)

Wir wissen zwischen 1266 und 1600MHz kann alles möglich sein und wir wissen 229$ für die 8GB Referenz 199$ für 4GB (keine Referenz, da AMD schlichtweg keine liefert) Leistung zwischen 5,5TFlops und 6Tflops (also nur 0,5 TFlops weniger als eine 1070 Stock)

Troyan war so Nett und hat GP104 gegegen gemessen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11073346&postcount=7048

Da ich nur die freie Version habe: 12240 Punkte in 1080p mit einem i7-3770@default.
Grafikscore ist 15597 (jedoch immer noch leicht CPU-limitierend)
GTX1080@1253Mhz (doofer Boost).

So langsam kann man abzeichnen wo P10 liegen wird und auch wo P10 Leistungstechnisch an der 1070 liegen wird. Meine Vermutung, seit jeher, 10-15% unter 1070 mit OC bie UVP 299$ (Custom Karten)

Kann jemand seine 1070 nehmen und auch mal mit 1266Mhz benchen? Ich vermute der Graphicsccore würde ziemlich dicht an der P10 liegen, wenn wir von 5435 (bei Extreme) ausgehen. Das wäre dann auch der Beweis dass Pascal nur Maxwell shrink ist ;) Spaßeshalber könnte man ja noch ne 980 auf 1266Mhz bringen

(Quelle 3D Mark: Firestrike Normal)

Eine 1080 macht bei 1253Mhz grob 15597 Punkte
Eine 980 macht bei 1450Mhz grob 15600 Punkte
Eine 970 macht bei 1279Mmhz grob 9950 Punkte
Eine 380 macht bei 1010Mhz grob 10900 Punkte
Eine 390X macht bei 1200Mhz grob 13600 Punkte
Eine 480 macht bei 1266Mhz (Vermutung) 16823 Punkte (laut Videocardz das Mittel aus allen werten, schlechtester Wert ist 15520)

Edit: (Ich weiß es sind unterschiedliche CPUs und Taktungen, aber das sollte für die Grobe beurteilung unerheblich sein, weil eh jedes System anders skaliert. Es sind also nur Richtwerte)

Wir werden also bei 980 Performance rauskommen, bzw knapp drunter.. Also für eine Karte die die 380 ablösen soll ist das nicht schlecht. Zeigt übrigens das gleiche wie bei NV.. Taktberteinigt hätte AMD also NV wieder eingeholt, denn die 1080 ist ja nur so schnell weil sie eben mit 1,7-1,8GHz rennt. Eine AMD karte dürfte also wenn sie 1500Mhz schafft an eine 1070 herankommen. Von der reinen Rohleistung her. Wie der Treiber ist, weiß keiner. Gameworks Titel werden aber in der Zukunft auch wohl etwas Reife brauchen. DX 12 ist die große unbekannte, denn wenn die Karte ihre knapp 6 Tflops in DX12 voll Nutzen kann, dann sollte eben auch 4k Möglich sein

Thema 16823 Punkte:
Nunja damit wäre man dann auf Nasenlänge mit 1070 bei 1266Mhz aber das mag ich nicht glauben. Eher denke ich sind die 16823 Punkte Werte von OC Modellen. Wichtig hierbei muss sein, wir kennen nicht den genauen Wert, wir wissen auch nicht ob der besagte Wert der Score ist oder aber nur der Graphicsscore
 
Zuletzt bearbeitet:
Zurück
Oben