News Erste Gerüchte zur AMD „Radeon R9 300“-Serie

@Whoozy
Jetzt stellst du tatsächlich den Sinn der 290X in Frage. Richtig, die 290 ist um über 100€ günstiger gestartet und kaum langsamer. Trotzdem gibt es die 290X und trotzdem wollen manche Leute die X haben.

Es geht doch nicht darum, was wo ruckelt. Die Titan Classic ist nach dem CB Test nunmal auf dem Niveau der 290X Quiet. Die Titan Classic zieht mit 200W nunmal weniger als eine 7970 oder GTX 480. Dann wäre da noch der Ubermode der 290X. Dieser Ubermode wird gerne herangezogen, wenn es um die Leistung geht, also muss er auch bei der Effizienzbetrachtung berücksichtigt werden.

Ob man da jetzt in Jubel verfallen muss ist eine andere Geschichte. Ich kann nicht darüber jubeln, das die 780 Ti auf ähnlichem Niveau wie die 1 Jahr alte Titan Classic mit doppeltem VRAM agiert. Das ist schlicht langweilig.

@SKu
Nur hat die Die Größe keinen Vorteil für den Nutzer. Im Gegenteil wird doch gerne gejammert wie sparsam und kühl Hawaii mit großem Die wäre.

In dem Sinne ist und bleibt GK104 das Effizenzwunder aus Gamersicht. Hält mit Tahiti mit, ist sparsamer und kleiner.
 
Korrekt, ich kaufe mir nie die schnellste Karte von Nvidia oder AMD, sehe keinen Sinn darin. Doch, für gamer ist es durchaus wichtig ob es ruckelt oder nicht ;).

Bei der Titan(Black)/GTX780 TI wird doch auch immer gerne von entfesselter Gpu gelabert hier auf CB ist es der (max) Wert. Ob Quiet Mode oder Uber Mode, in beiden Fällen agieren AMD Karten und Nvidia Karten in sachen Leistung und Verbrauch auf einem Niveau, ruckelt es bei der R9 290X wird es auch bei der Titan/ GTX780 Ti ruckeln. Je nach Spiel und Auflösung/Qualitätseinstellung ergeben sich mal vor und mal Nachteile für das eine oder andere Produkt. Die Unterschiede sind so gering, das es nicht der Rede Wert ist (und doch werde ich verleitet hier darüber zu schwadronieren). Aber ich wiederhole mich hier schon wieder und ich habe jetzt keine Lust mehr.
 
Zuletzt bearbeitet:
Wer nicht die Schnellste kauft muss inzwischen lange warten. Die Zeiten in denen vom selben Chip 3 Ableger gleichzeit auf den Markt gepresst wurden sind vorbei. Aber gut mal beiseite, wenn es um 780 Ti und 290X geht, steht eh eine Wartezeit von einem Jahr im Raum.
Interessanterweise lohnt sich nichtmal bei 290 die Wartezeit, die 7970/280 ist seit 2 Jahren am Markt. Der größte Preisverfall ist schon einige Zeit her.

Der getestete Max Wert ist Schwachsinn und wurde nur eingeführt um AMD mit dem doppelten Test (Uber und Quiet) nicht zu sehr zu bevorteilen. Tatsächlich macht statt Max eine normale Übertaktung weit mehr Sinn und das lässt sich nicht mehr mit nur einem Testexemplar korrekt ermitteln und außerdem rennt die Sparsamkeit bei dieser Geschichte eh in den Keller.

Du musst dich entscheiden, ob du Uber gegen Default oder Quiet gegen Default oder OC gegen OC haben willst.
 
Zuletzt bearbeitet:
Als normales Midrange wäre ein effizienter GK104 keine Überraschung gewesen.
Das was eine GPGPU Karte so ineffizient macht ist der GPGPU Ballast der beim zocken nicht gebraucht wird, dh. klein Kepler der in Sachen GPGPU Power kastriert wurde ist daher auch effizient beim zocken, die GPU wurde drauf spezialisiert. Also das genaue Gegenteil von Fermi. Beim Takt hat NV noch viel Luft nach oben, haben sie ja selber gesagt, ist auch schon in dem Thead gesagt worden. VCore moderat gewählt, auch daran erkennt man das der Takt kein Problem war.

wenn big Kepler für dich so super toll effizient ist, dann ist es auch Hawaii XT. Denn im CB Test verbraucht das Komplettsystem mit der R9 290X und der GTX780 Ti
http://www.techpowerup.com/reviews/AMD/R9_295_X2/25.html
Seit wann ziehen wir für Effizienz Tests das Gesamtsystem ran, das verfälscht doch alles. Schau mal wo eine Titan liegt und wo AMD liegt auch die 780er liegen weit vorne. Das sind Welten, genau umgekehrt hat es aus geschaut bei Thermi v. 6000. Da war NV am Ende des Feldes und AMD im 2 stelligen % Bereich effizienter.

Gleichzeitig siehst du was Maxwell macht mit der Effizienz, also kleine Karten schon mal extrem effizient.


aber deine enormen Lobhuldigungen werden dem nicht gerecht, weil es eben nur ein klein wenig besser ist.
Vor der Titan gabs sowas eigentlich fast noch nie, die schnellste Karte, gleichzeitig die effizienteste unter fast allen Karten, auch die kleinen, noch dazu mit dem ganzen GPGPU Ballast. Also wenn das mal nicht eine geniale Architektur ist, kleine Unterschiede schauen definitiv anders aus.
 
Zuletzt bearbeitet:
Ich muss erlich sagen, mir gefällt dieser Temperatur Target nicht so sehr bei den neuen Karten, das setzt nämlich eine bessere Kontrolle der Temperaturen/Beobachtung der Taktraten vorraus. Damit es nicht passiert das die Karte zu langsam in Spiel X taktet. Da bin ich erlich gesagt zu faul für.

Aber die aktuelle Gen. interessiert mich nicht mehr, ich warte auf 20nm. Und nein ich will mich nicht entscheiden, ob Über, Mega, Stickstoff OC oder sonst was. Dem Thema habe ich genug Aufmerksamkeit geschenkt und es wird sich nichts an den Fakten ändern.
 
Kasmopaya schrieb:
Schau mal wo eine Titan liegt und wo AMD liegt auch die 780er liegen weit vorne. Das sind Welten, genau umgekehrt hat es aus geschaut bei Thermi v. 6000. Da war NV am Ende des Feldes und AMD im 2 stelligen % Bereich effizienter.
Den Test gibts schon länger, und dennoch verwundert er mich. Hat doch bislang Thaiti und Hawaii deutlich besser abgeschnitten, siehe Test zur 290 http://www.techpowerup.com/reviews/AMD/R9_290/27.html
Hier muss die Titan deutlich Federn lassen.
Wenn man sich nun bei beiden Tests die Verbrauchswerte ansieht, sind da einige Unstimmigkeiten. Was wird für den Effizienz Test verwendet? Typical Gamig Power, also vermutlich Average Werte und Peak Werte.

Test der 295X: Test der 290X:
avg Titan: 186W avg Titan : 208W
avg 290: 239W avg 290: 214W
avg 290X: 258W avg 290X:~240W

Peak Werte verhalten sich ähnlich, jedoch steigt hier der Wert der Titan auch leicht.

Was wurde zwischen beiden Tests geändert? Genau, das Spiel. Vorher Crysis 2, nun Metro LL.
Welches Fazit ziehe ich nun daraus? Genau, die Effizienz der Titan liegt bei Metro höher. Wo allerdings selbst die teure Titan von der 290 geschlagen wird.

Und wie man dem Test der 290X sieht, liegt wenn man ein anderes Spielt wählt, die Effizienz von Thaiti durchaus über Titan Niveau, und Hawaii liegt bei weitem nicht so abgeschlagen, wie du weis machen willst.

PS: Sry für die Formatierung, den Dreh hab ich nicht raus.
 
Whoozy schrieb:
Omg, zeig mir mal den Link dazu, die meisten Infos die ich zu GDDR6 habe liegen noch in den Absichterklärungen von 2012...


Szenario ausgehend von bisheriger Chipbestückung und derzeitiger Durchsatzrate:

Für mich siehts so aus als ob AMD gern nochmal günstige 2Gb Chips verbauen will
und wenn die Angaben für 380X und 390X stimmen(Speichertaktung), dann würde das bedeuten, dass sich an der Speichermenge erstmal nichts groß tun soll.
3GB für 380X würden Standard bleiben und 4GB für die 390X.

Es sei denn AMD möchte noch mehr als 16 der billigeren Speicherchips auf Ihr Topmodell 390X kloppen, es gibt nämlich keine Chips die mit mehr als 7GHZ takten von Hynix.

Damit würde AMD an das Limit stoßen was sich und 7GHZ Taktung machen lässt (448GB/s).
Für mich wärs plausibler, falls die 380X bei 288GB/s stagnieren soll, dass die 390X nochmal maximal was auf um die 392GB/s angehoben wird.
Scheint mir nicht plausibel gleich alles was man noch an Spielraum hat aufs Spiel zu setzen bevor GDDR6 überhaupt auf dem Markt ist.

Mit dem großen Interface + vieler Speicherchips glaub allerdings dann nicht, dass es wieder viele Karten unter 26cm Länge oder gar 24cm gäbe, das würden dann mit Sicherheit nochmal ähnlich große Schollies werden wie die der jetzigen Generation!

mit den jetzigen GDDR5 Chips bei maximal 7GHz Taktung
128bit Interface = maximaler Durchsatz 112GB/s
256bit Interface = maximaler Durchsatz 224GB/s
320bit Interface = maximaler Durchsatz 280GB/s
384bit Interface = maximaler Durchsatz 336GB/s
512bit Interface = maximaler Durchsatz 448GB/s

bei der 370X wärs sinniger wenn der Takt nochmal auf 6,5GHz ansteigt und 208GB/s ermöglicht anstatt mit 5Ghz von jetzigen 179,2GB/s auf nur noch 160GB/s bei 256bit Interface zu fallen.... ansonsten müsste man bei 5GHz Taktung schon mindestens ein 320bit Interface bei der 370X einbringen, damit wenigstens 200GB/s erreicht werden.

Langsam wirds eng für die GraKas, wär besser wenn GDDR6 1H 2015 noch auf den Markt kommt!
 
Zuletzt bearbeitet:
Das sind unsererseits nur Vermutungen. GDDR6 basiert ja auf DDR4, welcher schon produziert wird, und mit Haswell-E in Q3/2014 auch erscheinen wird.
GDDR5 kam ja recht zeitnah mit dem DDR3 raus. Von daher ist, denke ich mal, die Wahrscheinlichkeit gar nicht so gering, dass es Modelle mit GDDR6 geben könnte.
 
Diese Gerüchte sind purer Blödsinn! Eine Steigerung der Shader-Einheiten um 50% auf 4.224 ist unrealistisch im vergleich zur Vergangenheit. Realistisch wären 3300-3500. Und Die R9 280X hat 2.048 und nicht 2.816 Shader-Einheiten! Und dann auch keine Quellen für die Gerüchte zu nennen. Also mal ehrlich CB, ich hab schon mal bessere Artikel von euch gelesen.
 
Dass die Zahlen falsch sind wurde schon wiederholt gesagt. Warum sie noch nicht geändert wurden weiß nur CB.
Quelle gibt es aber sehr wohl, wie im Artikel verlinkt: http://wccftech.com/amd-pirate-islands-r9-300-series-bermuda-fiji-treasure-islands-xtx/
Dafür dass du die Gerüchte für Blödsinn hältst kann auch CB nix. Aber deswegen sind wir ja hier, um sich objektiv darüber zu äußern und zu "diskutieren"...naja manche von uns.
 
Unyu; schrieb:
Es geht doch nicht darum, was wo ruckelt. Die Titan Classic ist nach dem CB Test nunmal auf dem Niveau der 290X Quiet.

Bei Ultra HD ist die 290x 13% in front ( Quiet ) und bei 2560x1600 sind es 5%. Die AMD Karte ist stärker.
Wie gesagt kein großer Unterschied, wenn es auf NV ruckelt ruckelt es auf AMD auch und umgekehrt.

Dann wäre da noch der Ubermode der 290X. Dieser Ubermode wird gerne herangezogen, wenn es um die Leistung geht, also muss er auch bei der Effizienzbetrachtung berücksichtigt werden.

Genauso muss der Quietmodus herangezogen werden und da sieht es zwischen R9 290x stock und Titan Stock so aus.

Gesamtes System: Titan 306 Watt R9 290x Quiet 345 Watt, macht nach Adme Riese 39 Watt Unterschied bei 5 bis 13% mehr Performance.
Die Titan ist demnach etwa 10% effizienter, wenn man 5 und 13% auf 9% Merhleistung mittelt.

Berücksichtigend kann man bei AMD die höhere Temperatur der Stockkarte und die engere Packung der Transistoren ins Feld führen.
Effizienzmeister ist Nvidia nun wirklich nicht.

Bei der 290x Stock und GTX 780 Ti sieht es genauso aus, sie arbeiten in den beiden Auflösungen exakt gleich schnell. Einmal +3% einmal -3%.
Die AMD zieht @ Stock grade mal 8 Watt mehr, Effizienz auf einem Niveau.

https://www.computerbase.de/2014-04/amd-radeon-r9-295x2-benchmark-test/8/

Entnommen aus dem aktuellsten review.

Das gleiche in Grün im jeweiligen Übermode, oder @ Max.

Tatsächlich macht statt Max eine normale Übertaktung weit mehr Sinn

Warum ist das so?
Soweit ich verstanden habe ist hier bei CB Nvidia max entsprechend dem Verbrauch um den Takt zu halten und nicht zu drosseln.
Das gleiche in grün bei den 1000mhz der AMD Karte. Hier könnte man auch mit selbstkonfigurierten Spannungen und Kühlungen stromverbrauchsärmer übertakten.
 
Kasmopaya schrieb:
Das was eine GPGPU Karte so ineffizient macht ist der GPGPU Ballast der beim zocken nicht gebraucht wird, dh. klein Kepler der in Sachen GPGPU Power kastriert wurde ist daher auch effizient beim zocken, die GPU wurde drauf spezialisiert. Also das genaue Gegenteil von Fermi.
Sogesehen war Fermi gut. Moderner Verbrauch, hohe GPGPU Leistung, hohe Tessellation und Spieleleistung.

Beim Takt hat NV noch viel Luft nach oben, haben sie ja selber gesagt, ist auch schon in dem Thead gesagt worden. VCore moderat gewählt, auch daran erkennt man das der Takt kein Problem war.
Bei Titan Classic sieht man das auf jeden Fall. Doch genau darum ist Titan Classic auch so effizient! Hätte nvidia damals gleich eine richtige Titan Black gestartet sehe es ganz anders aus.

Runselgum schrieb:
Mit dem großen Interface + vieler Speicherchips glaub allerdings dann nicht, dass es wieder viele Karten unter 26cm Länge oder gar 24cm gäbe, das würden dann mit Sicherheit nochmal ähnlich große Schollies werden wie die der jetzigen Generation!
Sehr gut, gefällt mir. Bei den hohen Preisen will ich auch was in der Hand halten. Gerne auch über 30cm.

smilefaker schrieb:
Bei Ultra HD ist die 290x 13% in front ( Quiet ) und bei 2560x1600 sind es 5%. Die AMD Karte ist stärker.
Wie gesagt kein großer Unterschied, wenn es auf NV ruckelt ruckelt es auf AMD auch und umgekehrt.
Bei UHD sind viele unspielbare Frameraten, oder gar ein Absturz der 290X bei Grid2 dabei.
Aber Cherry Picking hin oder her, wenn du über die letzten Prozent diskutieren willst, wende dich an Kasmopaya.

Berücksichtigend kann man bei AMD die höhere Temperatur der Stockkarte und die engere Packung der Transistoren ins Feld führen.
Effizienzmeister ist Nvidia nun wirklich nicht.
Falsch, es zählt das Gesamtpaket. Was du hier machst ist gleichzeitig die Packdichte huldigen während du noch wegen der Packdichte jammerst.

Bei der 290x Stock und GTX 780 Ti sieht es genauso aus, sie arbeiten in den beiden Auflösungen exakt gleich schnell. Einmal +3% einmal -3%.
Die AMD zieht @ Stock grade mal 8 Watt mehr, Effizienz auf einem Niveau.
Quiet ist nicht zwangsläufig Stock. So ein Hebel verstellt sich schnell noch in der Fabrik. Außerdem ging es mir um Titan Classic.

Warum ist das so?
Uber entfesselt im Wesentlichen den Lüfter. Max lässt höhere Temperaturen und höheren Verbrauch zu. Der Offset bleibt völlig unberührt.

Du siehst Uber kostet nicht mehr Verbrauch, nur Lautstärke. Im Gegenteil kann der Verbrauch durch geringere Temperaturen sogar sinken. Max ist eine willkührliche CB Erfindung.

Übertakten ist natürlich besser und eigene Kühlsysteme lassen Uber nutzlos werden. Nur beim Übertakten brauchen wir kaum über Effizienz diskutieren. Eher darum welches Brett mehr aushält.
 
seit wann hat denn die R9 280X ein 512 Bit Interface?!
 
r4yn3 schrieb:
Den Test gibts schon länger, und dennoch verwundert er mich. Hat doch bislang Thaiti und Hawaii deutlich besser abgeschnitten, siehe Test zur 290 http://www.techpowerup.com/reviews/AMD/R9_290/27.html
Hier muss die Titan deutlich Federn lassen.
Wenn man sich nun bei beiden Tests die Verbrauchswerte ansieht, sind da einige Unstimmigkeiten. Was wird für den Effizienz Test verwendet? Typical Gamig Power, also vermutlich Average Werte und Peak Werte.
.

hmm @r4yn3 @Kasmopaya hat dich schon lange auf Ignorlist gesetzt und kann des alles nicht mehr lesen, du schreibst die ganze Zeit schon mit dir selbst, das hab sogar ich mit bekommen. :freak:
 
Sogesehen war Fermi gut. Moderner Verbrauch, hohe GPGPU Leistung, hohe Tessellation und Spieleleistung.
Im Absoluten High End 6970 sah es gar nicht so übel aus, aber die 6950 war dann wieder satte 60% effizienter unterwegs. Auch die kleinen Modelle hatten keine Chance gegen die HD 6000. Darum auch Thermi, die meisten waren einfach Ineffizient wie Hölle.

Bei Titan Classic sieht man das auf jeden Fall. Doch genau darum ist Titan Classic auch so effizient! Hätte nvidia damals gleich eine richtige Titan Black gestartet sehe es ganz anders aus.
Tech Power up hat leider keine Titan Black im Angebot, oder? So wie ich das sehe hat sie Effizienz verloren, aber nicht dramatisch. Warten wir mal auf die Titan-Z v. 295 X2, 2x Vollausbau Karten dürfte die Differenz dann gut zur Geltung kommen. Die 292 X2 haben sie ja schon drin.

Edit:
@Amusens

LOL dachte mir schon warum da immer alles voller ignore Beiträge ist, das kann ich mir gut vorstellen das euch das nervt. Ich seh ja seinen Mist nicht mehr. Bin mir aber ziemlich sicher das ich immer Bescheid sage, wenn bei mir einer auf Ignore gesetzt wird. :)
 
Zuletzt bearbeitet:
Weiß ich sehr wohl. Aber du weißt, dass es ihm dennoch angezeigt wird wenn ich was schreibe, und er wenn er will sich den Beitrag durchlesen kann, und ich wette das tut er auch.
Weshalb ich das mehr als kindisch finde.

Aber schön das sowas auffällt ;)
 
Nö, ignore ist ignore bei mir, ich lese bis auf diesen hier nichts mehr von dir, du schreibst mit dir selber, wie Amusens schon schrieb...

Einzig wenn einer deine Beiträge zitiert, dann sehe ich sie, aber ansonsten bist du ja nicht ohne Grund auf der Liste.

Edit: Wenn dir das Spaß macht, ich muss es ja nicht mehr lesen. Bis sich andere wieder drüber beschweren und mich mit rein ziehen.
 
Zuletzt bearbeitet:
Mhm...sicher. Aber zumindest sieht das Forum anhand des von mir verlinkten Test der 290X dass deine Titan huldigungen zumindest nicht völlig gerechtfertigt sind, und es durchaus negativ Beispiele gibt.
Aber natürlich wird man von dir ja ignoriert, wenn man mal gegen Nvidia schreibt, kennt man ja :rolleyes:
Ergänzung ()

Kasmopaya schrieb:
Einzig wenn einer deine Beiträge zitiert, dann sehe ich sie,...
Was schlichtweg gelogen ist ;)
Sehen, dass ich was geschrieben hab tust du immer, Zitate ändern an der Darstellung meines ignorierten Beitrags nichts.
Kasmopaya schrieb:
Bis sich andere wieder drüber beschweren und mich mit rein ziehen.
Wo wurde sich beschwert? Amusens hat mich darauf hingewiesen. Was die Leute lesen ist lediglich, dass du dem was ich schreibe ausweichst, weil du, ich weiß auch nicht, nichts dagegen sagen kannst/willst?
 
Zuletzt bearbeitet:
Sollte es tatsächlich möglich sein, dass kein einziger hier, incl. CB selbst, mitbekommen hat, dass im Waferabkommen zwischen AMD und GF auch GPUs erwähnt wurden und das GF ebenfalls einen 20nm-Prozess hat und dass die Aussagen über TSMCs 20nm-Prozess nichts mit dem Zustand über den GF-Prozess zu tun haben?

Wie immer erfährt man von GF selbst nichts und auch nicht wie weit der Prozess ist und wie gut er ist, aber bis zum erscheinen von Kaverie wusste niemand was von einem 28nm HPP und als auf den ersten gesockelten Kabinis "Diffused in Germany" stand haben auch alle doof geguckt.

Ich wäre da mal nciht so sicher, dass die neuen GPUs nicht bei GF in 20nm gebaut werden.
 
wosch666 schrieb:
Ich wäre da mal nciht so sicher, dass die neuen GPUs nicht bei GF in 20nm gebaut werden.

Und ich wäre überrascht, wenn das dann einen positiven Einfluss auf den Erscheinungstermin und/oder die Qualität der GPUs hätte. ;)

Jedenfalls hat sich GF in der Vergangenheit nicht gerade mit Ruhm bekleckert. Wohl auch einer der Gründe, warum AMD die eigene Fertigung ursprünglich abgespalten hat. Aber ich lasse mich natürlich immer gerne positiv überraschen.
 
Zurück
Oben