News AMD Radeon R9 Fury X2: Auf dem Papier im Dezember, in den Händen im Q1/2016

Erster 16nm Chip gleich eine 500mm² GPU.. Guter Witz.
Genau so schauts aus, jetzt kommen erstmal die kastrierten mini GPUs, Vram Krüppel Editionen, wenn man Pech hat wieder mit Feature Vram. NV hat ja nicht versprochen das es sowas die 970 nie wieder geben wird, in den Augen von NV war es ein super tolles Feature, das nur besser hätte kommuniziert werden sollen.
 
Kasmopaya schrieb:
Ihr wisst was da mit 2x4GB Vram auf uns zu kommt? Soll ichs sagen? :D
Nein brauchst du nicht, du als VRAM Fetischist findest ja schon die 12 GB der TitanX ganz sinnvoll, weniger wäre dMn zu wenig gewesen... ;)

Aber klar, 4GB HBM bei dieser Grafikpower könnte in DX11 tatsächlich knapp werden. Bei einer einzigen Fury X musste man schon UHD und extreme Einstellungen wählen um ans Speicherlimit zu kommen, denn da arbeiten die 4GB HBM tatsächlich viel effizienter als herkömmliche GDDR5 Grafikkarten. Aber 2xFiji ist halt kompromissloses 4K Gaming und da bin ich mal gespannt, wie das funktioniert. Vielleicht wartet AMD ja auch auf erste DX12 Spiele, um dann sank SFR mit effektiv 8GB HBM punkten zu können.

Andererseits müsste es doch schon Fury X CF Tests gegeben haben, die dann zeigen konnten ob die 4GB tatsächlich ein echtes Problem sind.
 
Ursprünglich hatte AMD geplant, die Karte noch im Herbst dieses Jahres vorzustellen. Laut dem in der Regel gut informierten asiatischen Portal Benchlife wird sich dies jedoch bis in das erste Quartal verzögern.

In der nördlichen Hemisphäre endet der Herbst am 22. Dez.
Die Schreibweise suggeriert mir, dass hier etwas angedeutet wird ohne darauf einzugehen.
Obwohl der Titel korrekt besagt "Auf dem Papier im Dezember".

mfg,
Max
 
zeedy schrieb:
Haha aber natürlich! Weil eine Titan bisher immer als erste Karte einer neuen Nvidia Generation kam? :lol:

Was sollen wieder die falsche Aussage. Kann doch jeder nachlesen mit zwei Minuten google.
Beispiel gefällig:

Geforce GTX Titan (GK110-400-A1): Präsentiert: 19. Februar 2013
Geforce GTX 780 (GK110-300-A1): Präsentiert: 23. Mai 2013

Als bei mir im Kalender liegt der Februar vor dem Mai. Also ich weiß nicht wie das bei dir ist. Das gab es also schon und seine Aussage nicht unbedingt falsch.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
NV hat ja nicht versprochen das es sowas die 970 nie wieder geben wird, in den Augen von NV war es ein super tolles Feature, das nur besser hätte kommuniziert werden sollen.

:daumen:

Wobei man fairerweise auch sagen muss, dass Nvidia seit Maxwell endlich keine VRAM Gurken mehr anbietet. Die 3,5GB der 970 sind ja für 1080p völlig ausreichend. Und mehr als 1080p ist mit dieser Speicheranbindung eh nicht (immer) wirklich sinnvoll in aktuellen Spielen. Das Problem bei dieser 3,5GB Geschichte ist mMn einzig und allein die Fehlbeschreibung der Karteneigenschaften und die unverschämte Arroganz und Ignoranz nachdem das bekannt wurde.

Anders siehts natürlich mit 680/770 und 780(ti) GTXen. Wie vor allem die GK104 Karten heute abkacken, schlicht weil die 2 GB zu wenig für die Leistung sind, ist einfach traurig und für die Besitzer sicher ärgerlich.
 
Zuletzt bearbeitet:
Es ist trotzdem extrem unwahrscheinlich das gleich ne Titan Karte kommt. Die wird wahrscheinlich eher 2 oder 3 quartal kommen. Das wehr eigentlich logischer aber naja man wird sehen.
 
strex schrieb:
Was sollen wieder die falsche Aussage. Kann doch jeder nachlesen mit zwei Minuten google.
Beispiel gefällig:

Geforce GTX Titan (GK110-400-A1): Präsentiert: 19. Februar 2013
Geforce GTX 780 (GK110-300-A1): Präsentiert: 23. Mai 2013

Als bei mir im Kalender liegt der Februar vor dem Mai. Also ich weiß nicht wie das bei dir ist. Das gab es also schon.

Nur hätte der GK110 eigentlich das Flaggschiff dee 600er Serie sein müssen. Hat sich aber gewaltig verspätet, sodass dann eine neue absurd überteuerte Serie eingeführt wurde. Wie du weisst, basiert dee Chip auf der Kepler Architektur , und die kam mit den 600er GTXen zum Einsatz ;)
Die GTX700 Serie war ja im Grunde nur ein Rebrand/Refresh der 600er Generation (in der ein 500mm² Chip fehlte), mit nur ein neuen Chip.
 
Zuletzt bearbeitet:
Volker schrieb:
Zuletzt hatte AMD gezeigt, dass selbst eine Leistungsaufnahme von 500 Watt bei nur zwei 8-Pin-Stromsteckern möglich ist – allen PCIe-Spezifikationen zum Trotz.

Ist das jetzt gut oder schlecht?

Bin auch der Meinung dass AMD sich die Karte ruhig sparen könnte. Da müsste man schon ziemlich schmerzfrei sein sich im Q1 noch so ne Karte zu ordern, wenn die neue Generation quasi schon vor der Tür steht.
 
Einerseits, warum nicht? Wenn AMD die Mittel hat diese Karte zu releasen und damit noch etwas Kohle abzugreifen, warum nicht.
Andererseits steht um diese Zeit Pascal in den Startlöchern und bis AMD mit was neuem kommt (490, 490X etc), ist es schon wieder viel zu spät.

NV hat ja nicht versprochen das es sowas die 970 nie wieder geben wird

Ich glaube nicht, dass sich nVidia sowas wieder anhören möchte und so negativ in den Schlagzeilen stehen will.

Da müsste man schon ziemlich schmerzfrei sein sich im Q1 noch so ne Karte zu ordern, wenn die neue Generation quasi schon vor der Tür steht.

Oder sich einfach wie 90% der Käufer nicht auskennt und das kauft was gerade aktuell die meiste Leistung bietet.
Man kann nicht immer davon ausgehen, dass da draußen nur Computernerds rumlaufen, die wissen wann AMD ne neue Grafikkartenserie rausbringt.
 
Zuletzt bearbeitet:
Anders siehts natürlich mit 680/770 und 780(ti) GTXen. Wie vor allem die GK104 Karten heute abkacken, schlicht weil die 2 GB zu wenig für die Leistung sind, ist einfach traurig und für die Besitzer sicher ärgerlich.
Und du glaubst ernsthaft das den klein Maxwell Karten viel schneller die Puste ausgeht um den Vram dann nicht nutzen zu können, obwohl die Maxwell Karten aktuell alles in Grund und Boden rechnen bei jedem neuen Game das raus kommt?

970 3,5GB ist nicht nur ein lupenreiner Vram Krüppel wie er im Buche steht, die Karte schafft es als einer der wenigen auch Vram + Speicheranbindungs Krüppel in einer Karte zu kombinieren. Die Lebenszeit der Karte wird darunter stark leiden. Das ist heute schon sicher.

Ich glaube nicht, dass sich nVidia sowas wieder anhören möchte und so negativ in den Schlagzeilen stehen will.
Ich glaub das PR Geblubber waren nur hole Frasen, wie immer, die sind wie VW beim absichtlichen Betrug am Kunden aufgeflogen. Und das wissen die genau. Würd mich auch wundern wenn wir sowas nochmal sehen würden bei high End Karten. Bei den low end Karten kann ich mir das schon eher vorstellen.
 
Zuletzt bearbeitet:
@zeedy

Macht jedoch kein Unterschied, die mit 3 Shadercluster mehr ausgerüstete Geforce GTX Titan, somit komplizierterer Chip kam zu erst. Erst dann folgte die kleinere Geforce GTX 780. Es ist somit nicht unmöglich und auch schon so gewesen. Weswegen deine Aussage - generell wie sie war - falsch ist.

Da kann man jetzt noch so argumentieren und winden wie man will. Es gab es und ist nicht ausgeschlossen. Wenn wir schon alles auf die Goldwaage legen und immer so genau sein wollen, dann muss man auch hier ganz genau sein. Unwahrscheinlich das es so kommt, ja - aber nicht unmöglich.
 
Zuletzt bearbeitet:
ExigeS2 schrieb:
Nie wieder Dual GPU Karten zum zocken egal ob von rot oder grün.. hab mich schon mal für zwei 3870x2 statt einer 8800 gtx ultra entschieden wegen des hoch gelobten Preis Leistungs Verhältnisses und wurde bitter enttäuscht.

Da habe ich ganz andere Erfahrungen gemacht. Mit 2 x R9 290 skalieren meine Games ausgezeichnet und Triple-Screen (3 x FullHD) macht sich damit exzellent. Du solltest sehen, dass seit dem Release der HD 3000 viel Zeit vergangen ist und AMD gerade in Richtung Frame-Pacing saubere Arbeit geleistet hat. Aber es ist hier im Forum wie Eulen nach Athen tragen... Multi-GPU Bashing ist einfach hipp, da kann man schreiben soviel man will.
 
Ich glaub das PR Geblubber waren nur hole Frasen, wie immer, die sind wie VW beim absichtlichen Betrug am Kunden aufgeflogen. Und das wissen die genau. Würd mich auch wundern wenn wir sowas nochmal sehen würden bei high End Karten. Bei den low end Karten kann ich mir das schon eher vorstellen.

Natürlich wussten die das. Ist genau das gleiche wie mit VW.
Deswegen denke ich ja, dass sie sich die Blöse nicht mehr geben.

Die Lebenszeit der Karte wird darunter stark leiden. Das ist heute schon sicher.

Nunja.
Die Karte wird nächstes Jahr im Herbst 2 jahre alt. Spätestens dann wird die eh ausgetauscht.
Und momentan kann ich noch problemlos alles mit höchsten Einstellungen in FullHD und alles in hohen Einstellungen in 3440x1440 zocken. Das ganze Thema wurde ziemlich hochgekocht.
 
Zuletzt bearbeitet:
Punkt 1:
Ein neues, teures Flagschiff schön und gut. Nur werden die wenigsten sich dieses kaufen. Wenn das 2% vom gesamten PC Markt wären, wäre es viel.
Wo bleibt eine AMD Karte für den "Normalo" die einer GTX 980Ti das Wasser reichen kann? Sowohl bei der Performance als auch beim Stromverbrauch?
Eine R9 390X ist hier kein passender Vergleich da schwächer und viel viel hungriger.

Punkt 2:
4GB HBM vs 12GB GDDR5.
Die Vorteile des HBM liegen primär in der viel höheren Geschwindigkeit in welcher Daten getauscht werden können. Leider zerplatzt dieser Vorteil in vielen Systemen an den langsamen Massenspeichern, welche die Daten nicht schnell genug liefern können.
Ein System mit einer M.2 SSD mit voller PCIe 4x Nutzung plus schneller SSD, sollte jedoch weit weniger Probleme bekommen als eines wo die Daten von einer SATA 6G SSD oder gar HDD stammen. Das ist mit Sicherheit auch eine Sache des Treibers. Zudem ist selbst DDR4 Arbeitsspeicher, gleich wie groß er sein mag, immer noch zu langsam. Die 40-60GB/s kommen an die 400-500GB/s von HBM nicht ran.

Mein (gesponnener) Ansatz ist daher, eine HBM Grafikkarte könnte extrem profitieren wenn sie auf der Rückseite einen eigenen M.2 Slot hötte wo der Grafiktreiber in eine Schnelle (z.B.) 128GB SSD Texturen etc. der Spiele puffert. So könnten diese etwas schneller auf direktem Wege in der GPU landen.

Solange die gesamte Anbindung der Grafik an den Massenspeicher jedoch so langsam bleibt, ist ein größerer GDDR5 RAM im Vorteil, denn hier können nach und nach die Daten im Hintergrund den Speicher füllen. In 12GB bringe ich einfach viel mehr rein das ich dann abrufen kann bei Bedarf. Da kommt es dann nicht ein mal mehr auf die Bandbreite so sehr an, denn >200GB/s ist ja schnell genug.


Zuletzt muss man jedoch erkennen, es ist alles das absolute obere Ende. Sowohl die Fury X als auch die Titan X sind keine Karten die sich der 1000€ Gamer zieht. Und Anfragen in dieser Preisregion oder darunter sind deutlich häufiger im Forum als Anfragen zu 3k€ und mehr... Sicher wissen die wo solche Kisten wollen eh schon was sie kaufen, sie werden dennoch eine kleine Minderheit bleiben.
 
Also ich glaube kaum, dass Pascal schon im Q1/2016 für endkunden kommt. Eher Anfang Herbst (also Q3) das klingt sehr viel wahrscheinlicher.
Ich glaube auch, dass AMD früher kommen wird (die haben immer noch Vorang bei HBM-Belieferung).
Das wird spannend.
Ausserdem würde nVidia kaum schon Anfang 2016 ne neue Karte rausbringen, die wollen doch jetzt noch mit Maxwell geld verdienen.
 
@strex: der erste Kepler Chip ist und bleibt der GK104 und nicht der GK110. Maxwell startete ja sogar erst mal mit der kleinen 750Ti... wird eigentlich immer schlimmer. Nur die GTX480 kam mit dem ganz großen Chip als erstes, aber teildeaktiviert.
 
Drummermatze schrieb:
Oder sich einfach wie 90% der Käufer nicht auskennt und das kauft was gerade aktuell die meiste Leistung bietet.
Man kann nicht immer davon ausgehen, dass da draußen nur Computernerds rumlaufen, die wissen wann AMD ne neue Grafikkartenserie rausbringt.

Ja. Sicherlich. Der 0815 User der sich nicht auskennt kauft sich mal eben ne Dual-GPU Karte für wasweißichnicht wieviele Euro. Ich unterstelle einfach mal, dass sich die Käufer die Titans oder Dual-Furys kaufen, verdammt gut auskennen und wissen was sie tun. Auf den kleinen Shooterking mit 1000 Euro Taschengeld sollte man sich bei so einer Produktvariante nicht verlassen.
 
Ich behaupte mal das AMD vor Q3 nichts bringen wird die 300er Serie ist ja noch nicht lange am Markt, aber wir werden es ja sehen
Nvidia wird evtl. etwas früher kommen mal schauen.

Wenn deiner Einschätzung nach AMD eine schlechte Qualität hat dann begründe sie wenigstens für mich.
Ich wundere mich jedenfalls nicht das es AMD noch gibt.
 
Zuletzt bearbeitet:
Was bringen mir 12gb bzw. 16gb Vram in Dual Nvidiakarten wenn die Spiele überhaupt kein SLI unterstützen,
immer mehr Spiele haben optimierte 60FPS Limit und verzichten ganz auf SLI/Crossfire Option.

Letzter BatmanAK (Nvidia Support) ist leider trauriger Beweise.
 
Zurück
Oben