News AMD Radeon: Hinweise auf Dual-Fiji-GPU und „Polaris“ im Dezember

Der Hinweis ist doch eindeutig: Die Kühlleistung ist so knackig gut wie die Temperaturen in der Arktis. :p
 
Haben Dual-GPUs eigentlich Voteile gegenüber den Problemen die bei SLI und Crossfire mit zwei einzelnen Grafikarten auftreten?
Bei Anwendungen die mit CF crashen ist es umständlicher das abzuschalten als mit 2 Karten, da man
für jede App ein Profil anlegen muss zum Deaktivieren des CF, zumindest war es damals so
Ich wollte ursprünglich die Fury X2 allerdings hats mir dann doch zulange gedauert ;) Bei der nächsten Generation tausche ich dann vielleicht oder wenn die grüne Fraktion mal was deutlich stärkeres rausbringt
 
Hatte dein Beitrag denn nun mehr Sinn als "Schaut her!! Ich spiele mit Dual 980ern in SLI bei 4K!!" ?
Du widersprichst dich schon in zwei Sätzen. Zum einen brauchst du zwei von diesen Karten und im nächsten Satz willst du auf jeden Fall Nvidia. (Sinn?)

Und dann kommts ja: Weil dann die Blizzard Spiele besser laufen :D
 
Die Leistungsaufnahme und Abwärme wird wie immer der Knackpunkt bei AMD.
Schon bitter sowas vorher zu wissen.
 
Simanova schrieb:
Die Leistungsaufnahme und Abwärme wird wie immer der Knackpunkt bei AMD.
Schon bitter sowas vorher zu wissen.

Den Nano-Test hast du vermutlich verschlafen. Schon bitter, dass man das aus deinem Post direkt herauslesen kann ;-P Und die Nvidia-Dual-GPUs haben in der Vergangenheit ja auch immer Strom abgegeben :D

@Topic:
Wenn AMD sich beeilt und 2 Nanos auf ein Brett schraubt und das Stück für ~900 Euro anbietet, könnte es (relativ) gut ankommen, denke ich. Sofern beide Chips Zugriff auf richtige 8 GB HBM haben, mit effektiv 4GB wäre das Anwendungsgebiet ja klar verfehlt.
 
Die Fury-X2 dürfte an die 1.000€ oder gar mehr kosten - zumal AMD gestern bzgl. der Fury, Nano und Fury-X Pricecuts offiziell bekundete:
http://wccftech.com/amd-r9-fury-x-nano-price-cuts/

Leistungsaufnahme um die 500 Watt - wenn ja, dann wird es mit einem 850Watt Netzteil evtl. klappen.

Alles in Allem --> Abwarten ist wie immer die beste Medizin ;)
 
@ Tranceport
Die Dual-Fiji wird weiterhin ein Rechner mit verteiltem Speicher bleiben. Dementsprechend ist es Wunschdenken, dass sich diese Dual-GPU mit 4 GB so verhält wie eine einzige GPU mit 8 GB. Denn das (effiziente) Programmieren von Rechnern mit verteiltem Speicher ist nicht umsonst eine Wissenschaft für sich.
 
Man darf also gespannt sein, was da nun genau auf uns zukommt.
Ich würde jedoch nicht von einem Preis unterhalb der 1000€ ausgehen, daher ist die Karte eh nur für sehr wenige Käufer überhaupt interessant, aber wenn man der Karte 8GB HBM spendiert, wird das gute Stück auch in 4k in den nächsten Jahren nicht die Puste ausgehen ;)
 
sobald Dual-Karten erscheinen sind die neuen auch nicht mehr weit... ;)
 
@ Hejo,

so ist es.
Nvidia Pascal im 2. Quartal 2016 und AMD Arctic Island / Greenland ebenso im 2. Quartal nächsten Jahres.

14/16nm FinFET und die nächste GPU-Generation ist um einiges leistungsfähiger und zugleich verbrauchsärmer.
 
Eine Nano² wird es werden, ohne den Mikroruckler-Effekt, da es dem System nur wie eine GPU ausschaut und ein Chip die Last auf die Karten verteilt... *träum*

Hmpf, mal sehen. Gestern bei Amazon Warehouse eine R9 Fury für ~520€ geschossen.
 
Nette Geschichte, was technisch so geht, allerdings ist eine Karte mit 500 Watt Abwärme schon irrsinig. Braucht man keine Heizung mehr und alle 2h ist eine KW/h fällig..
 
Glückwunsch @ Don Kamillentee - nun dürfte BF4 so richtig flutschen hm?? :)
 
R3SiD3Nt3 schrieb:
Nvidia Pascal im 2. Quartal 2016 und AMD Arctic Island / Greenland ebenso im 2. Quartal nächsten Jahres.

Ich tippe auf März/April 2016. Den Anfang macht dann die Titan Irgendwas, so war es die letzten Jahre immer mit Titan / Titan Black / Titan X.
 
Die News macht mich neugierig. Der Polarstern war ja ein wichtiger Navigationspunkt für die Nördliche Inseln(Arctic Island). Interessant ist auch die 2,5 und könnte sich auf eine Leistungsangabe beziehen.
 
BlackhandTV schrieb:
@HzweiO :

Ich brauche unbedingt 2x von diesen Karten denn ich kann maximal 2 Grafikkarten auf meinem Z170 ASUS Hero Board betreiben und bin mit 2x 980 Ti trotzdem im GPU - Limit, das Board unterstützt aber Quad-Sli, nur halt mit maximal 2 Grafikkarten.

Aber ich möchte nur nVidia, weil ich nur Blizzard Spiele nutze und die laufen grundsätzlich besser mit nVidia!
Welches Blizzard Spiel benötigt denn überhaupt soviel GPU Leistung? O.O
 
ich_nicht schrieb:

Und leider totaler Stuss. Vielleicht auch mit ein Grund warum manche Computerbase auch als NVBase bezeichnen. :(
tomshardware.de
...
Wie AMD uns mitteilte, ist die TDP der Karte mit maximal 450 Watt spezifiziert - und wenn wir uns die zweite Seite mit Power Tune und der Theorie Erinnerung rufen, dann wissen wir auch, dass diese Angabe nicht nur ein schnöder Schätzwert ist, sondern eine echte Grenze. Beim Gaming messen wir noch knapp unter 430 Watt, so wie von AMD kommuniziert und nicht über 500, wie oft verbreitet:
...
Beim Stresstest, den wir als Nächstes auch mit einer guten Infrarotkamera (Optris PI450) dokumentieren werden, sind es ebenfalls nur knapp unter 450 Watt. Das beweist, dass man nur schnell genug messen muss, um sich bei der Wertermittlung nicht meilenweit vom tatsächlichen Durchschnittswert zu entfernen.
...
 
Omg die schnellste Karte, will haben, JETZT :D
Man darf auch nicht vergessen dass (vorausgesetzt das Spiel unterstützt CrossFireX) 4k mit dieser Karte kein Problem mehr sein wird.

mfg,
Max
Ergänzung ()

BlackhandTV schrieb:
Aber ich möchte nur nVidia, weil ich nur Blizzard Spiele nutze und die laufen grundsätzlich besser mit nVidia!

Falsch - nur WoW läuft besser auf Nvidia.
Starcraft lief damals schon besser auf ATI (nicht AMD) Karten ;)

mfg,
Max
 
Zuletzt bearbeitet:
Ich finde solche Karten immer geil.
Was ich aber noch cooler finde ist, dass diese Karte ins Projekt Quantum kommt. Da ist eine Graka mit 2 Chips drin.
Man könnte ja denken, dass die an der abwärme und Tdp so lange optimiert haben, das das auch ins Projekt Quantum besser passt. Denn eigentlich ist das ja fertig. Man kann ja auch schon länger ein Video dazu sehen, wie die dass zusammen bauen.
 
Zurück
Oben