News AMD: Dual-GPU-Fiji kommt mit Cooler-Master-Wakü

@k0ntr:
Nuja, ganz so würde ich es nicht formulieren. Vermutlich ist der Programmieraufwand für annähernd Mikroruckel-freies Spielen einfach viel zu hoch in Relation zu der Anzahl an existierenden MutliGPU-Systemen. Ein typischer Teufelskreis.
Aber ich denke schon, dass dieser so langsam durchbrochen wird. Native SFR-Unterstützung in DX12 neben immer kleiner werdenden Leistungssprüngen bei SingleGPU-Grafikkarten durch die Limits im Fertigungsverfahren der Chip-Hersteller werden das ganze sicherlich irgendwann durchdrücken.
 
Mikroruckler hab ich nur in FarCry4, dabei ist egal ob eine oder 2 GPUs verwendet werden :D
Das Problem existiert in diesem Sinne nicht mehr, bzw. ist inzwischen zu vernachlässigen.

Problematisch ist nur die Wartezeit bis man auch mal neuere Games ohne Fixes und Workarounds zocken kann.
Allerdings bin ich zuversichtlich dass Dual-GPUs die Zukunft sind, nicht zuletzt wegen dem ganzen VR/DX12/Vulkan Hype :)

mfg,
Max
 
DunklerRabe schrieb:
Tobermory ist nicht die Insel selbst, es ist die Hauptstadt der Insel Isle of Mull ;)

Danke, wollt ich auch schreiben. Übrigens sehr schön da, hab ich vor drei Jahren besucht :)
 
1. sehr gut AMD, weiter so, immer feste druff auf die Grünen :D
2. Was die Pumpe macht ist doch nebensächlich, viel wichtiger ist doch die Vermeidung von Spulenfiepen.
3. Gerade solche Dual-GPU-Karten würde ich immer strippen und in die Custom-Wakü (mit massiv vorhandener Radiatorfläche) einbinden, einfach um den Geräuschpegel ins bodenlose sinken zu lassen - 500+ Watt über einen 120er Radiator kann nicht das Ziel sein.
4. Grafikkarten gehören auch nackt angeboten, ohne Kühler und Lüfterschnickschnack, für diejenigen mit Custom-Wakü (demnächst ebenfalls). Der Hersteller spart sich die Montage, ich mir die Demontage und die Umwelt freut sich über nicht verbrauchte Rohstoffe, Energie und erzeugten Müll.
 
Es ist doch völlig Banane ob Microrucker in Multi-GPU-Setups mit welchen aufwändigen Tricks auch immer minimiert werden oder nicht. Die Idee von Multi-GPU an sich ist völliger Käse und ist im Privatsektor nur was für Leute, die nicht wissen wohin mit ihrem Geld.

Daß sich die Entwicklung immer mehr verlangsamt, ist zwar klar, aber bisher wurden überteuerte Multi-GPU-Setups immer nach wenigen Jahren von einzelnen Grafikkarten einer neuen Generation überholt, und das mit weniger Lärm, weniger Strom und weniger Abwärme.

"Wir werden an Multi-GPU nicht vorbeikommen" - wenn es nach den Herstellern geht, ja. Da gibt es doppelt so viel zu verdienen. :freak: Sinn ergibt es trotzdem nicht.
 
Eine dual gpu mit 4 gb verwendbaren vram, das teil kann man sich höchstens in die Vitrine stellen. Die 3gb bei meiner 7990 haben schon nicht mehr gerreicht und die karte ist mehr al s doppelt so langsam wie eine r9 fury x x2. Amd sollte mal Produkte für das hier und jetzt rausbringen und nicht für, könnte in zwei jahren vielleicht gut sein weil dann vielleicht 8 cpu Kerne oder der vram im cf vielleicht addiert werden könnte.
 
Hoffentlich passen die beiden GPUs trotdem noch auf eine max. 17cm lange Karte drauf, das wäre perfekt für ein starkes mITX System.
 
Wolfsrabe schrieb:
Es ist doch völlig Banane ob Microrucker in Multi-GPU-Setups mit welchen aufwändigen Tricks auch immer minimiert werden oder nicht. Die Idee von Multi-GPU an sich ist völliger Käse und ist im Privatsektor nur was für Leute, die nicht wissen wohin mit ihrem Geld.

Mensch Mensch ... Dual-GPUs sind bisher nur für absolute Enthusiasten interessant ;)
Und trotzdem sind sie die (nähere Zukunft).

Wir werden dasselbe erleben, wie wir um das Jahr 2000 herum mit CPUs erlebt haben.
Zuerst kleben alle ihre Kerne zusammen, und am Ende gibts richtige Dual/Quadcores :D

mfg,
Max
 
syfsyn schrieb:
Nix im bereich um die 250€auf dem markt

R9 380X - Grafikkarte mit Tonga XT bestätigt viel Vergnügen ;)
Ergänzung ()

Lars_SHG schrieb:
so sinnlos wie ein Kropf diese Dual-GPU von AMD!

...genauso wie eine dual Hawaii mit je 4GB GDDR5, genauso wie eine sGPU-Karte mit 12GB GDDR5, genauso wie eine dual GK110 mit Temperaturproblemen und einem Preis von über 2000€, genauso wie über dreißig Versionen einer 450€+ GM204 Karte, usw....

Was im Enthusiast-Segment vor sich geht kann dem normalen User eigentlich fast egal sein ;)
 
Zuletzt bearbeitet:
Was die wohl Kosten wird, die günstigste Fury X kostet 662€ mal zwei 1324€ :(
Oder werden nur zwei Fury (ohne X) verbaut?

Und kann mir vielleicht einer Sagen was aus dem Pumpenfiepen der Fury X wurde?
Ist das nun nach gebessert worden?
Sind die neuen Revisionen im Handel?
Kann ich nun eine Kaufen ohne Geräusche?
 
Eller schrieb:
Und kann mir vielleicht einer Sagen was aus dem Pumpenfiepen der Fury X wurde?
Ist das nun nach gebessert worden?
Sind die neuen Revisionen im Handel?
Kann ich nun eine Kaufen ohne Geräusche?

Jep, gibts in den neuen Revisionen nicht mehr ;)
+ konnte man selbst locker mit nem Blatt Papier fixen (war nur Vibration des Kühlers) :D

Echtes "Spulenfiepen" taucht in dieser Forum nur bei alten ATI Karten (<HD4000) und bei allen aktuelleren Nvidia karten auf. Grund dafür - es sind billige Teile verbaut.

mfg,
Max
 
Zuletzt bearbeitet:
Ich denke auch das sich vorerst im High-End Segment in absehbarer Zeit genau solche Dual-GPU Lösungen durchsetzten werden ... mich persönlich verwirren die ganzen neuen Grafikkarten ein wenig. Da weis man nie ob man mit dem Kauf nicht lieber noch ein bisschen wartet bis die nächsten Grafikbeschleuniger rauskommen.:D
 
Biocid schrieb:
Hat sich das immer noch nicht geändert? Multi GPU hat mich vor einigen Jahren, schon genau deshalb abgeschreckt, dacht da hat sich was getan.

Ich dachte auch, dass sich in Sachen Mikroruckler bereits einiges gebessert hätte (hat sich eigentlich wirklich was verbessert?), aber da bin ich zur Zeit nicht sehr gut informiert.

Topic: Serienmäßig mit WaKü also? Das Ding lässt sich sicherlich auch mit zwei oder drei Lüftern bändigen :D


Gruß,
Der Doc.
 
19ds9c.png

Autsch!
 
Peter_Silie schrieb:
Hoffentlich passen die beiden GPUs trotdem noch auf eine max. 17cm lange Karte drauf...

Traumtänzer oder wie? Schau dir mal das Fiji-PCB an und sag mir dann wo noch Platz sein soll für eine 2. GPU zuzüglich der doppelten Anzahl an VRMs.

Deshalb gibt es für Gemini logischerweise ein eigenes Boarddesign, wie schon seitens AMD gezeigt wurde.

logo-300x169.2686853380.jpg
 
Zuletzt bearbeitet: (Ergänzung)
max_1234 schrieb:
Jep, gibts in den neuen Revisionen nicht mehr ;)
+ konnte man selbst locker mit nem Blatt Papier fixen (war nur Vibration des Kühlers) :D

Echtes "Spulenfiepen" taucht in dieser Forum nur bei alten ATI Karten (<HD4000) und bei allen aktuelleren Nvidia karten auf. Grund dafür - es sind billige Teile verbaut.

mfg,
Max

Dann hast du aber noch nie ne Fury (ohne X) gehört. Die Pfeift wie ein Flötenorchester unter ordentlicher Last. Damit kannst Musik machen jenachdem wohin man gerade schaut...
 
Wieso kommt keine fiji im mainstream
oder die Nano würde mal billiger werden
Dieser Stillstand
Freut euch schon mal auf 2x4GB Vram Stillstand, das hatte ja schon die 295X2. Bei der gesteigerten Rohleistung natürlich auch ein no-go.

Weis einer zufällig welcher Wakü Hersteller auf den EVGA Hybrids verbaut werden? Hab bis heute dazu nix gefunden.
 
Zuletzt bearbeitet:
O-Saft-Killer schrieb:
Eine dual gpu mit 4 gb verwendbaren vram, das teil kann man sich höchstens in die Vitrine stellen. Die 3gb bei meiner 7990 haben schon nicht mehr gerreicht und die karte ist mehr al s doppelt so langsam wie eine r9 fury x x2. Amd sollte mal Produkte für das hier und jetzt rausbringen und nicht für, könnte in zwei jahren vielleicht gut sein weil dann vielleicht 8 cpu Kerne oder der vram im cf vielleicht addiert werden könnte.
Nur weil bei gleicher Grafikeinstellung mehr Bilder pro Sekunde raus kommen heißt das noch lange nicht dass dafür auch mehr Speicher benötigt wird.

Wolfsrabe schrieb:
Es ist doch völlig Banane ob Microrucker in Multi-GPU-Setups mit welchen aufwändigen Tricks auch immer minimiert werden oder nicht. Die Idee von Multi-GPU an sich ist völliger Käse und ist im Privatsektor nur was für Leute, die nicht wissen wohin mit ihrem Geld.

Daß sich die Entwicklung immer mehr verlangsamt, ist zwar klar, aber bisher wurden überteuerte Multi-GPU-Setups immer nach wenigen Jahren von einzelnen Grafikkarten einer neuen Generation überholt, und das mit weniger Lärm, weniger Strom und weniger Abwärme.

"Wir werden an Multi-GPU nicht vorbeikommen" - wenn es nach den Herstellern geht, ja. Da gibt es doppelt so viel zu verdienen. :freak: Sinn ergibt es trotzdem nicht.

Und mit der gleichen Argumentation bekommst du dann auch deine sparsamere Grafikkarte.
Dann bekommst du auch die Leistung des Doppelwoppers mit dem Strombedarf der Mittelklasse und dem dazu passenden Preis, nur eben 6-8 Jahre später. Du mußt nur lange genug warten.
 
Zurück
Oben