News Flaggschiff: AMD zeigt Dual-Fiji-Grafiklösung zur E3 2015

wie stellst du dir denn diese kühlung vor ^^ und den preis, außerdem würde es rein rechnerisch für amd keinen großen gewinn bringen
 
Schnixus schrieb:
Anders herum wird ein Schuh daraus: Auf Grund welcher Tests maßen sich den die ganzen nVidia-Fanboys an, die Karte jetzt schon als Müll bzw. Enttäuschung zu zerreißen?!

Die Aussage (kühler, leiser, schneller etc. pp) wurde als "was zu beweisen wäre" eingestuft, nicht die Karte selbst. Steht auch deutlich so da. Darüber hinaus steht hinter den 4GB und 4k+ Gaming noch ein Fragezeichen.

Und lasst doch mal dieses Propellerdings weg, es nervt nur noch und man muss nicht alles auf die Goldwaage legen ;). Jeder kauft doch eh das Produkt, dass ihn selbst überzeugt. Zumindest für mich ist es noch nicht zur Religion geworden, wie bei manchen hier zu vermuten ist -.-
 
issenia schrieb:
Na ja ich mache Boinc sehr ausgiebig. Und es gibt dort genug Projekte, die auf DP angewiesen sind z.B. Milkyway nur um eins zu nennen.
Genau des wegen verfluche ich die mistige GTX 670 atm.
Weswegen ausschließlich Rechner mit Tahiti Karten in der Topliste stehen.

Kasmopaya schrieb:
Das ist kein Problem ich nehm auch 64GB wenns sein muss. Aber in 4 Jahren nicht weniger als 48GB. ;)
Das es bei diesen Speichermengen nur um die Modelle im Profisektor geht, habt ihr noch nicht bemerkt?
Im Gaming Bereich wird das keinesfalls so schnell kommen und nötig sein.
So viel passen ja nicht mal als Hauptspeicher auf die meisten Boards. Und bisher war dieser immer größer als der auf den GPUs.
 
Palmdale schrieb:
Die Aussage (kühler, leiser, schneller etc. pp) wurde als "was zu beweisen wäre" eingestuft, nicht die Karte selbst. Steht auch deutlich so da. Darüber hinaus steht hinter den 4GB und 4k+ Gaming noch ein Fragezeichen.

Und lasst doch mal dieses Propellerdings weg, es nervt nur noch und man muss nicht alles auf die Goldwaage legen ;). Jeder kauft doch eh das Produkt, dass ihn selbst überzeugt. Zumindest für mich ist es noch nicht zur Religion geworden, wie bei manchen hier zu vermuten ist -.-

Ich denke, AMD hat die Stock-Taktraten bewusst exakt so terminiert, damit die Karte mindestens gleichauf mit der TitanX aufläuft und somit der OC-Zuwachs noch höher ausfallen kann (absolut in Mhz gesehen)...
 
Zuletzt bearbeitet: (Ergänzung)
Das ist durchaus möglich, leider werden wir das erst ab dem 24. mit Gewissheit in Erfahrung bringen. AMD vertröstet erneut :rolleyes:
 
R4sh schrieb:
wie stellst du dir denn diese kühlung vor ^^ und den preis, außerdem würde es rein rechnerisch für amd keinen großen gewinn bringen
Mach dir um die Kühlung mal keine Sorgen, da brauchts nur ordentlich Radiatorfläche und Durchfluss.
Ein Monsterradi (oder alternativ den airplex Giant) vollbestückt mit Lüftern und eine Eheim Pumpe sollten das noch ohne größere Probleme kühlen können. Quad Crossfire/SLI Gespanne können ja auch mit einem Kühlkreislauf gekühlt werden.
Preis und Gewinnmarge würden bei einer solchen Grafikkarte eh nicht im Vordergrund stehen, da geht es eher um die Machbarkeit und Werbung für die Firma.

Asus macht es mit seinen Ares Karten auch nicht anders. Limitierte Stückzahl und Abhebung von der Konkurrenz.
Als die normalen Dual-GPU Karten noch mit Lüftkühlern versehen waren, hat ASUS bereits AIO-Waküs verwendet.
Als AMD nun die AIO-Wakü zum Referenzdesign erklärt hat, gabs bei Asus auf einmal Single Slot Design und einen normalen Wasserkühler.
(Könnten übrigens m.M.n. andere Hersteller ruhig nachmachen, vorallem auch für Mittelklasse GPU´s, die mir unter Vollast, trotz rießiger Lüftkühlung, tendenziell zu laut werden. Und Single Slot ist natürlich auch immer gern geshen wenn man mehrere Erweiterungskarten im Einsatz hat)

Das ein Großteil der Nutzer sich so ein Monster nicht leisten kann oder will (einschließlich meiner Wenigkeit) dürfte von vornherein klar sein. Wer High-End will, zahlt eben auch High-End.

Interessant wärs aber trotzdem :D
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Die Titan Classic hat aber was geschafft das AMD noch nie geschafft hat. Einen ultra effizienten Chip für Gaming und für GPGPU Anwendungen. Genau wie Big Maxwell. Denn für Bionic und Bitcoin mining etc.braucht ja keiner DP. Und da ist Big Maxwell extrem effizient unterwegs.

Wow, hättest du den Abschnitt nicht nur fett sondern auch grün gemacht, wäre die Aussage vielleicht noch seriöser!!!!111!!

Achja, was AMD nie geschafft hat.... du meinst einen VIEL kleineren Chip kreiert, der die Titan Classic mittlerweile quasi in jedem Spiel schlägt und bei der Double precision performance völlig platt macht? Bei kaum höherem Verbrauch? :lol:
 
zeedy schrieb:
Achja, was AMD nie geschafft hat.... du meinst einen VIEL kleineren Chip kreiert, der die Titan Classic mittlerweile quasi in jedem Spiel schlägt und bei der Double precision performance völlig platt macht? Bei kaum höherem Verbrauch? :lol:
Wie kannst du nur solche Fakten bringen. Das geht nicht, weil etwas was nicht sein darf, nicht sein kann!!!:evillol:
/Ironie off
 
zeedy schrieb:
Achja, was AMD nie geschafft hat.... du meinst einen VIEL kleineren Chip kreiert, der die Titan Classic mittlerweile quasi in jedem Spiel schlägt und bei der Double precision performance völlig platt macht? Bei kaum höherem Verbrauch? :lol:
Wäre doch schlimm wenn nicht. Nach früheren Maßstäben würde eine Titan Classic heute nur noch in der unteren Mittelklasse mitspielen. Doch seit neue Generationen die Mehrleistung 1 zu 1 aus höherem Preis generieren spielt die Titan Classic noch oben mit. Und ernsthafte GPGPU Anwender denken erst gar nicht über Fury mit 4GiB nach.
 
Kasmopaya schrieb:
Jo schon, nur hat das Pascal dann auch und jetzt hat Maxwell weder HBM noch eine Wasserkühlung in den Tests. Ergo muss die Fury was reißen in Sachen Effizienz, denn gegen Pascal werden dann seitens NV wieder andere Geschütze aufgefahren in Sachen Effizienz. Eigentlich muss Fury X effizienter werden als eine Titan X, sonst wäre das schon arg enttäuschend.
Das was du beschreibst ist so unwichtig. Das was wirklich ultra interessant ist, AMD Grafikchips kommen dann von Glofo in 14nm und Nvidia Grafikchips von TSMC in 16nm.
Wer kann früher auf die Fertigung zugreifen? Welche Fertigung wird die bessere sein? Das wird richtig spannend.
Das Nvidia und AMD HBM 2 bei ihrer nächsten Generation haben werden ist im Vergleich dazu ein müdes gegähne.
 
Knuddelbearli schrieb:
Will nicht ausschließen das die nano gegenüber der Fury X eventuell beschnitten ist ( eventuell sogar gezielt die schwöchsten CUs die die meiste Spannung benötigen ausknippsen, wobei ich nicht wirklich daran Glaube ) aber noch weniger als die normale Fury hat sie unter Garantie nicht.

Also, dass die Nano schneller als die normale Fury (nicht X) sein soll, wage ich aber zu bezweifeln, denn dadurch würde AMD sich selber ein Bein stellen, aber knapp auf 390X oder GTX 980 Niveau mit der angepreisten Effizienz wäre trotzdem schon ein großer Wurf, insbesondere - wenn diese dann mit 8GB HBM käme - für eine CrossFire Lösung. Ich hoffe die Fury wird sicherlich leichter oberhalb der halben (Leistungs-)Strecke zwischen 390X und Fury X einpendeln.

cypeak schrieb:
das ist mal ein richtiges dickschiff wie es scheint!!
nur, mal wieder...amd hat im highend ordentlich aufgetischt, nur da wo für die meisten gamer die musik spielt, da liefern sie nichts erwähnenswertes.

Dann freu Dich doch auf die kommende AMD Karten-Generation/2016 in 14/16nm, wenn Arctic Islands erscheint und die ganzen Fiji Chips umgelabelt bzw. weiter beschnitten und die Familie ausgeweitet wird für neue Mittelklasse und Oberklassekarten mit z.T. schon 8GB HBM hoffentlich.


Anhand der verlinkten Benchmarks (danke nochmal dafür) sieht die Fury preis-leistungstechnisch schon sehr attraktiv aus, wer würde da wissentlich noch freiwillig zu einer GTX980 greifen (außer immer-gestrige/unbelehrbare nVidia-Fanboys) die preislich in der gleichen Region liegt? Selbst den Kauf einer wesentlich teureren GTX980Ti sähe ich beim "kleinen" Fury Modell schon kritisch, da letztere schon fast gegen die interessanteste Enthusiasten-Karte von nVidia anstinken kann, wenn man den Benchmarks glauben schenkt, DirectX12 optimierte Treiber noch außen vorgelassen.
 
Zuletzt bearbeitet:
Envoy schrieb:
Weiss mann eigentlich schon mehr bezüglich Release der neuen Crossfire-Technik bezüglich gemeinsamer Speichernutzung?

Ja das funktioniert mit dx12 wenn die Engine das Feature unterstützt und der Entwickler den Speicherpool auch beachtet... Also eher ein theoretisches Feature.
 
pipip schrieb:
http://www.pcgameshardware.de/AMD-R.../AMD-Mantle-Crossfire-ohne-AFR-Modus-1097332/

Soviel ich mich erinnere CIV V und mit den nächsten AMD Games wie Starwarsbattlefront dürften wohl SFR auch schon unterstützen besonders genannter Titel hier mit Mantle SFR hätte unterstützen sollen.

ich bin gespannt. CIV V ist eh komisch, die Grafik is doch grottenschlecht ka was da überhaupt Performance fressen soll ^^ aber Battlefront wäre schon interessanter. Da muss man mal testen wie es sich mit dem VRam bei CF / SLI tatsächlich verhält - wie schon korrekt angemerkt wurde müsste man zb bei 4k 2x die Auflösung halbieren und schauen wie viel VRam gebraucht wird um einen Gesamt VRam Verbrauch auszurechnen.

@tek9

wobei man anmerken sollte dass auch bei SFR nicht mal eben das doppelte an VRam vorhanden ist da beide GPU nach wie vor einen großen Teil der Daten redundant halten müssen. Der VRam Verbrauch nimmt ja angeblich von FHD auf 4K "nur" um 500mb -1 Gb zu, wenn jetzt also bei SFR 2 GPU ein 4k Bild gemeinsam berechnen müssen wären das jeweils 1920x2160 zB, und ob man da viel VRam gegenüber 4k spart wird man sehen.
 
Zuletzt bearbeitet:
AMINDIA schrieb:
Das was du beschreibst ist so unwichtig. Das was wirklich ultra interessant ist, AMD Grafikchips kommen dann von Glofo in 14nm und Nvidia Grafikchips von TSMC in 16nm.
Wer kann früher auf die Fertigung zugreifen? Welche Fertigung wird die bessere sein? Das wird richtig spannend.
Das Nvidia und AMD HBM 2 bei ihrer nächsten Generation haben werden ist im Vergleich dazu ein müdes gegähne.

Es stellt sich doch auch die Frage der Verfügbarkeit. Wird es genug Gen2 HBM geben. Wird Gen1 weiterhin produziert ? Welche Grafikkarten bekommen überhaupt HBM ? Was ist wenn Beispiel Fijii ein Shrinke bekommt mit HBM 1 für die Mittelklasse ?
Die nächste Generation wird durchaus interessant. Doch die "Effizienz"-Steigerung zwischen Pascal und Maxwell wird nicht so groß ausfallen, wie beispiel Hawaii zu 14nm Artic Island. Der Grund ist einfach, AMD hat hier schon klar den Fokus auf HBM gesetzt und das ist scheinbar seit 7 Jahre schon so geplant. NV hatte früher Richtung HMC Speicher orientiert und deshalb scheinbar weiter am GDDR5 Si optimiert.

NV und 16nm FinFet steht fest, doch ob AMD wirklich auf 14nm FinFet GF für Grafikkarten setzt ist bisher noch nicht bestätigt worden. Klar ist, dass ein Wechseln zu einem anderen Fertiger durchaus Jahre dauert. Anderseits, Carrizo zeigt, dass man mit GPU Bibliotheken durchaus umgehen kann. Unwahrscheinlich wäre es somit sicherlich nicht.
 
Gibt es inzwischen eigentlich einen Namen für die Karte und ein Erscheinungsdatum?
 
Zurück
Oben