News Flaggschiff: AMD zeigt Dual-Fiji-Grafiklösung zur E3 2015

@CB: Gibt es Termine, wann sowohl die Fiji-Varianten als auch die R9 3x0 Karten von euch getestet werden (können)?
 
Dieses CF und Sli generve...bis da keine Lösung für Mikroruckler da ist, ziehe ich das nicht in Betracht. Diese Systeme bringen nicht mal die doppelte Leistung, aber brauchen diese...es soll ja besser werden.
Ja, will ich auch wissen!
 
Necareor schrieb:
Das SFR unter DX11 kannst du nicht vergleichen mit SFR unter DX12.

ich lass mich da gern überraschen. Mal sehen wann dann erste Techdemos kommen die SFR nutzen und auch wirklich einen Gewinn beim VRam Handling zeigen.
 
Necareor schrieb:
Wo hast du denn die Leistung einer Nano her? Vermutlich ist auf der Fury X2 ja auch zwei mal Nano verbaut, schließlich ist es eher selten, dass bei den DualGPU-Monstern auch wirklich zwei unbeschnittene Flaggschiff-GPUs verbaut werden.
Also im Artikel steht etwas von Vollausbau.

Makso schrieb:
3x Nano CF und Folding@Home oder Collatz :evillol:
Dafür brauch man kein CF. Aber ja, die Computing Leistung wäre wirklich sehr interessant.
 
Mal ne doofe Frage zwischendurch von einem Noob.
Bei Dual-GPU Karten werden ja immer pro GPU ein Satz Speicher Verbaut. Auf einer 8GB Karte sind dann nur jeweils 4GB pro GPU nutzbar, was natürlich ziemlich einschränkt. Meine Frage ist, warum teilen sich die GPUs nicht einen großen Speicher anstatt 2 kleine? So wie ich gehört habe sind die Daten in beiden Speichern ja sowieso teilweise identisch. Wenn APU Lösungen es schaffen sogar sich den RAM zwische CPU und GPU zu teilen warum dann nicht bei Dual GPU?
 
Nunja, bei HBM sitzt der Speicher ja auf der GPU, das ist der Hauptgrund, warum HBM so schnell ist. Bei geteiltem Speicher müsstest du diesen wieder auslagern, wodurch der Vorteil verloren ginge. Des Weiteren bräuchtest du eine Kommunikation zwischen den Speichercontrollern, die ebenfalls in der GPU sitzen, schließlich muss die eine Seite wissen, ob die andere GPU noch einen bestimmten Block benötigt, bevor sie diesen löschen kann. Ob ein gemeinsamer Controller ausgelagert für beide GPUs machbar wäre... keine Ahnung.
CPU und GPU innerhalb einer APU haben den Vorteil, dass sie nicht die gleichen Daten verarbeiten. Es kann also der einen relativ egal sein, welche Daten die andere löscht oder kopiert.
 
Zuletzt bearbeitet:
Vivster schrieb:
Mal ne doofe Frage zwischendurch von einem Noob.
Bei Dual-GPU Karten werden ja immer pro GPU ein Satz Speicher Verbaut. Auf einer 8GB Karte sind dann nur jeweils 4GB pro GPU nutzbar, was natürlich ziemlich einschränkt. Meine Frage ist, warum teilen sich die GPUs nicht einen großen Speicher anstatt 2 kleine? So wie ich gehört habe sind die Daten in beiden Speichern ja sowieso teilweise identisch. Wenn APU Lösungen es schaffen sogar sich den RAM zwische CPU und GPU zu teilen warum dann nicht bei Dual GPU?

ganz einfach. Weill die Bandbreite zwischen den 2 GPUs viel zu gering ist ( um über faktor 30 ) und die latenz viel zu hoch ( da ebenso 2 stelliger faktor )

Die GPUS sind mit
PCI-E 3.0 verbunden was 15GB/s sind
der Ram ist aber zB bei der Fury mit 512GB/s angebunden!

Bei APUs ist die GPU aber viel langsamer da reicht dann auch weniger Speed da zB DDR3 2133 eh nur 34 GB/s hat
 
Zuletzt bearbeitet:
Was ich mich gerade frage ist, ist es denn nicht möglich 2 GPU's auf einen DIE zu bauen ? Klar wäre der Chip dann ziemlich groß aber würde das nicht einige vor teile bringen bei der Kommunikation?
 
Das hätte imho keinen Sinn, dann könnte man genau so gut eine einzelne GPU mit mehr Shadern bauen und umgeht damit die ganze Problematik.

Vielleicht zwei zusammen auf einem Siliziumsubstrat wie eben GPU + HBM, aber da musst du Raja Koduri fragen und nicht mich ;)
 
im Prinzip sitzen ja schon 4096 GPU Kerne drauf, zig kleine GPU... ganz abstrakt gesprochen... aber was du sicher meinst ist ein zweiter DIE auf einem gemeinsamen Interposer welche zusammen eine GPu Einheit verkörpern. Ich denke das ist einfach zu komplex und der Interproser trotzdem der Flaschenhals.

Vielleicht wird die Sache irgendwann 3D wie auch HBM selbst. Also zb 2 gestackte Fiji / GPUs.
 
Aber wäre es in der Fertigung nicht problematischer einen Großen Chip mit vielen shadern zu bauen als einen zu doppeln ?

@Krautmaster ja so meine ich es.

Bei CPU's wird es ja durchaus auch so gemacht wenn man aus einer 8 Kern CPU 16 Kerne machen will.
 
Auf dem Wafer sind die ganzen Chip ja aneinandergereiht, aber einen Chip so zu designen, dass er sowohl einzeln als auch in direkter Verbindung mit seinem Nachbarn arbeiten kann muss höchst komplex sein.
 
sicher ist es es bezüglich Yield weniger vorteilhaft einen großen zu bauen, aber bei zwei getrennten Chips ist immer die Frage wie diese verbunden werden damit sie nach außen als "ein Chip" arbeiten.
 
Ich bin mir sicher wenn es mehr vor teile als Nachteile bringen würde dann hätte man es schon mal so gemacht aber ich denke auch das es momentan einfach auch nicht wirtschaftlich genug ist um so ein vorhaben durchzubringen.

Aber dennoch wäre es sicherlich interessant so etwas mal zusehen.
 
Haffke schrieb:
Was ich mich gerade frage ist, ist es denn nicht möglich 2 GPU's auf einen DIE zu bauen ? Klar wäre der Chip dann ziemlich groß aber würde das nicht einige vor teile bringen bei der Kommunikation?

auf einem DIE nicht, denke du meinst interposer. ja das wäre möglich allerdings ist bereits der aktuelle interposer mit 1.000mm² verdammt groß. Auf lange frist wird aber sicher sowas in der Art kommen.

2000 Shader 1 MBit Speicherinterface usw und das kombinieren so oft man will ^^
 
Also quasi eine Art Modul GPU Bauweise. Nicht so wie bei Bulldozer sondern eher in der Art wie bei den großen Xeon CPU's
 
Hm, interessantes Update bei Heise:

[Update:] Gegenüber heise online erklärte AMD, dass die Radeon R9 Fury HDMI 2.0 nicht unterstützen wird, also 4K-Auflösungen per HDMI höchstens mit 30 Hz ausgeben kann. [/Update]
 
Zurück
Oben