News AMD: Dual-GPU-Fiji kommt mit Cooler-Master-Wakü

Ganz schön mutig, die Kühlung wieder von Cooler-Master zu ordern nachdem die US Gerichte vor einer Woche erst entschieden haben, dass die Dinger eine Patentverletzung der Asetek Patente sind und sie damit bis auf weiteres nicht mehr in die USA importiert und dort verkauft werden dürfen.

http://techreport.com/news/29092/asetek-wins-injunction-against-cooler-master-liquid-coolers

Wenn's blöd läuft, konfisziert die FTC die Karten wenn sie in den Hafen einlaufen.
 
Naja.
Fiji verbraucht zwar gut weniger Vram wie Hawaii oder Maxwell, effektiv mehr wie ~5GB dürften da aber nicht bei rauskommen.
Unter DX12 hätte ich gerne so einen prügel, aba erst mal warten was so die Games unter DX12 an Vram fressen und Multi GPU Performance bringen wird ...
Alternativ wird es ein Fiji shrink mit HBM2, wenn es AMD bis dahin noch gibt... :|

Das AC-CF (kp wie das Heist, wo sich der speicher addiert) dürfte noch Abhilfe schaffen fürn Anfang.
 
Zuletzt bearbeitet von einem Moderator:
DunklerRabe schrieb:
Tobermory ist nicht die Insel selbst, es ist die Hauptstadt der Insel Isle of Mull ;)

Ein Glück verfasse ich hier keine Artikel. Man muss ja Angst haben, hier was zu veröffentlichen bei soviel Erbsenzählerei :D:D

Ich hoffe, dass AMD das gute Stück gut gelungen ist. Gönnen dem Laden mal n richtigen Erfolg. Nur leider wird das Teil niemand kaufen, da viel zu teuer :rolleyes:
 
Auf welchem technischen Grundlagen beruht diese Aussage?
Weil du für die Performance bei Multi-GPU drei Probleme berücksichtigen musst, die zum Teil alleine schon schwer lösbar sind und zusätzlich miteinander im Konflikt liegen:
-Aufteilung der Daten
-Aufteilung der Berechnungen
-Minimierung der Kommunikation zwischen den GPUs
Bei diversen Problemen, wie bei einer Vielzahl von physikalischen Simulationen lässt sich dieser Konflikt gut lösen, weshalb solche Simulationen auch gut skalieren. Die Rastergraphik gehört aber nicht zu diesen Problemen hinzu, weil die Speicherzugriffe zu chaotisch sind.

Denn will man beispielhaft bei der Rastergraphik die Berechnungen mit SFR/Compositing gut aufteilen, so benötigt man für den Austausch von Zwischenergebnissen viel Kommunikation zwischen den GPUs. Will man beispielhaft die Kommunikation minimieren, so muss man möglichst viele Read-Only-Daten im Speicher jeder GPU vorrätig halten. Ist der Speicher zu klein für alle Read-Only Daten, so muss man entweder die Rechenlast suboptimal aufteilen oder die Daten hin und her kopieren.

Das ganze kann man sich noch weiter fort überlegen, wird aber sehr schnell sehr hässlich, gerade wenn man noch Physik, die auch gezeichnet werden will, oder KI mit aufnimmt.
 
Ich sehe immernoch keinen Grundlage für deine Aussage denn du gehts offensichtlich immernoch vom AFR Prinzip aus. Schau dir mal die Bilder in Posting #10 an. Vielleicht dämmert ja dann warum sich der Speicher zumindest indirekt addieren kann.
 
Stichwort SFR.
Die Kommunikation selbst ist mit XDMA absolut kein Problem mehr - das alte "Master/Slave" und "Bridge" Konzept liegt schon lange im Mülleimer ;)

mfg,
Max
 
Wolfsrabe schrieb:
Die Idee von Multi-GPU an sich ist völliger Käse und ist im Privatsektor nur was für Leute, die nicht wissen wohin mit ihrem Geld.

Warum soll jemand der nen 1000er oder mehr für sein Hobby über hat nicht sowas kaufen.

Im Vergleich zu einer besseren Spiegelreflexkamera mit ein paar objektiven, High End Hifi oder Autotunning ist High End Gaming einfach billig.
 
max_1234 schrieb:
Der Anteil von Leuten die eine Tray kaufen ist zu vernachlässigen, fast schon unter den Teppich zu kehren.
Du argumentierst auf Tray Varianten die zumeist nicht nur teurer sind, sondern auch über eine eingeschränkte Garantie verfügen - und verbindest das alles mit dem "Consumer" Markt ...

mfg,
Max

Was glaubst du was in Rechner eingebaut wird die man sich online bestellt oder im Computerladen um die Ecke zusammen mit dem Freundlichen zusammen stellt und gleich bauen lässt? Klar ist "Boxed" angegeben, aber da wandern auch nur die Tray CPUs rein.

Ich meinte NACKT nicht im Sinne von Tray sondern eben mit ohne Kühler angeboten, so wie es bei CPUs schon fast Alltag ist (zumindest bei Performance/Enthusiast).
Und "Consumer"-Markt umfasst ein sehr großes Feld, sowohl was Preise als auch Leistungen angeht.

Ansatzweise ging ich davon aus, hier nicht für die blutigsten Anfänger schreiben und erklären zu müssen, sondern das einige auch mal weiter als den eignen Tellerrand denken können.
Kreativität im Denken hat es in den letzten Jahrzehnten möglich gemacht, Rechner aus der elitären Ecke der Institutseinrichtung heraus zu holen und sie beliebig konfigurierbar für alle werden zu lassen.
 
@ Wadenbeisser und max_1234
Das galt eigentlich auch für SFR was ich da schrieb; habe das bewusst etwas abstrakter gehalten. Im Speziellen kann ich euch noch ein paar anschauliche Beispiele liefern. Annahme: Wir verwenden ein SFR-Verfahren, so so wie es auf der Folie gezeigt ist und wo der Bildschirm horizontal auf die beiden GPUs aufgeteilt wird.

Der Speicher für die (Zwischen-)Framebuffer lässt sich da zunächst leicht verteilen, da jede GPU nur in ihren Teil des Bildes zeichnet. Aber auch hier gibt es Probleme. Falls auf der linken seite mehr los ist als auf der rechten muss man die die Unterteilungslinie für die Lastbalancierung und gute Ausnutzung der Rechenleistung verschieben. Das führt wieder dazu, dass eine GPU einen größeren Teil des Framebuffers abspeichern muss als die andere GPU somit die Speicherverteilung verschlechtert wird.

Ok wie verhält es sich mit den Texturdaten und Vertexdaten der Objekte? Im einfachsten Fall mit nur einer Kamera kann man in der Tat die Objekte nach Bildschirmseite sortieren und nur auf der enstprechenden GPU abspeichern um Speicherplatz zu sparen. Speicherplatz wird nur verschwendet wenn das gleiche Objekt einmal in der linken und der rechten Seite gezeichnet werden soll oder in der mitte auf beiden Bildschirmseiten liegt. Allerdings treten hier auch zusätzliche Probleme auf:
-Bewegt sich die Kamera oder die Objekte schnell so müssen die Daten vieler Objekte zwischen den GPUs kopiert werden was wiederum Performance kosten kann.
-Moderne Engines zeichnen für diverse Spezialeffekte (Schattenwurf, Reflexionen) die Szene mehrmals mit Kameras, die andere Positionen und andere Blickwinkel besitzen, als die eigentliche Kamera. Verwendet man für jede dieser Kameras wieder ein SFR-Verfahren, so ist die Wahrscheinlichkeit hoch, dass innerhalb eines Frames nahezu jedes Objekt von jeder GPU durch irgendeine der vielen Kamera gezeichnet werden muss. Ergo muss nahezu jedes Objekt im Speicher von beiden GPUs vorrätig sein.
 
Zuletzt bearbeitet:
Allein wegen den 2×4 GB wird das Produkt für mich nicht stimmig werden.
 
Morrich schrieb:
Baut Cooler Master überhaupt eigene WaKü? Oder nehmen die nicht doch eher ein Produkt eines Auftragsfertigers und pappen nur ihr Logo drauf, wie so viele andere Anbieter von AiO WaKü auch?

Ja cooler Master baut eigene. Sie sind einer der wenigen, die das machen. Sind auch in Lüft Kühlung aktiv. Die meisten Referenz Kühler sind nämlich von cooler Master gebaut.
 
Ich hoffe, dass künftig viel öfter Wakü Aios zum Einsatz kommen und nachhaltig verbessert werden.
Meine CPU kühle ich seit langem mit ner H100i und möchte nichts mehr anderes. Noch leisere Pumpen und ordentliche Lüfter out of Box für'n Radiator und meine nächste GPU wird ne Wakü Aio Variante.

@Amd: Der Herbst dauert bis 21. Dezember! Bitte lasst euch nicht wieder von Nvidia das Wasser abgraben, wenn die wieder Wochen vor euch releasen.
 
max_1234 schrieb:
Der Anteil von Leuten die eine Tray kaufen ist zu vernachlässigen, fast schon unter den Teppich zu kehren.
Du argumentierst auf Tray Varianten die zumeist nicht nur teurer sind, sondern auch über eine eingeschränkte Garantie verfügen - und verbindest das alles mit dem "Consumer" Markt ...

mfg,
Max

Die Haswell E kommen auch ohne Lüfter. Der User spricht ja sowieso von Highend Bereich. Niemand würde ernsthaft eine 1000€ Waku anbauen und dann ne Gtx 960 oder ne 380. Ich finde auch, ab Fury/Titan könnte man auch Grakas ohne Kühler anbieten. Macht sie auch nur 50€ billiger,(damit die Marge erhalten bleibt) und gut ist. Kommt ja auch keiner auf die idee, nen 5820k mit nem smallblock zu kühlen außer die Alienware Kids und die können von mir aus das Geld verschädeln.
 
ronrebell schrieb:
@Amd: Der Herbst dauert bis 21. Dezember! Bitte lasst euch nicht wieder von Nvidia das Wasser abgraben, wenn die wieder Wochen vor euch releasen.

Im Jänner wird ebenso stark eingekauft, weil viele Gutscheine und Geld von Verwandten ect bekommen. Aber klar, desto früher umso besser, aber hier handelt es sich durchaus um eine Karte die sowieso Prestige ist.
 
Zurück
Oben