News AMD: Dual-GPU-Fiji kommt mit Cooler-Master-Wakü

Fragger911 schrieb:
4. Grafikkarten gehören auch nackt angeboten, ohne Kühler und Lüfterschnickschnack, für diejenigen mit Custom-Wakü (demnächst ebenfalls). Der Hersteller spart sich die Montage, ich mir die Demontage und die Umwelt freut sich über nicht verbrauchte Rohstoffe, Energie und erzeugten Müll.

Du vergisst da nur den typischen Dummbaatz, der die Karte kauft (weil sie die billigste ist), nackt betreibt, und nach drei Sekunden feststellt, dass der Magic Smoke entwichen ist (oder können die Karten heute so schnell und so massiv drosseln?).
Als nächstes wird reklamiert und der Händler verliert Geld und/oder den Kunden (und stellt den Verkauf dieses Kartentyps ein), dann werden Foren vollgeplärrt ($hersteller ist der letzte Dreck, die verkaufen Karten die alleine gar nicht lauffähig sind), und schließlich wird der gesamte und noch dümmere Freundeskreis darüber unterrichtet, der dann ebenfalls den gesamten Chiphersteller meidet. Denn die Highend-Karte des anderen Lagers ist ja technisch total überlegen, und drum kann man sich da bedenkenlos den dritten Aufguss des 75€-Modells kaufen.

Das darf der Kartenhersteller dann aufwiegen gegen den einen-von-vielen, der sich tatsächlich Arbeit damit spart, zufrieden seine Wakü draufschnallt, und sich womöglich sogar lobend irgendwo in den Tiefen des Internets darüber auslässt. Ich würds nicht machen, aber ich würd auch auf den zum Schutz abgeklebten Boden von Luftkühlern nicht nur ne Plastikfolie mit Warnung draufmachen, sondern nen dickeren Kunststoffblock, der die Montage unmöglich macht...
 
yui schrieb:

Aber mit 2x 3,5 oder? ;)
Gibt es schon Meldungen von Spieleentwicklern, die für "Ultra" Settings mehr als 4GB VRAM voraussetzen?
Oder Warnungen in In-Game Konfigurationen?

Nur weil ein Spiel, wenn verfügbar, mehr VRAM cached heißt das nicht, dass es diesen auch braucht.
Ein echtes "VRAM" Limit ist imho eine Legende die sich hartnäckig hält.

mfg,
Max
 
O-Saft-Killer schrieb:
Eine dual gpu mit 4 gb verwendbaren vram, das teil kann man sich höchstens in die Vitrine stellen.

Aha, sowas in die Richtung haben die meisten auch gesagt beim Release der Fury X... und dann hat sie doch ganz gut (überraschend gut sogar) abgeschnitten bei Tests in 4K-Auslösungen. Der Treiber dazu hat es eben möglich gemacht. Und warum ist nun gar die X2-Variante (doch) sinnvoll? Nun, man kann Games in 4K-Auflösungen auf höchster Detailstufe mit vielen fps spielen (das, was eben mit der Fury X bzw. Titan X / 980Ti nicht möglich ist).

Und jetzt bitte nicht mit dem (naheliegenden) Argument kontern, dass ja SLI/Crossfire soooo unspielbar ist wg. Mikroruckler... Die meisten, die das hier im Forum als Argument anführen, haben entweder noch nie ein Multi-GPU-System betrieben oder aber hatten sowas mal vor zig Jahren in Betrieb. Ich kann aus eigener Erfahrung sagen, dass Multi-GPU funktioniert.
 
max_1234 schrieb:
Nur weil ein Spiel, wenn verfügbar, mehr VRAM cached heißt das nicht, dass es diesen auch braucht.
Ein echtes "VRAM" Limit ist imho eine Legende die sich hartnäckig hält.

Das Problem gibt es durchaus nur sind sich auch die Spiele Hersteller dessen bewußt und halten den mindest Speicherbedarf entsprechend gering.
Die dicken Einbrüche siehst du dann beispielsweise wenn Texturen Mods zum Einsatz kommen die recht verschwenderisch mit dem Grafikspeicher umgehen und sich diese Grenze deutlich nach oben verlagert. Auf einmal müssen dann auch dringend benötigte Daten extern gelagert und die Framerate fällt durch die deutlich geringere Bandbreite und zusätzliche Latenzen ins Bodenlose.
 
3dfx hatte es vor fast 20 Jahren schon geschafft zwei Grafikkarten ohne Mikroruckler im SLI Modus laufen zu lassen ( Voodoo Karten ).
Wenn AMD und Nvidia ( hat 3dfx aufgekauft ) sich ein wenig drum bemühen würden, dann wäre es mit Sicherheit möglich, es heute auch hinzubekommen, Grafikkarten ohne Microruckler im SLI/Crossfire zu betreiben.
Aber vermutlich wollen weder AMD noch Nvidia sowas, da das die Frequenz mit der Kunden sich neue Karten kaufen verringern würde.
 
D0m1n4t0r schrieb:
3dfx hatte es vor fast 20 Jahren schon geschafft zwei Grafikkarten ohne Mikroruckler im SLI Modus laufen zu lassen ( Voodoo Karten ).

Also wirklich. das sind Äpfel und Kiwis :rolleyes:
Youtube -> 4k CFX/SLI Gameplay @60Hz ankucken -> posten.

mfg,
Max
 
Faust2011 schrieb:
Aha, sowas in die Richtung haben die meisten auch gesagt beim Release der Fury X... und dann hat sie doch ganz gut (überraschend gut sogar) abgeschnitten bei Tests in 4K-Auslösungen. Der Treiber dazu hat es eben möglich gemacht. Und warum ist nun gar die X2-Variante (doch) sinnvoll? Nun, man kann Games in 4K-Auflösungen auf höchster Detailstufe mit vielen fps spielen (das, was eben mit der Fury X bzw. Titan X / 980Ti nicht möglich ist).

Und jetzt bitte nicht mit dem (naheliegenden) Argument kontern, dass ja SLI/Crossfire soooo unspielbar ist wg. Mikroruckler... Die meisten, die das hier im Forum als Argument anführen, haben entweder noch nie ein Multi-GPU-System betrieben oder aber hatten sowas mal vor zig Jahren in Betrieb. Ich kann aus eigener Erfahrung sagen, dass Multi-GPU funktioniert.

:daumen:
 
max_1234 schrieb:
Mikroruckler hab ich nur in FarCry4, dabei ist egal ob eine oder 2 GPUs verwendet werden :D
Das Problem existiert in diesem Sinne nicht mehr, bzw. ist inzwischen zu vernachlässigen.
Aha... na dann bist du aber sehr unsensibel, was eine flüssige Darstellung von Spielen angeht. Ich habe bisher noch kein Spiel gefunden, das auf einer DualGPU flüssig läuft, ohne die FPS um mind. 50% zu erhöhen im Vergleich zu dem niedrigsten noch flüssigen FPS-Wert mit einer SingleGPU-Karte.

Klar, wer nur mit 120FPS+ spielt, hat da tatsächlich kaum noch Probleme, aber in Zeiten von hohen Auflösungen sehe ich das als sehr schwierig an. Da schafft man oftmals gerade noch so 40-60FPS, die bei SingleGPU-Karten aber immer noch absolut flüssig sind, gerade mit den neuen Sync-Technologien. Und die zweite GPU soll dann auch ihre Leistung in mehr Bildqualität verwandeln können, nicht einfach nur in mehr FPS, die ich brauche, damit ich keine Mikroruckler mehr spüre.
 
Zuletzt bearbeitet:
Neuer BMW kommt mit Elektromotor!

Es könnte sein, dass der neue BMW mit einem Elektromotor kommt, da der i3 schon einen hatte und so.

Immer dieses geplappere, dass ihr seriös berichtet und auf Clickbait-Titel verzichtet und dafür jetzt CB-Pro anbietet und dann leist man so einen Unfug.

Mit verlaub, Internetjournalismus ist ein hartes Geschäft, aber sich in guter Regelmäßigkeit selbst zu widersprechen, ist alles andere als seriös.
 
m3rch3r schrieb:
Neuer BMW kommt mit Elektromotor!

Es könnte sein, dass der neue BMW mit einem Elektromotor kommt, da der i3 schon einen hatte und so.

Immer dieses geplappere, dass ihr seriös berichtet und auf Clickbait-Titel verzichtet und dafür jetzt CB-Pro anbietet und dann leist man so einen Unfug.

Mit verlaub, Internetjournalismus ist ein hartes Geschäft, aber sich in guter Regelmäßigkeit selbst zu widersprechen, ist alles andere als seriös.

Was?
Ich glaub du bist im Falschen Thread :D
 
Wegen der Speicherpoblematik: Ich bezweifle stark, dass sich in DX12 die Multi-GPU-Situation stark verbesser wird. Multi-GPU-Konfigurationen sind immer noch ein Verteiltes-Speicher-System oder NUMA-System und haben dementsprechend Probleme mit der Skalierung bei chaotischen Speicherzugriffen, wie sie in modernen Spielen auftreten.
 
D0m1n4t0r schrieb:
3dfx hatte es vor fast 20 Jahren schon geschafft zwei Grafikkarten ohne Mikroruckler im SLI Modus laufen zu lassen ( Voodoo Karten ).
Wenn AMD und Nvidia ( hat 3dfx aufgekauft ) sich ein wenig drum bemühen würden, dann wäre es mit Sicherheit möglich, es heute auch hinzubekommen, Grafikkarten ohne Microruckler im SLI/Crossfire zu betreiben.
Aber vermutlich wollen weder AMD noch Nvidia sowas, da das die Frequenz mit der Kunden sich neue Karten kaufen verringern würde.

Das arbeitete damals aber auch komplett anders (zeilenbasierend?) und war zur den großflächigen Berechnungen der heutigen Grafik nicht kompatibel, weshalb die Rampage einen extra T&L Chip bekommen sollte.
Komplett andere Baustelle.
 
Eller schrieb:
Was?
Ich glaub du bist im Falschen Thread :D

"[...] kommt mit Cooler-Master Wakü." im Titel und im Artikel selbst, wird berichtet, dass es sein könnte, weil es ja schon Mal so war.

Aber Off-Topic wars dennoch^^
 
d0m1n4t0r schrieb:
3dfx hatte es vor fast 20 jahren schon geschafft zwei grafikkarten ohne mikroruckler im sli modus laufen zu lassen ( voodoo karten ).
Wenn amd und nvidia ( hat 3dfx aufgekauft ) sich ein wenig drum bemühen würden, dann wäre es mit sicherheit möglich, es heute auch hinzubekommen, grafikkarten ohne microruckler im sli/crossfire zu betreiben.
Aber vermutlich wollen weder amd noch nvidia sowas, da das die frequenz mit der kunden sich neue karten kaufen verringern würde.

afr sfr
 
D0m1n4t0r schrieb:
Grafikkarten ohne Microruckler im SLI/Crossfire zu betreiben.
Aber vermutlich wollen weder AMD noch Nvidia sowas
Anstatt voreilige Schlüsse zu ziehen, hättest in der Zeit mal die erste Seite ein bisschen runtergescrollt, da sind entsprechende Folien von AMD zu finden. ;)
 
DaBzzz schrieb:
Du vergisst da nur den typischen Dummbaatz, der die Karte kauft (weil sie die billigste ist), nackt betreibt, und nach drei Sekunden feststellt, dass der Magic Smoke entwichen ist (oder können die Karten heute so schnell und so massiv drosseln?).
Ich würds nicht machen, aber ich würd auch auf den zum Schutz abgeklebten Boden von Luftkühlern nicht nur ne Plastikfolie mit Warnung draufmachen, sondern nen dickeren Kunststoffblock, der die Montage unmöglich macht...

Vergessen hab ich die Dumpfbratzen nicht, aber ich ignoriere dieses Klientel (mögen sie von Lebensmittelzusätzen und Geschmacksverstärkern zeugungsunfähig werden oder auch anderweitig nicht an der Reproduktion beteiligt sein).

CPUs kommen in dem Sinne auch schon seit Jahren NACKT daher und mittlerweile sogar nicht mal mehr mit freiliegenden Silizium, sondern mit Heatspreader. Trotzdem kommt kein Slebstschrauber auf die Idee sowas ohne Kühler zu betreiben (jaaaja die hartnäckigen Hohlbirnen machen es trotzdem).
Selbst Boxed Versionen werden hochoffiziell ohne Kühler geliefert un niemand schreit deswegen nach Fackeln und Mistgabeln.

Ähnlich dem Sockelschutzplastedings bei Intel kann man eine Schutzplaste an der Karte anbringen welche:
a) GPU, RAM, VRMs vor Beschädigung schützt
b) der PEG-Slotkamm überdeckt sowie geschützt wird und somit ein Einstecken ins Board verhindert
c) die Stromanschlüsse blockiert
Ist 100x günstiger als die oftmals mehr als zweifelhaften Kühlkonzepte mit magelhaften Lüftern... mir würde es sehr entgegen kommen.
 
Fragger911 schrieb:
CPUs kommen in dem Sinne auch schon seit Jahren NACKT daher (...)

Der Anteil von Leuten die eine Tray kaufen ist zu vernachlässigen, fast schon unter den Teppich zu kehren.
Du argumentierst auf Tray Varianten die zumeist nicht nur teurer sind, sondern auch über eine eingeschränkte Garantie verfügen - und verbindest das alles mit dem "Consumer" Markt ...

mfg,
Max
 
Blediator16 schrieb:

Zum einen das.
Und es gab durchaus gute, technische Gründe, auf AFR umzusatteln.

Ich bin aber auch ziemlich sicher, dass sich bei den damaligen Zuständen, als beschleunigte 3D-Grafik noch in den Kinderschuhen steckte, auch keiner um sowas wie Mikro-Ruckler einen Kopf gemacht hätte. Damals ging es um "Makro-Ruckler" ;), also darum, bei höheren Auflösungen (800x600 oder gar 1024x768) überhaupt durchgehend halbwegs flüssige Frameraten in Richtung 30 FPS zu erreichen. Selbst mit mehreren relativ performanten Voodoo-GPUs, die dafür in Sachen Bildqualität schmerzhafte Kompromisse machten (max. 16Bit-Farbtiefe usw.).

Wir sind inzwischen schon sehr weit gekommen, dass wir uns über Mikro-Ruckler und adaptive Refreshraten Gedanken machen können. Das sind aus damaliger Sicht Luxusprobleme.
 
Zurück
Oben