News PowerColor zeigt günstigere Dual-GPU-Karte

nur Marketing um es in die News zu schaffen und den Namen bekannt zu machen!

Plädiere für eine Dual GPU Karte mit 2x HD 6450... :D
 
Lord Horu$ schrieb:
Wie oft haben wir uns schon über den (Un-)Sinn von Mittelklassecrossfire gestritten?

Damals, als HD4870 bzw. HD4890 High-End war, haben sich die Crossfireliebhaber gern solche Karten geholt. Jetzt werden solche Lösungen nur noch abgestritten und man soll nur noch zu HD6950 und HD6970 greifen wenn schon Crossfire. Na gehts Licht an? Warum darf man sich keine HD5770 oder HD6870 als Crossfire besorgen? Hat doch alles genug Leistung?!
 
Zuletzt bearbeitet:
darf man schon, nur der mehrwert is am ende evtl fraglich
 
Mehrkern GPUs sind die Zukunft!

Es ist wie bei den CPUs. Irgendwann kann man nicht mehr aus einem kern holen. Warum löst man die DUAL GPU Probleme nicht. Packt 12 Stromsparende Kerne auf einer GPU und fertigt diese in Massen damit der Preis Rapide sinkt? Ich hab das Gefühl diese Ingenieure bei AMD/Nvidia haben keinen Plan von GPUs. Oder Sie halten mit Absicht die Entwicklung auf. Jedes Jahr eine neue 1-Kern GPU für 500€ und eine DUAL GPU für 700€ mit insgesamt 10% mehr LEistung als die Vorjahres Edition..
 
Computer Hase schrieb:
Mehrkern GPUs sind die Zukunft!(...)

Eine einzelne GPU enthält mehr als einen einzigen Kern: NVidias 570 und 580 besitzen zwischen 480 und 512 (1D) Shadern, AMDs 6970 liegt bei 384 (4D) Shadern. Shader sind zwar nicht 1-zu-1 gleichzusetzen mit den Kernen einer CPU, arbeiten jedoch hochparallelisiert und gleichzeitig an jeweils sehr kleinen Teilbereichen des Bildes. Wenn du zwei komplette GPUs zusammenpackst, dann hast du zwei Gruppen von Shadern, die relativ unabhängig von einander arbeiten (müssen). Parallelisierung auf diesem Level macht jedoch erst Sinn, wenn man die Prozesse auch wirklich unabhängig laufen lassen kann. Und dass das aktuell so weit verbreitete AFR nicht so der Renner ist (GPU 1 rendert alle ungeraden Frames, GPU 2 alle geraden, beide GPUs müssen exakt den gleichen RAM-Inhalt haben), sollte hinlänglich bekannt sein, da dadurch teilweise merklich unruhige Frameverläufe entstehen (die von machen Leuten stärker wahrgenommen werden als von anderen). Solange dieses Problem nicht vollständig beseitigt ist, sehe ich für Multi-GPU-keine Zukunft abseits eines Nieschendaseins. Der Trend sollte eher in Richtung Effizienz und gleichbleibender Abwärme bei größerer Leisung gehen. Einfach mehr und mehr GPUs auf eine Platine zu packen stellt dich irgendwann vor das Problem, wie du die ganze Wärme wegbekommst. Die ganzen aktuellen High-End-Karten mit nur einer GPU sind ja so gerade noch halbwegs vernünftig mit Luft kühlbar, und die 590 und 6990 nur mit massiver Taktreduktionen und Spannungsabsenkung.

Und den Entwicklern von AMD/NVidia vorzuwerfen, dass sie nicht wissen was sie tun... interessante These :rolleyes:

Das was du vorschlägst ist ungefähr so wie wenn man zu Single-Core-Zeiten einfach ne zweite CPU aufs Mainboard gebaut hätte, anstatt mehr Kerne in eine einzige CPU zu bauen. Problem bei den GPUs ist: die haben bereits deutlich mehr als einen Kern...
 
Zuletzt bearbeitet:
Es ist wie bei den CPUs.
ist es nicht. hill01 hat es schon richtig erklärt. das ist eher wie zwei rechner in einem netzwerk, wo es beim synchronisieren ca. 20% leistungsverlust gibt.

eine gpu ist ein system von rechenkernen. zwei gpus sind zwei systeme von rechenkernen, die ihre rechenergebnisse synchronisieren müssen, was zu leistungsverlust führt. daher ist das nicht die zukunft, sondern nur eine notlösung, um größere gpus zu simulieren.
 
hola

verstehe nicht warum hier immer einige so hetzen über Unsinn und Sinn?

wie ein Vorposter schon sagte eine combo aus 2 x 5770er mach SINN! da ordentlich Leistung im Vergleich zu einer einzelnen Karte ( Vergleich damals 2x5770 = 5870, bei besserem Preis der kleinen kombo).
habe selber noch eine HD3870x2 bei mir laufen und bin voll zufrieden. hab noch nie einen der microruckler oder der gleichen beobachtet und das teil bringt immer noch ordentlich Leistung.

frage mich manchmal ob die poster die immer über die gpu combos ablaestern überhaupt eigene Erfahrungen damit gesammelt haben!

zum Beitrag: da steht, dass eine günstige dual gpu Karte raus soll. wenn die 2x 6850er fusionieren und das teil für 199 tacken raushauen. und das ist nicht unrealistisch!
dann wird das teil der Verkaufsschlager!

Nicht jeder hat nen 100 zoll lcd und spielt mit aufloesungen von einer trillion zu einer billiarde und ist auf das beste vom besten angewiesen!
ne kleine aber feine dual gpu kann aus meiner eigenen Erfahrung mit der 3870x2 ordentlich mithalten und zum teil auch performanter agieren, wenn eine single karte bereits am limit laeuft.

also cool bleiben und preis abwarten, koennte aber nen top seller werden!
 
ich find die idee nicht so schlecht, falls sie zwischen einer 6950 und 6970 kostet ist das schon eine option
 
Diese Karte finde ich ziemlich uninteressant, denn 1GB VRam ist selbst für ein Mittelklasse CF-Gespann zu wenig, wenn man z.B. mit Mods oder hohem AA spielt.
Wenn man die Karte mit 2GB ausstatten würde, wäre sie schon wieder deutlich zu teuer.
An der 4850 X2 hat man gesehen, wie gut sich Mittelklasse-CF-Karten verkaufen.

mfg dorndi
 
Rock Lee schrieb:
ual Karten haben schon genug Nachteile. Dann sollen sie wenigstens über den Preis punkten gegenüber 2 Einzelkarten!
Wo ist denn der Nachteil der DUAL-GPU karte im Vergleich zu zwei Einzelkarten?

Ich sehe da vor allem, dass das Board logischerweise länger ist.
Dem steht entgegen, dass man bei 2xSingle Karten oft Platzprobleme bekommt, da 2 mal die Steckplätze unter der Grafikkarte wegfallen, und das dann immer noch sehr knapp für die Kühlung der oberen Karte ist.

Einen Leistungsunterschied(bei gleichen Technischen Daten) kann man ja eigentlich nur mit der Tatsache begründen, dass man 1x16Lanes anstatt 2x16 Lanes für den Transport der Daten hat. Wenn dem aber so ist, führt dieser Frameverlust vermutlich ausschliesslich zur Reduktion der Microruckler. Müsste man mal genaur testen.
 
@hill01

Wie soll das gehen: "Der Trend sollte eher in Richtung Effizienz und gleichbleibender Abwärme" ? Irgendwann geht es halt nicht weiter. Die 14-nm-Fertigung soll ja die grenze setzten, danach wird man aus einer GPU nicht mehr rausholen können. Und ob ich eine GPU mit 200W Abwärme oder 10GPUS mit 20W auf eine Platine knalle ist doch egal?

Das was du vorschlägst ist ungefähr so wie wenn man zu Single-Core-Zeiten einfach ne zweite CPU aufs Mainboard gebaut hätte, anstatt mehr Kerne in eine einzige CPU zu bauen. Problem bei den GPUs ist: die haben bereits deutlich mehr als einen Kern...
Könnte man dann nicht wie zu damaligen Zeiten GPUs ohne diese Shader bauen und dann wie bei den CPUs in einer GPU viele Kerne unterbringen?
 
Also wenn das nicht teuer ist, dann konnte es groß Nachfrage ergeben.
 
Unter 200€ und das Ding is ne Überlegung wert.
Schöne Idee!
 
Ich würd mir sofort diese Karte zulegen sofern sie CUDA und Physx unterstützen würde was AMD ja leider nicht tut aber sonst wäre das für mich persönlich die optimale Lösung zum Rendern
 
Aber ganz ehrlich 2x HD 5850 ist billiger und schneller.............

Und kostet nur 215 € ;)
 
@Computer Hase:
Aber irgendwann hat man auch die Grenze dessen erreicht, was man überhaupt noch (mit Luft) kühlen kann. Die ganzen High-End-Karten haben doch jetzt schon mit Abwärme und Temperaturproblemen zu kämpfen. In den ICs selbst steckt eigentlich mehr Potential, aber ein bisschen mehr Takt und ein paar mV mehr Spannung lassen die Abwärme gleich explodieren. Nicht zum Spaß laufen die beiden aktuellen Dual-GPU-Flaggschiffe mit reduzierten Geschwindigkeiten und selektierten Chips, die auch mit verringerter Spannung noch stabil arbeiten können.

Effizent bedeutet ja nicht nur weniger Stromverbrauch sondern auch mehr Rechenleistung pro Takt und effizienteres Abarbeiten der Aufgaben. Nicht grundlos ist AMD von 5D- auf 4D-Shader zurückgegangen, einfach weil die 5D-Shader in den seltensten Fällen voll ausgelastet wurden.

Mit dem Sprung auf die nächstkleinere Fertigung wird der Stromverbrauch gesenkt, aber hier ist natürlich irgendwann mal Schluss, da gebe ich dir vollkommen recht. Bei den CPUs wird man früher oder später vor dem gleichen Problem stehen. Die Taktraten sind durch die maximale Schaltfrequenz des Siliciums begrenzt (was nicht gerade für seine Hochfrequenztauglichkeit bekannt ist, man nimmt es nur weil man für Si ein gutes und zuverlässiges Oxid für die Isolation hat), an der Front kann es also auch nicht unbegrenzt weitergehen. Bleibt nur noch der Weg zu noch mehr parallel arbeitenden Rechenkernen. Aber hier sehe ich die Lösung eher in mehr Rechenkernen in einer GPU, anstatt mehrere unabhängige GPUs parallel zu betreiben. Jetzt natürlich die Frage, warum macht das nicht einfach? 1000 Shader in eine GPU und gut ist, oder nicht? Problem dabei ist die Ausbeute, je komplexer die GPU, desto weniger GPUs verlassen die Fertigung "voll funktionsfähig". Man hätte zudem größere GPUs, d.h. insgesamt weniger pro Wafer, und von denen funktionieren dann noch nichtmal alle vollständig. Daher wird ein Kompromiss zwischen GPU-Größe und Ausbeute gewählt, man packt so viel man kann in eine GPU, aber so, dass es gerade noch wirtschaftlich ist. Wenn man Wirtschaftlichkeit und Ausbeute zum Teufel jagen würde, dann könnte man auch ne riesige GPU mit tausenden von Shadern (Kernen) bauen, nur bezahlen könnte es dann keiner. Zwei GPUs parallel zu betreiben ist so eine Notlösung, die insofern Sinn macht, wenn es halt keine schnellere Einzel-GPU gibt. Ansonsten ist der Vergleich von Lübke mit den beiden Netzwerkcomputern super: warum sich den Stress geben und zwei Celeron 1.8 GHz im Netzwerk rechnen lassen, wenn man sich einen Sechskerner mit 3 GHz und Turbo hinstellen kann? Der einzige Faktor wäre Geld...
 
@Computer Hase: zwei gpu mit je 512 shader sind weniger effizient und schwerer zu kühlen/mit strom zu versorgen als eine mit 1024 shader, da einige teile rendundant sein müssen und sie einen skalierungsverlust haben. wenn singel-gpu an seinen physikalischen grenzen ist, kann es auch keine einzelkarte mit zwei der gpus mehr geben.

warum es diese langsamere und ineffizientere lösung gibt: eine neue, doppelt so große gpu zu bauen ist deutlich teurer, als zwei vorhandene gpus auf ein pcb zu klatzschen.

Die Taktraten sind durch die maximale Schaltfrequenz des Siliciums begrenzt
darum wird auch an alternativen materialien wie nano-bändern gearbeitet ;) ein ende ist noch lange nicht in sicht...
 
Zuletzt bearbeitet:
Wo wir gerade von Mittelklassen-SLI/CF reden, wo sind eigentlich die Dual GTX 460er geblieben? Galaxy hatte eine und ebenso EVGA. Die meisten Seiten sprechen von einem Release in diesem Jahr.
 
Das war ja klar; immer wieder das selbe rumgelabere um den angeblichen Unsinn von sollchen Mittelklasse-Dual-GPU Karten.. hört das denn nie auf?

Es ist total egal ob es CF mit zwei Mittelklasse Karten oder CF mit zwei High-End Karten ist; was zählt ist Leistung und Preis.
Dual 6870's sind weitaus leistungsstärker als eine GTX 580 und falls die Karte wirklich um die 300€ kosten sollte dann auch noch deutlich günstiger.

Und mittlerweile sind die Leistungssprünge zwischen den einzelnen Grafikkarten so lächerlich geworden (eine HD 6950 ist bei FullHD im Schnitt nur 10-15% schneller als die 6870), dass es keinen großen Unterschied macht welche GPU man für sollche Karten auswählt.

Ein bisschen OC und die GTX 590 / HD 6990 ist in Sichtweite..
 
Zuletzt bearbeitet:
Ist eigentlich HD6890 ein offizieller Name oder wie wird das gehandhabt, wenn es eine Eigenkreation ist?
 
Zurück
Oben