News Sapphire Radeon HD 4850 X2 abgelichtet

Turbo007 schrieb:
das ding hat 4 DVIs?:freak:

Ja, damit reiht sie sich an vorderster Front in eine kurze und relativ exklusive Liste ein:

http://geizhals.at/deutschland/?cat=gra16_512&xf=135_4x+DVI

Theoretisch bin ich in der Zielgruppe, ich brauche zur Zeit drei DVI-Schnittstellen, demnächst wahrscheinlich vier. Praktisch brauche ich die Grafikleistung nicht und bin bisher mit meinen beiden wassergekühlten 7600GT zufrieden.
Für andere Anwender, denen Leistung wichtiger ist und die nicht die Möglichkeit haben, eine zweite Grafikkarte ins System zu packen, kann diese Karte sehr interessant sein.
 
Wieso einmal 6 und einmal 8Pin Stromanschluss wenn eine normale HD 4850 einen 6Pin braucht? Wieso braucht eine X2 plötzlich MEHR Strom(-anschlüsse) als im SLI/CF?
 
Gute alternative aber scheiss kühlsystem,die wärme muss hinten aus dem gehäuse will nichts anderes mehr.
 
Zuletzt bearbeitet:
Ehrlich gesagt bin ich froh, dass diese Karte sich verspätet. Niemand braucht eine Dual-Chip-Lösung! Vorallem da die Leistung solcher Grafikkarten sehr unberechenbar ist. Solange Spiele die Mehrkernlösung nicht einheitlich unterstützen, macht das wenig sinn (vgl. Quad-Core).

Inzwischen hat sich aber auch der Markt geändert. Denkt man an die ersten Dual-Chip-Lösungen von Nvidia zurück, wurde groß geschrien. Damals hatte Nvidia mit der 7950 GX2 und der 9800 GX2 einen großen Erfolg. Bei ATI kam die 3850 X2. Leistungstechnisch waren sie teilweise spitze. Der Preis, die Lautstärke und die Stromaufnahme bleiben aber in den neueren Generationen erhalten.

"I Have A Dream!"
Was wäre denn eine Innovatin? Es würde eine Single-Slot-Karte mit der Leistungsklasse der 8800 Ultra mit 10-15W Idle und maximal 50W unter Last. Dann bräuchte man keine extra Stromanschlüsse und durch den geringeren Kühlungsaufwand nicht mehr diese überdimensionierten Kühler. Folglich wären diese auch leiser. Und die Anschlüsse auf dem Mainboard wären nicht mehr verdeckt.
Falls die Leistung den Entusiasten nicht reicht, könnten sie die Dinger immer noch im SLI- oder Crossfire zusammenstecken. Immerhin bräuchte man dann kein KW-Netzteil wie bisher.

Es mag unwahrscheinlich klingen, aber ist das nicht ein Traum? Wer behauptet das würde nicht gehen, irrt sich. Es geht sicher, nur entwickeln Nvidia "und" ATI nicht in diese Richtung.
 
Vom Design her ansprechend, die Sache mit der Leistung wird sich zeigen.
 
Lajiola schrieb:
Sieht irgendwie mächtig aus, die Karte wird sicher nicht zu den Energiesparern gehören.
Solangsam sollte doch mal endlich das Umdenken beginnen.

Naja, sag das nicht. Die 4850 ist deutlich sparsamer als die 4870, bei der PP2.0 ja mehr oder weniger völlig kaputt ist. Eine 4850 X2 dürfte weniger verbrauchen als eine einzelne 4870. Die 4870 X2 verbraucht ja im idle kaum mehr als eine einzelne 4870.

OPJKickers schrieb:
Wieso einmal 6 und einmal 8Pin Stromanschluss wenn eine normale HD 4850 einen 6Pin braucht? Wieso braucht eine X2 plötzlich MEHR Strom(-anschlüsse) als im SLI/CF?

Das liegt daran, weil die Grafikkarte ihren Strom nicht nur durch die 6-pin-/8-pin-Anschlüsse bekommt, sondern auch durch den PCIe-Sockel (Schließlich haben kleine Grafikkarten keinen Extra-Anschluss und die müssen ja auch irgendwie Strom bekommen). Bei PCIe 1.1 sind max. 75W, bei 2.0 war mal von 150W die Rede, allerdings weiß ich nicht genau wie das jetzt ist und v.a. ist es auch eine Frage der Board-Hersteller.

Eine 4850 zieht also bis zu 75W schon aus dem PCIe-Sockel und dann noch etwas Extra aus dem 6-pin-Anschluss. Eine 4850 X2 braucht zwar nicht ganz doppelt so viel Strom, aber ein 6-pin-Anschluss wäre dann zu wenig, weil ja die "zwei Karte" (es sind ja mehr oder weniger zwei Karten auf einer Platine) keine weiteren 75W aus dem Sockel bekommt. Daher wird dann ein 8-pin-Anschluss benötigt.
 
CBOT schrieb:

cool thx!

Die Leistung ist doch garnich sooo schlecht oder? ;) FarCry 2 1920x1200 alles highest.. läuft anscheinend voll flüssig. Naja damit willl ich nich sagen das es mit ner besseren GPU nich besser laufen würde^^.
 
Was ein Monster! Habe die Bilder jetzt erst richtig gesehen. Bei der Länge passt das niemals in ein Standardgehäuse. Ist die noch länger als eine Nvidia GTX :eek:? Die waren schon hart an der Schmerzgrenze!

Da bin ich mal auf die ersten neuen "Case-Mods" gespannt. Dann nämlich, wenn die Modder ein Teil ihres Gehäuses heraussägen, damit die Karte reinpasst. :evillol:
Im Crossfire hat man dann einen schweizer Käse, der nur noch mit Halteklammern zusammen gehalten wird :lol:

Davon einmal abgesehen: Der/die Kühler sehen mächtig schwer aus. Falls das stimmt, bekommt das mainboard dann nicht einen Knacks, wenn man zusätzlich noch einen schweren CPU-Kühler für den Prozessor draufbombt (>800g)?
 
wird die 28cm nicht wirklch übersteigen. macht die 3870 x2 ja auch nicht und die 4870 glaube ich auch nicht.
 
strubo0 schrieb:
wird die 28cm nicht wirklch übersteigen. macht die 3870 x2 ja auch nicht und die 4870 glaube ich auch nicht.

Dennoch ist der Trend der immer länger werdenden Karten nicht sonderlich schön. Die normale 4850 hat etwa 23cm. Die ATI HD 4870 und die Nvidia Geforce GTX 280 sind 27-28cm Karten soweit ich weiß. Rechne noch 2-4cm für die Strombabel und du kommt auf über 30cm.

Wo soll das noch hinführen? Brauchen wir bald wie in Servern Karten, die man mit Klammern am anderen Ende des Gehäuses festmacht? Naja, wer nicht hören will soll fühlen :lol:
 
Wo ist das Problem? ATX sieht nunmal noch längere Karten vor.
Wer meint mit Pseudo ATX Gehäusen auszukommen, der soll es tun, braucht aber hinterher nicht weinen wenns doch nicht klappt.
 
Da muss ich Hardware_Hoshi recht geben!

Es wäre doch ein Toller trend, wenn sich die Hersteller eher auf niedrigen verbrauch konzentrieren würden als auf immer noch schnellere Hardware.

Und es wäre für die Enthusiasten leicht sich ein Sli/CF System anzuschaffen, da auch die Spieleentwickler sich dann langfristig mit der perfekten Skalierung solcher Multi GPU befassen würden.

So könnte man einen Grafikhammer nach dem anderen Spielen ohne permanent neu High End Hardware kaufen zu müssen.

Und eines muss ich auch noch sagen, wer brauch schon eine noch bessere Grafik als Crysis? Mir würde das für die nächsten 30 Jahre ausreichen. Unter dem Gesichtspunt der drastischen Energieeinsparung.

Enbw frisst mir langsam aber sicher die Haare vom Kopf:freak:
 
Zuletzt bearbeitet:
Der Markt verlangt schnelle Hardware/viele FPS. Also bekommt der Markt was er will.

Du bist scheinbar eine Randgruppe, bzw doch nicht, sonst hättest du AMD mit dem Kauf 2er 4850 nicht mitgeteilt, das FPS wichtig sind.

Hättest du für eine 4670 das selbe bezahlt? Nein, ich glaube nicht Tim, also hat sich das Thema erledigt. Das derzeitige Maximum sind mit PCIe 2.0 eh 300W pro Grafikkarte, also halb so wild, die 4870 X2 wird so schnell nicht Verbrauchsmäßig getoppt, aber die Vebrauch billiger Karten wird weiterhin ansteigen.

Wer bessere Grafik als in Crysis braucht?
Werd nicht albern, Crysis ist nicht das Ende.
Wenn das Flimmern des kompletten Bildes dir die Augen aus dem Kopf brennt, dann ist das nicht das Ende aller Weisheiten, zudem man die optischen Mängel in Crysis leicht erkennt. Nehmen wir die Felsen. Ist es realtisch, das ein Fels 5 aus Polygonen besteht und Texturen von vor 5 Jahren verwendet (Achtung Übertreibung)?
 
Zuletzt bearbeitet:
Natürlich kann man immer noch was an der Grafik verbessern aber ich denke wir sind jetzt an einem Punkt angekommen wo es eigentlich meiner Meinung nach von der Grafik sehr sehr schön wird und es nicht zwangsläufig besser werden muss.

Ist doch auch irgendwie beängstigend wenn ich mir vorstelle, dass in 10 Jahren ein Videospielt nahezu realitätsgetreu ist!

Aber die Jungs von heute sind so verwöhnt:p


Ich komme noch aus alten C64 Zeiten :-)
 
Zuletzt bearbeitet:
Oje, Umweltschutz fängt nicht bei den Gamer-Grafikkarten an.

So wenig wie das im Endeffekt ausmacht....

Wenn Google einen schwarzen Hintergrund hätte, das würde WIRKLICH viel bringen.
Schaut den Film "Eine Unbequeme Wahrheit" von Al Gore.

Der wird euch die schlimmeren Probleme nenne.

Und ich find die HD 4850X2 ganz gut.
1. wird sie vermutlich einiges günstiger (auch wenn sie für 400€ gelistet ist)
und 2. sie ist immer noch sauschnell.
 
Zurück
Oben