News Details und Bilder zur ATi Radeon 3870 X2

Dann lach weiter...

... denn mit maximalen Details in einer hohen Auflösung gepaart mit AA und AF wird auch diese Karte nicht reichen.
 
@ TM30-HWLUXX

Du besitzt also schon die ATI Radeon HD 3870-X2, oder woher bist Du dir da so sicher? :lol:

LG
Ganeagon
 
Wer 1 und 1 zusammenzählen kann, der weiß das.

Oder glaubst du, die Karte wird schneller als zwei einzelne 3870 werden...?

Außerdem ist ja auch bekannt, das Crysis kaum mit Multi GPU Lösungen skaliert. Ne 8800Ultra könnte demnach schneller sein.
 
Zuletzt bearbeitet:
Als Beispiel sei angebracht: Die PowerColor HD 3850 Xtreme 512 MB, richtig 3850(!), ist in vielen Spielen, also nicht nur in einem oder zwei, der GTX Ultra von nVidia überlegen; dass zeigen Benchmarks deutlich. Mit einem einigermaßen aktuellem System und einer GTX Ultra, läuft auch Crysis bereits in hohen Auflösungen relativ flüssig - schon heute! Und jetzt stelle dir Mal eine HD 3890 auf Basis von zwei HD 3870 vor, die womöglich noch mit etwas mehr Pixel- und Texelfüllrate glänzen können. Die stampft sämtliche Karten in den Boden... und setzt hoffentlich dem Crysis-Wahn ein baldiges Ende. :freak:

Hier einige Werte und Ergebnisse von der PowerColor HD 3850 Xtreme, die sich für knapp 180 EUR sehen lassen können:

http://www.technic3d.com/article-591,3-powercolor-hd3850-xtreme-amd-im-aufwind.htm


LG
Ganeagon

PS: Mit optimiertem, neuen Treiber lassen sich sicherlich noch einige Ressourcen ausschöpfen. ATI ist wieder im Geschäft, endlich Mal wieder nach langer Zeit. Und spätestens wenn ATI seine High-End Karte vorstellt, muss nVidia reagieren. So gesehen, belebt Konkurrenz tatsächlich das Geschäft. :D
 
Zuletzt bearbeitet:
yo, wers glaubt wird selig... LOL

wow die 3850 extreme ist in HL2 schneller als ne GTX... welch Wunder (warum nur ist bei fast allen ATI Karten ne HL2 Blackbox dabei...) ... und Doom 3... na wow! und wo noch? ööhm wars das schon... tjo.

schau dir lieber mal die crysis benchmarks in 1600x1200 mit AA und AF an. da reißt eine dual 3870 mit sicherheit auch nix: https://www.computerbase.de/2007-11/test-ati-radeon-hd-3870-rv670/25/#abschnitt_crysis

wie gesagt, in Crysis kann man SLI/CF vergessen. Jedenfalls momentan

Ich sehe noch keinen Aufwind in Sachen ATI. Wenn sie den Dual RV670 bringen, wird Nvidia wieder rechtzeitig kontern können. Alleine schon mit der neuen GTS und GTX... und da wäre ja auch noch die Dual 8800GT (8950)... da wird ATI keine Chance haben. Aber das wollen wohl viele Fanboys hier nicht lesen.

UND NEIN, ich bin kein Fanboy. Hab selber ne ATI im Rechner. Und davor genug Nvidia Karten.
 
Zuletzt bearbeitet:
Hat man dich als Fanboy beschimpft, abgestempelt oder gar ertappt? Warum sonst musst Du am Ende deines Beitrags darauf eingehen? Gerade dadurch implizierst Du einem objektiven Leser, ich nenne es, das Fanboy-Syndrom, an welchem einige hier wohl zu leiden scheinen. Vor allem mit der Schlussbegründung, auch ich habe eine ATI im Rechner. Wie dem auch sei! Mich interessierst herzlich wenig, was Du gerade jetzt in deinem Rechner hast... :lol:

Diese orchestrale Untergangsstimmung gegen bestimmte Gruppen und Minderheiten, wirkt auf mich wie das Geheule eines Hundes im Vergleich zum harmonischen Klang einer Mozart Sonata - vollständig ohrenbetäubend.

Und ja, nVidia wird kontern, muss es sogar! Welch' scharfsinnige Schlussfolgerung, man mag es kaum fassen. :freak:

LG
Ganeagon
 
Tjooo und dir gehen anscheinend auch die Fakten und Argumente aus, wenn du nur darauf eingehst und nicht auf die vergleichsweise lahmen 3850/3870 Karten...

Und ja, nVidia wird kontern, muss es sogar! Welch' scharfsinnige Schlussfolgerung, man mag es kaum fassen.

LOL, machst dich wohl über dich selber lustig. Das kam nämlich zuerst von dir... man man man... Bist nen ganz Schlauer!

Aber ich bin jetzt raus hier, der Klügere gibt nach.
 
Zuletzt bearbeitet:
Ja, nur wenige können sich über sich selbst lustig machen. Zeugt von ausgeprägter und gefestigter Persönlichkeit, nicht so wie andere, die in ihrer Unbeholfenheit aggressivere Züge aufweisen müssen. :evillol:

LG
Ganeagon
 
bin auch mal auf benches gespannt
 
Zuletzt bearbeitet:
ich fass mal zusammen:

- Crysis wird nicht auf very high in 1600er Auflösung laufen.
- Nvidia muss kontern

:freak:

EDIT: wenn die 3870X2 nicht mindestens 30% schneller als eine 8800Ultra ist, das ist das schwach ohne Ende. 200W, 55nm vs 90nm, vermutlich dann noch lauter... min 30% wären angebracht.
 
Zuletzt bearbeitet:
Mit 2 GPU's eine Schlagen.. nette Idee...

Aber was ist wenn nVidia das gleiche macht. Sry - aber AMD / ATi werden den Tron nicht zurückerhalten.
 
also der hohe stromverbrauch ist kein argument um der karte ihre daseinsberechtigung zu entziehen, schließlich wird die karte ja nicht nur im abzockerland deutschland verkauft sondern auch in anderen ländern, in denen der strompreis en appel und en ei beträgt (schweiz 8 ct/kwh z. B.).

MfG
 
IppoN schrieb:
Mit 2 GPU's eine Schlagen.. nette Idee...

Aber was ist wenn nVidia das gleiche macht. Sry - aber AMD / ATi werden den Tron nicht zurückerhalten.

Du bist schein ein Stück unschlau :evillol: . Einfach Rechnung: Benchmark anwerfen ... Karte die mehr Frames abliefert ">" rest. Wieviele GPUs letztlich auf der Karte verbraut sind ist quasi egal .. solange die Karte nicht um einen Faktor x mehr kostet :p .

Wenn der Weg in den HighEnd Markt für ATI die mehrfach GPU Lösung ist warum nicht. HighEnd ist eh nur aus Strategischer sicht Wichtig ... das große Geld gibt es da eh nicht.
 
Ganeagon schrieb:
Als Beispiel sei angebracht: Die PowerColor HD 3850 Xtreme 512 MB, richtig 3850(!), ist in vielen Spielen, also nicht nur in einem oder zwei, der GTX Ultra von nVidia überlegen; dass zeigen Benchmarks deutlich. Mit einem einigermaßen aktuellem System und einer GTX Ultra, läuft auch Crysis bereits in hohen Auflösungen relativ flüssig - schon heute! Und jetzt stelle dir Mal eine HD 3890 auf Basis von zwei HD 3870 vor, die womöglich noch mit etwas mehr Pixel- und Texelfüllrate glänzen können. Die stampft sämtliche Karten in den Boden... und setzt hoffentlich dem Crysis-Wahn ein baldiges Ende. :freak:

Sagmal hast du einen anderen Test durchgelesen als den verlinkten?:freak:
Die Karte ist der GTX resp. Utra in keinster Weise überlegen.

Und zum Thema Crysis:
Ich wage ernsthaft zu bezweifeln, dass selbst mit einer X2 Crysis auf 1920*1200 spielbar ist.

mFg tAk
 
Ich habe lediglich betont, dass sie in einigen Spielen überlegen ist, nimmt man die Framerate als Maßstab aller Dinge. Was ist daran so schwer zu verstehen? Dies heißt nicht, dass sie die Ultra, die drei Mal mehr kostet, in Grund und Boden gestampft hat. :lol:
Nur zeigt es, dass ATI wieder im Aufwind ist, und die Zeichen für die neuen Karten gar nicht so schlecht stehen, wie gerne behauptet wird.

Entweder habe ich mich nicht vollständig verständlich ausgedrückt oder man hat meine Antwort schlichtweg falsch verstanden. Beides ist nicht auszuschließen. :D

LG
Ganeagon
 
Unter "vielen" Spielen verstehe ich einen Grossteil der Spiele. Und das ist in dem von dir ausgewählten "Benchmarkparcours" nicht der Fall.

Aber wir sind ja nicht hier um uns zu streiten ;)

mFg tAk
 
Eben...
Wir sind hier, um sachlich mit- oder gegeneinander zu diskutieren. Und wenn wir Mal etwas hitzigere Diskussionen führen, so ist es auch im Eifer des Gefechts nicht so schlimm, zeugt eher von, na ich sag Mal, Leidenschaft, aber, man sollte gewisse Anstandsregeln trotz allem nicht überschreiten und wir achten ja hier eigentlich alle ganz gut drauf. Ausnahmen bestätigen die Regel... :D

Um noch kurz auf das Thema zurück zu kommen, ich halte die X2 Grafikkarten für eine gute Entwicklung, denn sie werden günstiger im Preis sein, als zwei einzelne Karten.

LG
Ganeagon
 
Ich weiß ja nicht, was ihr habt, aber die Leistung einer X2 müsste ungefähr zwei 3870 im Crossfire-Modus entsprechen.
Und die Karte runterzumachen, nur weil das momentan so vergötterte Crysis kein Sli/Crossfire unterstützt, zeugt eher von Fanboys.
Wieso unterstützt denn Crysis kein Sli/Crossfire? Ich würde das schon fast als Armutszeugnis der Entwickler ansehen. Da programmiert man ein Spiel, wo man eine Hammergrafik einbaut und hat sogar 5500 Studen von Nvidia-Entwicklern zur Verfügung und bekommt es nicht hin, heutige TEchnologien zu nutzen um die Grafik auch zu berechnen.
Es führt langfristig nunmal kein Weg an einer Multi-GPU-Architektur im Highend-Bereich vorbei. BEi den CPUs hat es sich ja nun auch endlich mal durchgesetzt und dort ist es von der Programmierung noch deutlich aufwändiger.
 
Zurück
Oben