Radeon HD 3870 X2 schneller als Geforce 9800 GX2

Schinzie schrieb:
dann dreh mal mit zwei RV670 auflösung nach oben und schalte AA dazu, dann ist des ganze nicht mehr so natürlich^^
Dann schalte mal AI aus, oh die AF Cheaterei ist jetzt neuerdings bei AMD nicht mehr abschaltbar.
8xAA ist bei NV eh schwachsinn³ und nicht praxisrelevant. Jeder klar Denkende schaltet 8xCSAA, 16xCSAA oder gleich 8xS an.


Schinzie schrieb:
oft schneller,aber nicht meistens ^^
Die paar mal wo die X2 schneller ist kannst du dich freuen, aber dann sind da immer noch die Mikroruckler, eine Ultra ist immer schnell und problemlos. Man muss einfach mal anerkennen, das die Ultra in ihrer Lebzeit von keiner schnelleren Karte überholt wurde.
Übrigens Möcky schrieb "1*X2 schneller als 2*Ultra". Wie soll das bitte gehen, wenn eine einzelne Ultra eine X2 bereits vernichtet?


bazooExcalibur schrieb:
Es gibt Spiele die laufen mit Nvidia besser und Spiele mit ATI besser. Schlauberger.
Nur das weit mehr mit NV besser rennen, die NV fressen einfach alles gut.
Bei AMD sehe ich vor allem, wie Spiele wie der 3DMark gut laufen.
 
bazooExcalibur schrieb:
Natürlich du hast die Ahnung.
Dann schau die mal Crossfire unter D10 an.

Und der einzige der hier Müll Laber bist du.
Die Ultra oder 9600 SLI ist schneller wie ne HD 378 X2.
Und 2 GTS 8800 G92 512 wären noch um einiges Schneller.

SIehe Crysis D10
Lost Planet
World in Conflikt
Company of heros
Bioshok
Jericho

Ausserdem achte mal auf dein Aussprache. das mit dem Müll kannst du dir Sparen.
Lern erst ma Richtig lesen bevor du dein Mund aufmachst.

Cf skaliert einfach besser ja ist schon klar deswegen haste auch 2 8800 gts im PC
oh man das ich nicht lache was du hier erzählst.

Es gibt Spiele die laufen mit Nvidia besser und Spiele mit ATI besser. Schlauberger.

auf wen bezog sich jetzt deine aussage?

Unyu schrieb:
Dann schalte mal AI aus, oh die AF Cheaterei ist jetzt neuerdings bei AMD nicht mehr abschaltbar.
8xAA ist bei NV eh schwachsinn³ und nicht praxisrelevant. Jeder klar Denkende schaltet 8xCSAA, 16xCSAA oder gleich 8xS an.



Die paar mal wo die X2 schneller ist kannst du dich freuen, aber dann sind da immer noch die Mikroruckler, eine Ultra ist immer schnell und problemlos. Man muss einfach mal anerkennen, das die Ultra in ihrer Lebzeit von keiner schnelleren Karte überholt wurde.
Übrigens Möcky schrieb "1*X2 schneller als 2*Ultra". Wie soll das bitte gehen, wenn eine einzelne Ultra eine X2 bereits vernichtet?



Nur das weit mehr mit NV besser rennen, die NV fressen einfach alles gut.
Bei AMD sehe ich vor allem, wie Spiele wie der 3DMark gut laufen.

beleg mir mal bitte, dass die Ultra meistens schneller ist. Mit den X2 Betratreibern ist sie neuerdings sogar in Crysis langsamer. Ja, die Ultra war wohl bisher die beste Graka die es gab, keine Graka hat sich bisher 1,5Jahre an der Spitze halten können, das bezweifelt auch keiner. Mit den Microrucklern, naja,da kann man eigentlich nix sagen, wenn mans nie gesehn hat. In manchen Spielen gibts die, in den meisten nicht. Ich habe bis Dato no keine gesehn,au wenn i unter 30fps komme.
Das mit dem Catalyst AI ist total falsch, man kann alles im CCC deaktivieren wenn man will, und die Aussage mit den klar denkenden die niemals 8xAA zuschalten sondern nur ihre NV "cheaterei" ist auch nur falsch.

in diesem Sinne

gruß
 
Đęađliŋe schrieb:
Schinzie:

2 * 3780 vs. 2* 8800GTS 512

Eindeutig die Nvidia, denn wenn 2 * 9600GT die 3870x2 wegbasht
siehe CB test https://www.computerbase.de/2008-02/test-nvidia-geforce-9600-gt-sli/24/#abschnitt_performancerating

Von der Leistung her hätte Ati eig keine Chance aber wer weiß was noch kommt

ja, nur in 1280x1024, aber werr spielt mit ner X2 in dieser Auflösung. Ist ja klar,dass die ihr potenzial nicht in 1280 ausspielt. Ne Ultra wird da mindestens genau so oft geschlagen.

gruß
 
Full quotes sind gut für die Übersicht.^^ :rolleyes:


Schinzie schrieb:
beleg mir mal bitte, dass die Ultra meistens schneller ist.
Bei der X2 musst du immer einiges an FPS abziehen, siehe Mikroruckler.


Schinzie schrieb:
Mit den Microrucklern, naja,da kann man eigentlich nix sagen, wenn mans nie gesehn hat. In manchen Spielen gibts die, in den meisten nicht. Ich habe bis Dato no keine gesehn,au wenn i unter 30fps komme.
Du bestreitest die Mikroruckler? http://www.pcgameshardware.de/aid,6...gssteigernden_Effekt_von_Multi-GPU-Loesungen/
Übrigens NV/AMD haben zugegeben, das sie nicht beseitigt werden. http://www.pcgameshardware.de/aid,6...oruckler_Erste_Statements_von_AMD_und_Nvidia/


Schinzie schrieb:
Das mit dem Catalyst AI ist total falsch, man kann alles im CCC deaktivieren wenn man will
Eben nicht.
Selbst mit AI off bleiben einige AF Cheats an.


Schinzie schrieb:
und die Aussage mit den klar denkenden die niemals 8xAA zuschalten sondern nur ihre NV "cheaterei" ist auch nur falsch.
Schwer zu verstehen, was du meinst.
Ich schrieb einfach nur, das AMDs 8xAA nicht mit NVs verglichen werden sollte, weil NVs nicht praxisrelevant ist, dank besserer Alternativen.
 
@unyu
des mit den microrucklern kannste pauschal wirklich nicht sagen,i würde max sagen,dass du alles unter 35fps average langsamer siehst, sprich fps abziehn musst, sobald du konstant über 35 hast (was du in der regel überall ausser in crysis hast, und in crysis seh ich persönlich keine) musste nix mehr abziehn,weil dann fehlt dir nix mehr auf, ausser du hast evt roboteraugen. Kann dir bei belieben au gern paar frametimes zeigen.

Wenn du AI ausschaltest, ist au CF aus. Was genau du mit AF cheats meinst,weiss i net,aber Nvidia hat auch ihre Tricks,glaub mir, und die sind im Detail evt sogar schlimmer (bildqualität usw).

Bei ATI gibts au alternative AA modi, wobei i dazu net viel sagen kann,da ich die alternativen von Nvidia no nie ausprobiert habe.
 
1. Ja die 35fps Grenze, ist doch toll, dann reichen dir auch 25fps ohne CF.
Ja zeig mir ruhig ein paar Frametimes.

2. Echt? AI und CF sind gekoppelt?
AF Cheats sind, wenn AI dafür sorgt, das AF bei AMD deutlich weniger kostet und schlechter aussieht.
Wo cheatet NV? Die Bildqualität ist auf jeden Fall besser.

3. Dafür weiß ich es. Ich wollte nur zum Ausdruck bringen, das die AA Modi, wo es NV schwer hat irrelevant sind.
 
Dieser Thread ist wie jeder in dem es um einen neue Highendkarte voller dummer unfundierter Kommentare und hat eigentlich nicht anderes als eine sofortige Schließung verdient.

Zu der ganzen Multi-GPU-Thematik: Wenn ich mir überhaupt jemals solch eine Karte kaufen würde, dann weil mir irgendein Verrückter einen 30" Bildschirm schenkt.
Denn in 2560x1600 bei etwas älteren Spielen (die Treiberoptimierungen bei SLI/CF brauchen immer etwas Zeit) können die Karten zeigen was sie wirklich können, und bis auf wenige Ausnahmen zerlegt eine 3870x2 da bisher auch eine Ultra locker (siehe Performanceratings bei 2560x1600 mit oder ohne hohe Qualitätseinstellungen). Spiele wie Rainbow Six, wo CF stellenweise über 100% skaliert werden aber ohnehin die Ausnahme bleiben.
Unter einem 22" Bildschirm haben diese Karten ohnehin keine Daseinsberechtigung. Um auf meinem 17"/19" TFT ordentlich zocken zu können reichen auch 3850/9600GT locker.
Schinzie MOnitor zB ist die Untergrenze, bei der ich überhaupt so ne Karte kaufen würde, wobei für 1680x1050 eher noch ne einzelne GTS G92.

Und dieses ganze Fanboy Gelabere gehört ohnehin alles in die Tonne.
 
sobald du konstant über 35 hast (was du in der regel überall ausser in crysis hast, und in crysis seh ich persönlich keine)
Man fällt bei den min-Fps auch mit der X2 schon mal gerne auf rund 30-35 Fps ...
Spiele wie Rainbow Six, wo CF stellenweise über 100% skaliert werden aber ohnehin die Ausnahme bleiben.
Über 100% kann ja wohl schlecht sein ...

cYa
 
@Unyu
Ja, Catalyst A.I sind gekoppelt, deaktiviert man standart A.I ist kein CF mehr möglich.

Edit: Des war jetzt nicht ganz richtig, im Prinzip ist CF aus, aber hier die genaue Unterscheidung.

"Catalyst A.I. aus = Crossfire Antialiasing-Modus (keine Mehrleistung!)
Catalyst A.I. Standard = Crossfire-Modus nach Spielprofil wenn vorhanden, ansonsten keine Mehrleistung
Catalyst A.I. Erweitert = Crossfire erzwungen im Alternate Frame Rendering-Modus, sinnvoll wenn kein Spielprofil vorhanden und das Spiel von AFR profitiert"

Bei der Bildqualität sagen viele, dass die Nvidia die schlechtere hätte, ob das stimmt weiss i leider nicht,aber wenn man sich in den Foren umguckt sind die meisten dieser Meinung.

@Y33

Wie gesagt, die Microruckler-Empfindung ist subjektiv, ich selber merke absolut nix davon. Kann au sein, dass i nur Spiele gespielt habe, bei denen das Phänomen nicht vorkommt, aber ich persönlich (und i will hier niemandem meine Meinung aufschwätzen) finde, dass diese Microruckler geschichte total überbewertet wird. Von allen MultiGPU Kritikern ist dies der Kritikpunkt Nr1, wobei die meisten sowas nocht nicht einmal gesehn haben. Weder auf 2GT´s im SLI verbund, noch auf meiner X2 empfinde ich es als störend, gar sehe ich etwas.

Und nein, i wollte kein Fanboy Streit auslösen, nur nerven mich einige Vorurteile, die hier schon automatisch an den Tag gelegt werden, sobald irgendwas von Multi GPU und vor allem von der ach so be... X2 von ATI kommen. Die meisten haben sie no nie gesehn, lesen in einem Forum, Microruckler machen das ganze unspielbar und schon ist jeder der Meinung.
Sobald dann irgendwann das Stichwort X2 fällt, ist die Karte gleich sch..
Wobei grad diese am meisten Potential von allen erhältlichen hat, und komischerweise von vielen noch empfohlen wird.

Am besten ist es dann,wenn jemand versucht dies dann klar zu stellen (meist leider zu enthusiastisch), dann heisst es gleich wieder Fanboy da, Fanboy hier usw.
Ich wollte nix mehr, als zu sagen, dass ATI mit AA in hohen Auflösungen durchaus mit Nvidia konkurieren kann, mit der X2 die Ultra nicht mehr die alleinige Herrschaft hat, und aufgrund der guten Skalierung von CF es durchaus möglich ist, dass die X2 mit der GX2 mithalten kann.

In diesen Sinne
Gruß
 
Zuletzt bearbeitet:
@ Schinzie
Nach min 30 Müllkommentaren wieder mal ein kompetenter Beitrag! Finde die ganze Mikrorucklergeschichte auch einfach nur krank, ganz nach dem Prinzip: Alle reden davon, niemand weiß davon...

Kann die ganz Fanboy Geschichte auch nicht vrstehen. Hab zwar ein SLI System, aber daher muss ich nicht Nvidia Fanboy sein oder umgekehrt. Finde das Denken einfach primitiv (das was ich habe ist einfach besser als das der anderen Hersteller...)

mfg

a-b-d
 
Man darf au nicht vergessen das bei ATI die Möglichkeit besteht noch eine X beliebige Grafikkarte aus der 3000er Reihe dazuzuschalten zur X2.
 
y33H@ schrieb:
Man fällt bei den min-Fps auch mit der X2 schon mal gerne auf rund 30-35 Fps ...

Über 100% kann ja wohl schlecht sein ...

cYa

https://www.computerbase.de/2008-01/test-ati-radeon-hd-3870-x2/15/#abschnitt_rainbow_six_vegas

Schau mal die 2560x1600 Werte an.

107,86% Leistungssteigerung.

22,9 -> 47,6fps

Der Rekord bei Vegas liegt aber glaub bei 130%, wie das zustande kommt ist allerdings die Frage.

zu den Mircrorucklern: auf PCGH gabs mal ein NFS:proStreet Video, wo man die deutlich sehen sollte. Die Kommentare reichten da auch von "hä wo?" bis "omg son Mist!"
Ich selber konnt in dem Video allerdings auch keine Ruckler erkennen, ka hat wohl mit der Trägheit des Auges zu tun oder was weiß ich :p
 
Zuletzt bearbeitet:
@ neo-bahamuth

Kluger Junge :freak: Die HD3870 ist eine stinknormale mit 775/1125, die X2 läuft pro GPU mit 825/900.
D.h. der Wert zur HD3870 ist nicht eine einzelne X2-GPU, denn wäre es eine solche, wären über 100% unmöglich.

xYa
 
neo-bahamuth schrieb:
107,86% Leistungssteigerung.

22,9 -> 47,6fps
Äpfel -> Birne?
Eine 3870X2 ist nicht identisch getaktet, wie eine 3870, also für das Beispiel einer CF-Skalierung ungeeignet.


neo-bahamuth schrieb:
PCGH gabs mal ein NFS:proStreet Video
Hab ich schon gepostet.
http://www.pcgameshardware.de/aid,6...gssteigernden_Effekt_von_Multi-GPU-Loesungen/


a-bit-different schrieb:
Kann die ganz Fanboy Geschichte auch nicht vrstehen.
Jetzt wird man gleich als Fanboy bezeichnet, nur weil man die X2 nicht in den Himmel lobt und ein paar falsche Aussagen richtig stellt?


Schinzie schrieb:
Bei der Bildqualität sagen viele, dass die Nvidia die schlechtere hätte, ob das stimmt weiss i leider nicht,aber wenn man sich in den Foren umguckt sind die meisten dieser Meinung.
Mir egal was du in diversen Foren gelesen hast.
Fakt ist, das AMDs AF mieser ist und flimmert, mehr als zu R520 Zeiten.
AA ist theoretisch ähnlich, aber nur bis 4x sinnvoll vergleichbar, bis die Tester mal andere Modi kennen lernen.
 
y33H@ schrieb:
@ neo-bahamuth

Kluger Junge :freak: Die HD3870 ist eine stinknormale mit 775/1125, die X2 läuft pro GPU mit 825/900.
D.h. der Wert zur HD3870 ist nicht eine einzelne X2-GPU, denn wäre es eine solche, wären über 100% unmöglich.

xYa

Ähm eine einzelne 3870x2 GPU ist langsamer als ne normale 3870. Mit zwei normalen 3870 sind bis zu 130% Steigerung in dem Spiel möglich. Der Chiptakt ist vll.t höger aber der Speichertakt geringer, gibts sich im Endeffekt nicht viel.

Über 100% sind außerdem dennoch denkbar, wenn eine einzelne GPU aufgrund irgendwelcher Beschränkungen der Engine nicht voll ausgereizt werden kann. Über 100% Skalierung sind in der Theorie unmöglich, sofern das Potential einer einzelnen GPU zu 100% ausgereizt wird.

Bin ein kluger Junge, danke...
 
Zuletzt bearbeitet:
Wieso soll eine GPU Beschränkungen haben, die andere aber nicht? Das eine einzelne X2-GPU langsamer als eine HD3870 ist, liegt an der CPU-Synchro.

cYa
 
Was hat das aufeinmal mit GDDR3 zu tun? Höchstens mit dessen 900 MHz bei der X2 ...
Wenn du eine normale HD3870 auf 825/900 taktest, wird die wohl 2-3% vor einer X2 mit nicht funzendem CF liegen.

cYa
 
y33H@ schrieb:
Was hat das aufeinmal mit GDDR3 zu tun? Höchstens mit dessen 900 MHz bei der X2 ...
Wenn du eine normale HD3870 auf 825/900 taktest, wird die wohl 2-3% vor einer X2 mit nicht funzendem CF liegen.

cYa

Es geht nur darum dass einen X2 mit zwei wegen des Speichers vermeintlich langsameren Karten in Vegas mehr als 100% gegenüber einer einzelnen 3870 zulegt.
Wobei in dem Spiel kurioserweise schon 2x 3870 130% Leistungssteigerung schafften, was nur sein kann, wenn eine Karte vom Spiel nicht voll ausgereizt wird, warum auch immer.
 
Zurück
Oben