Test AMD gegen Nvidia: 13 aktuelle Grafikkarten im Vergleich

Seppuku schrieb:
[..]
Wer glaubt, mit einer bedingt repräsentativen Stichprobe eine pauschale Aussage treffen zu können, dem gehört sowieso links und recht eine runtergehaut ;).
[...]

Da stimme ich voll udn ganz zu! (auch wenn ich eher für Aufklären wäre als für hauen ^^)
Das Problem ist doch ganz klar, dass viele hier an das End-Performanceratin den Anspruch stellen es solle eine Absolute Aussage machen welche Karte die bessere ist, das geht aber pauschal nicht und dürfte wenn wir ehrlich sidn auch nur in den wenigsten Fällen jemanden interessieren. (ausser jemand hat Zeit alle Spiele zu spielen ^^)
Das Performancerating ist doch lediglich eine grobe Übersicht wo sich eine Karte positioniert. Wer dann halt seine Kaufentscheidung auf Grund von 3% FPS Unterschied in dem Rating macht und nicht auf Grund des Ratings der für ihn wichtigen Spiele (resp. Temps, Lautstärke, Stromverbraucht, Preis) der ist selber Schuld...


p.s. mich - und wahrscheinlich wirklich nur mich ^^ - würde mal interessieren wo sich hier ein SLI Gespann aus zwei GTS250 mit je 1GB RAM einordnet. Ich hab vor kurzem eins bei nem Kumpel verbaut und musste feststellen die sind recht flott unterwegs und gar nicht mal so furchtbar teuer.
 
Ein wirklich tolles Review, dass man allen empfehlen kann, die vor einer Kaufentscheidung stehen.

Was mit allerdings fehlt ist ein Vergleich zwischen SLI-/CrossFire-Kombinationen und den 2-Kern-Karten GTX 295 und X2. Leider.

Wo findet man hier Vergleiche?

Grüße,
kenyo
 
Seppuku schrieb:
Wer glaubt, mit einer bedingt repräsentativen Stichprobe eine pauschale Aussage treffen zu können, dem gehört sowieso links und recht eine runtergehaut ;).
Nur zu, dürfte aber mit der Zeit recht ermüdend werden.

Es wird niemals in die Köpfe der Leser hineinkommen, das am Ende das Rating nicht der ausschlaggebende Grund sein darf.
Fast der ganze Testablauf läuft am Ende auf dieses Rating hinaus.


Die Einführung einer Kaufempfehlung ist schonmal eine sehr gute Idee, sofern den wirklich jemand das Fazit lesen sollte.
Jetzt muss nur noch der Inhalt teilweise überdacht werden. Stichpunkt die 160TMUs einer GTX 295 sind nur "oft schnell genug für AF"
 
Unyu schrieb:
und 16xAF (natürlich nur im Setting Q) mit noAAA/TAA und mit 4x/8xAA.
Letzteres soll "hohe Qualität" sugerieren.

CB testet Karten für alle, nicht nur für Irre, die jeden AA-Mode auswendig kennen und an jedem Frame rumfriemeln. Grenzt schon fast an HiFi-Kabelvoodoo, was sich manche einbilden sehen zu können. Für 98% der User ist das hohe Quali.
 
Die Ergebnisse von HAWX sind äußerst merkwürdig:


1920X1200 4AA 16AF

Cbase:

GTX 275
53 fps

4890
34 fps (wtf?????)

Guru3d:
http://www.guru3d.com/article/sapphire-toxic-hd-4890-vaporx-review/9

1920X1080 4AA 16AF

GTX 275
50 fps

4890
55 fps

relativ zur GTX 275 gesehen ist das ein Unterschied von 73% zwischen den Ergebnissen von Cbase und guru3d

Ist das euch nicht aufgefallen? Mal ehrlich: glaubt ihr wirklich unter 1680X1050 4AA 16AF ist eine 512 MB 9800GTX+ schneller als eine 1024er 4890, bei einem DX 10.1 Spiel?

Kann mir einer bitte erklären wie es zu so einem massiven Unterschied kommen kann? Na klar, unterschiedliche Bench Sequenz aber hier läuft etwas mächtig schief und verzerrt damit das gesamte Rating!


Edit: hier die Werte von Extremetech mit 1920X1200 4AA

http://www.extremetech.com/article2/0,2845,2344301,00.asp

GTX 275
43 fps

4890
54 fps

With AA disabled, the Nvidia cards are faster than the ATI cards, despite lacking DirectX 10.1 support. It looks like DX 10.1 really pays off when you turn on anti-aliasing, though—the ATI cards are considerably faster there.

Wieder ist die 4890 massiv schneller bei 4AA als die GTX 275 und bei euch ist es exakt anders herum? Das kann doch nicht sein!

Techspot:

http://www.techspot.com/review/164-radeon-4890-vs-geforce-gtx275/page6.html

1920X1200 4AA

GTX 275
44 fps

4890
56 fps

Wieder ist die 4890 deutlich schneller als die GTX 275. Wie kommt ihr auf solche miesen Ergebnisse für die 4890? War DX 10.1 nicht aktiviert?

behardware:

http://www.behardware.com/articles/755-14/report-radeon-hd-4890-vs-geforce-gtx-275.html

GTX 275
42 fps

4890
52 fps

hothardware:

http://hothardware.com/Articles/The-GeForce-GTX-275-and-HD-4890-go-HeadtoHead/?page=10

GTX 275
57 fps

4890
65 fps
 
Zuletzt bearbeitet:
Ist doch jetzt scheißegal ob der tet ein wnig nvidia lastig ist.Alle verfeindeten Karten bewegen sich ungefähr auf den gleichen level...
 
Wintermute
Ich bezweifel, das die Mehrheit aus Spass 8xMSAA anstatt 8xCSAA anschaltet.
Gerade die Blinden merken gar nicht das der um welten schnellere Modus hässlicher aussieht.

Wenn doch, dann liegt es an der Erziehung der Leser seitens CB, die 8xMSAA als optisch hochwertigsten Modus propagieren, der unebdingt eingeschaltet werden muss.
 
Gibts irgendwo einen Test mit Frameverläufen, der die Defizite eines zu kleinen Speichers deutlich aufzeigt?

Machst du Witze? Sollte sich doch langsam rumgesprochen haben das NV Karten ein beschissenes Speichermanagment haben(lagern von haus aus mehr ein, verwalten schlechter und nutzen den vorhandenen schlechter aus) und die Karten extrem vom Vram abhängig sind, das ist einer der Punkte die bei der nächsten Architektur ausgebessert werden(GT 300). Schau dir doch die Tests an, 512MB Karten brechen sogut wie immer ein. Vorallem die 1GB GDDR3 kosten sogut wie gar nix mehr, warum unbedingt ein paar € sparen nur damit man dann Nachladeruckler genießen darf?

Jeder 88 GTS 640, GTX 768 Besitzer von 2006 lacht dich aus mit einer 512MB Karte.

genialer test, gibt klasse übersicht, allerdings hätte ich mich gefreut wenn auch kleinere erklärungen gegeben worden wären, z.b. warum GTX 295 bei crysis abstürtzt
Und schon fragt sich der 1. warum die Karte abstürzt, wie gesagt CB, es hätte deutlicher gemacht werden sollen die GTX 295 hat viel zu wenig Vram...

Die GTX 275 stürzt in dem Fall nicht ab, weil bei SLI noch der Vram Overhead dazukommt und der killt dann eben die GTX 295 komplett, die theoretisch ja den gleichen Vram hat.
 
Zuletzt bearbeitet:
Unyu schrieb:
Wintermute
Wenn doch, dann liegt es an der Erziehung der Leser seitens CB, die 8xMSAA als optisch hochwertigsten Modus propagieren, der unebdingt eingeschaltet werden muss.


8xMSAA ist ein hochwertiger modus, kombiniert mit 16xAF und AAA hat man auf ATI karten das beste Bild mit akzeptabler Leistung. Man kann fast jedes spiel damit auf einer 4870 flüssig genießen.
bei Nvidia karten ist das natürlich anders,da ihnen die Leistung bei 8xAA ausgeht, da sie ein anderes Raster fahren.

gruß
 
Egal was hier alle labern und wie die weinen, für mich gilt folgendes:

Sehr hilfreicher Test, wenn man das Gesamtergebniss wissen möchte.
Die Spieleauswahl finde ich total in Ordnung und vor allem das 1920x1200 getestet wurde.

Danke ;)
 
Danke für den Test.
Aber wie sich hier einige wieder aufgeilen...
 
Jetzt muss nur noch der Inhalt teilweise überdacht werden. Stichpunkt die 160TMUs einer GTX 295 sind nur "oft schnell genug für AF"

Das bezieht sich nach der Logik der Aufzählungen auf die betreffende Auflösung, vgl. bei der GTX 295:

# Schnell genug für 2560x1600
# Öfters AA/AF möglich

Oder auch die GTX 260:

# Schnell genug für 1920x1200
# Öfters AA/AF möglich

Die Aussage ist klar: die Karte stemmt die Auflösung selbst problemlos, je nach Titel kann man dann mit den Leistungsreserven noch AA/AF zuschalten.
 
Kasmopaya schrieb:
Jeder 88 GTS 640 von 2006 lacht dich aus mit einer 512MB Karte.
Da würde ich kräftig zurücklachen. Denn die 128MB machen den Kohl auch nicht fett. Ansonsten reißt die Karte auch nichts.
Aber ansonsten gibts an der Problematik nichts zu rütteln. 512MB sind bei nem G92 herzlich wenig.
Nicht dass die Karte jetzt total unbrauchbar wäre, aber mitunter hat man doch schon dann und wann Nachladeruckler.
Bei ner 8800GT damals waren 512MB ok. Speicher war noch etwas teurer. Aber ne GTS 250 ist nochmals erheblich schneller und die Speicherpreise haben sich seit release der 8800GT fast halbiert.
Da muss die 512MB Version deutlichst günstiger sein als die 1024MB Version damit diese interessant ist.
 
@bensen

Sehr gut zusammengefasst! Bis auf das mit der GTS 640, es gibt genug Fälle in dem die extra 128MB Vram das Zünglein an der Waage sind, die Karte hat einfach die perfekte Kombi aus Rohleistung und Vram da gibts nix zu lachen. ;) Direkte Gegenspieler der GTS 250 bzw. 9800GTX+ ist ja unter anderem die 8800GTX 768. Leider nicht im Test weil eben nicht "aktuell"


@redfirediablo
Damit kann man jegliche Nachteile im P/L einfach wieder aufwiegen, einfach indem man von einem CUDA Vorteil spricht.....

Wenn eine GPU zig mal schneller rechnet als eine CPU und die Aufgaben somit effizienter, also stromsparender und viel schneller erledigt, ist das wohl ein Vorteil, für manche ein verdammt großer. Hier mal was zum einlesen: https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/
 
Zuletzt bearbeitet:
Mir gehts doch nur darum, dass ich zum schluss kein pauschalisierendes Performancerating haben kann, dass jeder als pauschal ansieht und dann damit argumetiert und epfiehlt welche Karte jetzt schneller ist.
EIn paar vernünftige Spiele fürs "Performancerating" und ein externer Physx Directx10.1 Vergleich hättens auch getan.Anscheinend unterschätzt man die Macht von Computerbase.
Die Macht sei mit dir.^^
Wenn ich NvidiaSpiele und ATISpiele teste und dann zusammen in einen topf werfe und daraus ein performancerating mache bringt das halt nicht viel.Noch dazu wo die NvidiaSpiele dabei sind wo die ATI Karten eklatant zurückfallen, im Vergleich zu den directx10.1 spielen wo die Nvidias im Vergleich viel besser dastehen.
Außerdem isses komisch dass Hawx so schlecht auf den ATi´s läuft.
 
Zuletzt bearbeitet:
Sehr guter, informativer und ausführlicher Test.
Hut ab.
Schade das SLI/CF Tests nicht mit reingenommen wurden, aber man kann ja nicht alles haben . War auch so sicher genug Arbeit ^^.

Und ich muss sagen, echt erstaunlich wie sich die Leute hier z.T. wieder an die Gurgel springen....
 
Die Ergebnisse von HAWX sind äußerst merkwürdig:
Ja, etwas verundert tun mich die Ergebnisse auch. Aber diese sind von ATi so "abgesegnet", also so falsch können sie eigentlich nicht sein. Wegen Guru3D, da weiß ich nicht, was und wie dort getestet worden ist.
 
Mir gehts doch nur darum, dass ich zum schluss kein pauschalisierendes Performancerating haben kann, dass jeder als pauschal ansieht und dann damit argumetiert und epfiehlt welche Karte jetzt schneller ist.

Was andere Leute als "pauschal" oder besser "allgemeingültig" ansehen, obwohl "Allgemeingültigkeit" kein Test leisten kann, ist ein Problem der Wahrnehmung von denjenigen, die a) nicht richtig lesen/hinschauen, b) nicht richtig interpretieren, obwohl es eindeutiger nicht sein kann. Das ist nicht das Problem von CB. ;)
 
Selbst der dümmste User muß doch wissen, daß der Unterschied von 60fps zu 70fps marginal bis nicht wahrnehmbar ist...Wenn erstere Grafikkarte dafür deutlich leiser ist, kühler bleibt und/oder 10 € günstiger ist, dann ist diese doch klar zu bevorzugen.
 
Zurück
Oben