ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Die Demo "erkennt" Fermi nicht, ergo DX9. Wer aber Dirt 2 mit DX9 bencht und gegen die DX11-Werte einer HD5870 stellt - sorry, aber der ist selten dämlich.
 
Ist das nicht ein schlechtes Zeichen wenn die Demo eine Directx11 Karte nicht kennt?
Eentuell ein Zeichen dass die Treiber noch nicht ganz angepasst sind.
 
So wie ich's lese, ist der "Screen" von SemiAccurate höchstselbst.
Scheint in der Tat eine GTX480 zu sein, wenn man mal die Clocks betrachtet.

Edit. Viel wichtiger ist doch die Frage: Gab's überhaupt irgendwelche Benchmarks in denen explizit die Demo und nicht das fertige Produkt benutzt wurde?
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
@ Schaffe89

Scherzbold :rolleyes: Wieso sollte die uralte Dirt2-Demo [von Anfang Dezember] Fermi "kennen"?
 
Nein aber der Treiber sollte ja wohl DX 11 aktivieren wenn eine DX 11 Graka verbaut ist, so ist das denke ich gemeint ;)
 
Das hat nichts mit dem Treiber zu tun. Das ist ein Eintrag in der Ini - sofern die Demo anhand des Device keine HD5k erkennt, ist's halt DX9. Ganz banal.
 
Wie versteh ich das jetzt? Imho muss der Hersteller von Dirt 2 einen Patch rausbringen, damit der directx11 Modus auf der Nvidiakarte funktioniert?
Also muss jeder GTX480 Nutzer dies in der Ini umstellen?
 
Das ist nur bei der DEMO ein Problem, beim "fertigen" Spiel gehts.

Der Vorwurf an NVIDIA ist, das die Benchmarks in Dirt 2 nur in der Demo vorgenommen wurden und demnach nur in DX9 laufen.

Edit: mist ;)
 
Wieso der Vorwurf an NV? Die können da ja wohl schlecht was für. Und wenn man bencht, sollte man schon erkennen können, ob in Dirt 2 DX11 aktiv.

Das steht in der Ini, man sieht es an Fraps und im Grafikmenü :rolleyes:
 
Achsooo.^^
Naja das wäre aber sehr erbärmlich, ich denke nicht, dass sie das getan haben.
Obwohl die Performance in den paar Leaks da ungewöhnlich gut ist.
 
NV selbst macht das nicht, so viel sei gesagt. Die verarschen sich nicht selbst, hilft ja auch nicht.
 
@Schinzie

definiere mit absicht o.O

absicht von nv wäre hirnlos...
zugegeben ist das versehen durch den bencher zwar auch aber hey XD

@gerüchte zum B1

Natürlich wird es einen B-Spin geben :freak: die frage ist, welcher das tageslich erblickt. (abgesehen davon das ich als hersteller auch nciht beim release meines produktes bestätigen würde, "da ist so viel MIST an diesem produkt, das wir es in nem halben jahr refreshen MÜSEEN" XD)

evtl wars ja mit hintergedanken "ich herbst werden wir keinen B1-Spin sehen (gedankliche ergänzung: Variante1: B1 haben wir längst Fertig, bis dahin bekommen wir den C-spin fertig / Varinate2: o viel mist wie da gelaufen ist, würde ich erwarten das es mindestens der B2 sein wird, den wir sehen werden, aber ich tippe eher noch auf den B3 Spin)" *g*
 
y33H@ schrieb:
Wieso der Vorwurf an NV? Die können da ja wohl schlecht was für. Und wenn man bencht, sollte man schon erkennen können, ob in Dirt 2 DX11 aktiv.

Das steht in der Ini, man sieht es an Fraps und im Grafikmenü :rolleyes:

Aber auf der Folie mit den Benchmarks stehts aber eben NICHT. So stehts jedenfalls in Charlies Artikel. Gebencht wurde in der (DX9) Demo und hinterher wurde das "vergessen" zu erwähnen.

y33H@ schrieb:
NV selbst macht das nicht, so viel sei gesagt. Die verarschen sich nicht selbst, hilft ja auch nicht.

Aber alle anderen vielleicht? Analysten, Aktionäre und vor allem die Gamer.

NVIDIA trau ich alles zu, die haben oft genug bewiesen, was alles "machbar" ist. Wobei ich zu dem Thema hier nix mehr weiter sagen werde (könnte ja auch aus Versehen passiert sein).

Denn wir werden in Kürze sehen, wo der Hase im Pfeffer liegt.

Neo_Xsendra schrieb:
Natürlich wird es einen B-Spin geben :freak:

Tja, dazu gibts momentan 3 Meinungen. Neliz von B3D sagt, es wird definitv einer kommen. Kyle von HardOCP sagt, es wird keinen geben. Und Charlie sagt, das es evtl. keinen geben wird.

Momentan tendier ich eher zu Kyles Meinung, weil er jede Menge Ahnung hat und auch kein Blatt vor den Mund nimmt, egal ob er was von NVIDIA zu "befürchten" hat.

Neo_Xsendra schrieb:
evtl wars ja mit hintergedanken "ich herbst werden wir keinen B1-Spin sehen (gedankliche ergänzung: Variante1: B1 haben wir längst Fertig, bis dahin bekommen wir den C-spin fertig / Varinate2: o viel mist wie da gelaufen ist, würde ich erwarten das es mindestens der B2 sein wird, den wir sehen werden, aber ich tippe eher noch auf den B3 Spin)" *g*

Variante 1: Kannste abhaken. Ein B-Spin dauert mal locker 6 Monate. damit der jetzt schon da ist, hätte man direkt mit A1 auch mit B1 anfangen müssen und wär vielleicht grad so fertig. Da man aber bis A3 durchgezogen hat, würde man wenn überhaupt jetzt erst mit B anfangen. Und ein C-Cpin? Wenn soviel im argen liegt, sollte mans lieber gleich sein lassen. CPUs sind ja ewig am Markt und demnach lohnt sich ne Bereinigung. Aber nicht bei den kurzen Entwicklungszeiten einer Graka. nochma 6 Monate drauf und wir können mit der Risk-production von 28nm starten.

Variante 2: dazu muss überhaupt erstmal ein B-Spin kommen. Ich glaube wie gesagt nicht dran, da sich IMO die grundlegenden Probleme ("vias") nicht mal mit einem B-Spin fixen lassen. Wissen tu ichs allerdings nicht. Die Probleme der (zu) variablen Transistorlänge sind eh in TSMCs Händen, da hilft auch kein neues Stepping.
Wenn das so ist, lohnt sich kein B-Spin, da er nicht viel verbessern würde.
 
Zuletzt bearbeitet:
Ein Crysis Warhead 1.1 Bench der PCGH ist geleaked!

http://www.xtremesystems.org/forums/showpost.php?p=4302969&postcount=1207

Trotz der Verwaschung sind die Details problemlos erkennbar.

1920x1200, 4xAA (ingame) no AF, das typische Testsystem der PCGH

In diesen Einstellungen ist die GTX 480 3% schneller als ne 5870 und die 470 3% schneller als ne 5850.

Wenn man jetzt die anderen Faktoren wie höhere Leistungsaufnahme und höheren Preis der Nvidia Karten mit einbezieht finde ich das Ergebnis sehr dürftig, ums mal sehr freundlich auszudrücken :freak:
 
Ich hab auch noch paar Benchies parat, allerdings von nem 512 Shader ES@600MHz.

Deckt sich ja ziemlich mit den Vorhersagen. Aua---

gtx480.jpg


"Core temp idle was 58C, core temp load around 86-90C, which was good.
It's laud, but not 5800Ultra.
In the tesselation tests, the GTX-ul won with +53% vs 5870, but this is as relevant as the 5-point parallelism issue where the The tesselation performance wasRAdeon wins with 350%+.

Idle power is at least 3 times that of the 5870 and the drained power at load was 283W. The official 480 will have less drained power because it will have a whole shader cluster disabled.
"


Ach sie an, paar interessante Board fotos gibts auch wieder


http://img525.imageshack.us/img525/543/20100324113523img0197co.jpg

http://img11.imageshack.us/img11/1809/20100324113626img0219co.jpg

http://img94.imageshack.us/img94/7825/20100324113531img0207co.jpg

http://img222.imageshack.us/img222/360/20100324113525img0199co.jpg

http://img203.imageshack.us/img203/8446/20100324113530img0204co.jpg
 
Zuletzt bearbeitet von einem Moderator: (Bilder verlinkt, da sie das Layout sprengen)
Status
Für weitere Antworten geschlossen.
Zurück
Oben