News GTX 480: Zur CeBIT gezeigt, verfügbar ab April?

Fetter Fettsack schrieb:
Das ginge meines Erachtens mit 512SP besser.

Warum bist du der meinung? Vielleicht wäre höherer Takt bei wenigeren Shadern besser. Ohne den Chip zu kennen, kann man das schwer sagen, aber imo hatte schon die GTX 280 zu wenig Takt und zu viel Shader. mit weniger Shader und dafür mehr Takt kann man auch was effizienteres machen.
 
Das ist auch ein wahres Wort.

Allerdings soll die Hitzeentwicklung recht hoch sein, was mich zur Annahme verleitet, dass da sehr wohl 512SP vor sich hin werkeln (und glühen^^) werden.

Warum ich der Meinung bin? Nun, ich weiß, dass man die Shader von nVidia nicht mit denen von ATi gleichsetzen kann, aber ich mache es nun der Veranschaulichung meines Gedankens halber.

Die 5830 hat 32 reale Shader weniger als die 5850 (laut den letzten Gerüchten oder Meldungen). Durch einen Hochtaktung wäre es angeblich aber möglich, dass die 5830 die 5850 @ Stock Einstellungen überholt. Also ein Argument für deine Ansicht.

Nun sind es aber bei nVidia 64SP Unterschied, die man durch höheren Takt wieder hereinholen müsste. Da man nun an mehreren Stellen lesen kann, dass die Chips nicht allzu gerne mit hohen Taktraten fahren und sogar Taktsenkungen vorgenommen worden sein sollen, hielt ich es für sinniger zu mutmaßen, dass man der Leitungskrone mit 512SP und niedrigerem Takt zu Leibe rücken wird.
 
Zuletzt bearbeitet:
Meint ihr, an dieser Tabelle ist was dran? Bis auf die Tatsache, dass die Karten noch nicht GTX4XX heißen ^^

geforce_gtx_380_360.gif
 
silent-efficiency schrieb:
.......aber imo hatte schon die GTX 280 zu wenig Takt und zu viel Shader. mit weniger Shader und dafür mehr Takt kann man auch was effizienteres machen.

So eine Aussage kann man einfach nicht bringen, weil Takt und Shaderanzahl alleine mehr oder weniger gar nichts über die Leistungsfähigkeit einer Grafikkarte aussagen. Nach deiner Aussage müsste die 9800 GTX+ beispielsweise ein wahres Monster sein: Weniger Shader als die GTX 280, aber deutlich höhere GPU- und Shadertaktraten.

@Masterchief69
Da ist nicht viel dran, weil nvidia beispielsweise schon bekannt gegeben hat, dass die GTX 480 64 TMUs haben wird.
 
Zuletzt bearbeitet:
@|MELVIN|
Was hat die 9800 GTX+ damit zu tun? Wir reden hier von der selben Architektur, und wenn ich sage, mehr takt, der die weniger schader ausgleicht, dann meine ich damit, dass die GFLOPs dann sich angleichen. Die 9800+ hat wie viele GFLOPs? wie viele hat die GTX 280? und ROPs und TMUS und speicherbandbreite ist auch nicht identisch.... und sowieso alles anders, was willst du mit der 9800+?
oh man, so was unprofessionelles hier :-D
 
Und was haben FLOPs jetzt genau mit der Spieleleistung zu tun? Richtig, nichts. Und meiner Meinung nach kann man 9800 GTX+ und GTX 280 schon derselben Architektur zuordnen, da die GTX 280 letztendlich nur mehr ROPs und Shader und ein fetteres SI hat. Mal ganz abgesehen davon, dass die Shadereinheiten bei nVidia ja schon deutlich höher takten als bei ATI. Von daher würden wenn überhaupt den ATIs weniger Shader mit mehr Takt gut tun.
 
Zuletzt bearbeitet:
@Masterchief79
Die Tabelle kannst du rauchen:D NV kriegt sehr viele 448CC-Teile gebacken, wieso also noch weitere SMs deaktivieren? Ausserdem hat GF100 "nur" 64 TexUnits. FMAs werden bei den GeForces auch beschnitten.

--> Die Tabelle hat zu viele Fehler, um von Bedeutung zu sein...
 
Ich bin nur auf deine meiner Meinung nach unsinnige Aussage eingegangen, dass die GTX 280 zu viele Shadereinheiten und zu wenig Takt gehabt hätte und dass da mit weniger Shadereinheiten und mehr Takt mehr Leistung drin gewesen wäre. Mehr nicht.
 
Ruhig Blut, Jungs :)
 
@silent-efficiency
Na du bist ja ein Held. Du bringst eine völlig unkonkrete, pauschale Aussage

silent-efficiency schrieb:
.......aber imo hatte schon die GTX 280 zu wenig Takt und zu viel Shader. mit weniger Shader und dafür mehr Takt kann man auch was effizienteres machen.

und regst dich dann auf, dass diese mit einem konkreten Beispiel widerlegt wird. Und dann kommst du damit, dass du das so nicht gesagt hättest. Das ist ganz großes Tennis.
 
OK mag sein. Finde ich aber trotzdem merkwürdig vor dem Hintergrund, dass nVidia verglichen mit ATI eher weniger Shadereinheiten hat und die dafür höher takten. Weiterhin müsste deiner Theorie nach ja beispielsweise eine GTX 260 192 deutlich höhere Shadertaktraten erreichen als eine GTX 280, was aber nicht der Fall ist. Ich glaube der Ansatz "weniger Shadereinheiten ermöglichen höhere Shadertaktraten" stimmt so nicht, auch wenns eigentlich logisch wäre.
 
dass nVidia verglichen mit ATI eher weniger Shadereinheiten hat und die dafür höher takten.

ATi multipliziert seine SP mit 5, da die 5 Operationen rechnen können (1600 Stream Prozessoren = 320 5D-Shader). Numerisch sind also meist die nVidia-Karten (zumindest die neuen) überlegen.
 
Zuletzt bearbeitet:
@silent-efficiency
Also wenn ich mir die OC-Threads so anschaue schaffen viele GTX 260 nicht mal 1500MHz Shadertakt, bei der GTX 280 sind hingegen manchmal sogar 1600MHz drin. Kann natürlich auch an der höheren Spannung der GTX 280 liegen (1,18V vs 1,12V). Aber ich glaube selbst bei gleicher Spannung würde die GTX 260 keine nennenswert höheren Shadertaktraten schaffen.
 
Na-ja, aber im Grund geht es auch nicht darum wie viel sie maximal schafft, sondern ob sie so weit hochgetaktet, dass siie genau so schnell wie die GTX 280 ist, sparsamer ist oder nicht. wobei der vergleich mit der GTX 260 hier hinkt, weil sie auch noch an anderen stellen beschnitten ist.

Man müsste bei der GTX 280 nur die schader deaktivieren und dann etwas höher takten und stromverbrauch messen.
 
|MELVIN| schrieb:
...Kann natürlich auch an der höheren Spannung der GTX 280 liegen (1,18V vs 1,12V). Aber ich glaube selbst bei gleicher Spannung würde die GTX 260 keine nennenswert höheren Shadertaktraten schaffen.

Kann ist gut... - meine läuft mit 1458 ( eine Stufe unter dem getestetem maximum ) dafür aber mit nur 1,06V - bei 1,18V waren über 1600 möglich ( alle Tests erfolgten unter Lukü ) ;)
 
Zurück
Oben