ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Vielleicht wird mit der 5 auf ein neues Chipdesign hingewiesen (SI?).

Woher habt ihr überhaupt diese Infos mit den verschiedenen HD5800-Modellen.

BestPower²TDP schrieb:
Nach ein paar Tels weiter

Tels?
 
BestPower²TDP schrieb:
Es soll sich um 1024MB GDDR3 handeln und dafür der Takt um 50MHz auf 775MHz steigen.
Den fehlenden GDDR5 kann man mit dem kleinen Taktupdate niemals kompensieren.
Vielleicht gibts dazu allerdings schon den neuen Uncore Bereich.
Ohne GDDR5 und mit etwas mehr Taktmüsste die BAndbreite ja stark sinken, zumal GDDR3 kaum billiger ist als GDDR5.
Ich denk das is ne Ente.^^

//Edit:
Lübke schrieb:
jetzt tun sies doch: es kommt eine nvidia-dual-gpu-karte

Also ne Machbarkeitsstudie kostet Geld und viel Entwicklungsarbeit.
Ich denke kaum, dass man das machen würde wenns nicht wirklich ne GTX470 Dual oder GTX495 werden würde. (Ich meine wer ist schon so Nerdig und baut ne GTX470 dual zum Spaß, son Käse wird nur gebaut wenns auch nachher wirklich verkauft wird^^)
Nur leider wird man mit der Karte nicht viel rausreißen, bei dem Verbrauch.
Die GTX470 ist gut 5% langsamer als die HD5870 und die HD5850 ist etwa 10% langsamer als die GTX470.
Ne HD5970 gibts schon und HD5970 4GB wirds mit der Zeit wohl auch bald geben.
Imho kann sone Dualkarte die Performancekrone nur sehr sehr knapp erreichen, wobei ich denke, dass die Taktraten de GTX470 noch deutlich gesenkt werden müssen (und auch die Spannung) damit man unter einer TDP von 375 Watt bleibt.
Das wird nix.
 
Zuletzt bearbeitet:
Zwei GTX470 haben eine rechnerische TDP von 430 Watt, geht man nach den Tests im Web, können sie auch in Richtung 500 Watt kommen. Das wäre mal sowas von ausserhalb aller Specs, ich halte das für unmöglich. Die Dinger werden so weit runterkastriert werden müssen, daß sie sich allenfalls zwischen GTX480 und HD5970 ansiedeln können.

Und wie soll das dann gekühlt werden? Triple Slot? H2O?? KoKü??? ;)
 
Das wäre ja denn eine Blamage.
Ich denke schon, dass Nvidia das durchziehn wird, halt dann mit 375Watt TDP und 5% flotter als die HD5970 und mit 2x 1,5gb oder 2x 1,3
 
Nur mal so, Sapphire hat auch Monatelang erzählt sie würden eine HD4890 X2 bauen... irgndwann haben sie dann begriffen das dies ärger wegen der enormen Stromaufnahme geben kann.

Es gab nie eine HD4890 X2, stattdessen kam die Crossireedition mit 2GB Ram

Selbst 2 GTX465 würden schon 400 Watt ziehen...

Wird wohl eher ne GTX440 DUal oder sowas :lol:
 
Zwei GTX460 (GF104) wären m.E. denkbar - wobei sich mir dann der Sinn nicht erschließen würde, denn eine solche Kombi läge vermutlich nichtmal deutlich über einer HD5870 im Schnitt bei Stromaufnahme, Hitzeentwicklung und Lautstärke mindestens auf GTX480-Niveau.
 
Die GTX460 dürfte dann nichtmal 150 Watt ziehen... muss ja noch ei Brückenchip aus boards... wird verdammt knapp würd ich sagen.
 
zwei gf104 wären bei vermutlich gleichem verbrauch (2 x 150 watt) schneller als die gtx480. sie hätten zwar nur 32 shadereinheiten mehr, aber mit 128 zu 60 tmus mehr als die doppelte texturleistung. in extremen einstellungen würde diese fiktive gtx495 die gtx480 dann klar abhängen...

ist also schon denkbar, dass es was bringen könnte... zu dem wäre die karte wohl billiger herzustellen, da die yields für den gf104 vermutlich ungleich besser sind, als für den gf100.
 
Ob eine solche Karte BILLIGER herzustellen wäre, lass ich mal dahingestellt. Mögen die Yields deutlich besser sein, müssen noch immer ZWEI Chips auf das PCB nebst Brückenchip und doppelter Speicherbestückung. Vermutlich ist "gleich teuer" treffender, oder?
 
da der gf104 nur ca halb so groß ist wie der gf100, wäre er bei gleicher yieldrate wohl etwa halb so teuer herzustellen (wafer gleich teuer aber doppelt so viele chips). das bedeutet, jedes % bessere yieldrate ist automatisch eine kostenersparnis.
und die speicherbestückung ist auch nicht doppelt so hoch: die gtx480 hat 1,5 gb bzw 3 gb vram, die fiktive gtx495 hat 2 gb bzw 4 gb vram, also nur 25% mehr. und speicher ist ja nicht grad der kostenpunkt...
 
von 3 auf 4 gb sind es aber 133 %. also 33 % mehr, und nicht 25 %.
 
Lübke schrieb:
zwei gf104 wären bei vermutlich gleichem verbrauch (2 x 150 watt) schneller als die gtx480.

Wer sagt, dass der GF104 nur 150W zieht? Auf dem Foto was ich vor ein paar Seiten gepoetet hab, wasren zwei x 6Pin drauf. Macht auch Sinn, da er ja ähnlich bestückt sein soll wie die 465.
 
Lübke schrieb:
jetzt tun sies doch: es kommt eine nvidia-dual-gpu-karte :freak:
Deutlich früher als die Dual GTX 285, die es erst lange nach GTX 285 gezeigt wurde, Dual GTX 280 gabs erst gar nicht.

Sieht auch nach GF100-030-A3 aus, kennt man von der GTX 465. Also wohl nicht besonders heftig wärmend oder "schnell".
Nichts mit GF104, der mal für eine offizielle GTX 495 in Spekulation war.

Man darf nicht vergessen, das ist ein Galaxy Produkt, kein nVidia Produkt. Galaxy wird dieses Teil nicht aus Spass mal eben entwickelt haben, die Chance stehen gut das es auf den Markt kommt und weitere Hersteller folgen, z.B. Asus mit dem zweiten Versuch einer Mars.
 
Solange eine Karte dadurch leiser wird und sie schon von Haus aus eher sparsam mit Strom umgeht, warum nicht.^^ Trifft auf diese nVidia-Optionen aber eher weniger zu, da hast du recht.
 
weitere Gerüchte zur 460:
3dcenter.org news vom 04.06.

Noch einmal zur Klarstellung in Bezug auf die aktuelle Berichterstattung zur GeForce GTX 460: Die seitens Bit-Tech hierbei notierten 240 Shader-Einheiten sind eine reine Annahme seitens Bit-Tech und keinesfalls ein Fakt, wie derzeit vielerorts fälschlicherweise notiert wird. Bit-Tech haben diese Annahme zudem auf Basis des bisherigen Verhältnisses von Shader-Einheiten zum Speicherinterface innerhalb nVidias bisherigen DirectX-11-Grafikkarten getätigt – was überaus riskant ist, weil dieses bei GeForce GTX 465, 470 und 480 gleiche Verhältnis nicht zwingend auf Grafikkarten mit anderer Chipbasis übertragbar ist, zudem gibt es auch keine technische Notwendigkeit für ein einheitliches Verhältnis zwischen diesen Größen.

Viel interessanter zur Einschätzung des der GeForce GTX 460 zugrundeliegenden GF104-Chips ist unserer Meinung nach die Aussage von scheinbar einem nVidia-Mitarbeiter oder dem Mitarbeiter eines Grafikkarten-Herstellers, wobei man unter Übertaktung der GeForce GTX 460 (oder aber des GF104-Chips im Vollausbau, dies ist nicht ganz klar) die Performance einer GeForce GTX 480 anpeilen könne. Sollte diese Aussage auch nur halbwegs stimmen, ist mit 240 Shader-Einheiten an einem 192 Bit DDR Speicherinterface schlicht niemals die Performance einer GeForce GTX 480 zu erreichen – nicht mit gerade einmal der exakten Hälfte der Hardware einer GeForce GTX 480, was selbst mit höheren default-Taktraten samt weiterer Übertaktung nicht mehr auszugleichen wäre. Aus diesen Überlegungen heraus ist bei der GeForce GTX 460 ganz klar mit (deutlich) mehr Shader-Einheiten als mit nur 240 Stück zu rechnen – und wie gesagt, dieser Teil der Meldung ist laut eigenem Bekunden von Bit-Tech eben nur eine Annahme.
 
Ja es werden 256 sein. Denn wenn nicht dann stimmen gar keine Informationen zu dem Chip.

GF104 war bisher immer als die Hälfte eines voll ausgebauten GF100 bezeichnet worden. Der hätte ursprünglich 512 Shader haben sollen. Daher wundere ich mich wie manche die selbe Performance da rein dichten können. Würde das stimmen, müssten sie sofort mit der Produktion des GF100 aufhören, da der GF104 nur halb so gross ist.
 
kann ja sein, dass nv den neuen besser und billiger produzieren kann und sie den 470/480 auslaufen lassen, bzw sich ein Refresh 475 bzw 485 wiederum deutlicher abhebt.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben