News ATi plant GPUs in 40 nm für das erste Quartal 2009

Simon

Banned
Registriert
Jan. 2002
Beiträge
10.692
Mit dem Start der Radeon-HD-4000-Serie feiert ATi in diesen Tagen nach einer kleinen Durststrecke wieder klare Erfolge. Die Kollegen von NordicHardware haben nun neue Informationen veröffentlicht, wohin die Reise in den nächsten Monaten führen soll.

Zur News: ATi plant GPUs in 40 nm für das erste Quartal 2009
 
Jetzt läufts aber bei ATI ;-) Finde ich super!

Aber warum kann AMD seine CPU's denn dann nicht auch einfach auf 40nm umstellen? Die Fertigung scheint ja technisch möglich zu sein.
 
Der Sprung von 800 auf 2000 wäre genauso groß wie der von 320 auf 800 (mal 2,5), bin mal gespannt, ob es wirklich stimmt.


@ Radde
So einfach ist das nicht, zum einen sind 40 nm ja noch nicht möglich, beziehungsweise taugen noch nichts für die Massenfertigung, zum anderen sind es komplett andere Architekturen.
 
Boah...ich freu mich schon wahnsinnig drauf! Hoffe die nächste Gen wird so ein Krocha wie die jetzige....
 
der rv870 soll ja eine neue architektur haben und nicht mehr auf dem r600 basieren.

also so grob gesagt, kann man beim shrink von 55 auf 40 fast doppelt soviele chips pro wafer bei gleicher größe erzielen.

bzw kann man den chip, wenn man ihn "gleichgroß" lassen möchte mit doppelt sovielen transistoren ausstatten.
also so abwegig ist die news nicht.
 
Sehr schön, ich denke, ich werde die 4000-Reihe auslassen und erst im Frühjahr meine GPU wechseln :D

Ich bin jetzt schon auf das Verhältnis Leistung/Leistungsaufnahme/Temperatur gespannt!
 
@ zittrig; Sind dir mit deiner 3870 X2 Karte schonmal Mikroruckler aufgefallen?

Die Karte, die im Frühjahr vorgestellt werden (R730) klingen für mich nach Low-End Segment, vielleicht auch für den Notebookbereich.
Bis die nächste High-End GPU geben wird, vergeht bestimm noch ein Jahr.
 
brosi schrieb:
@ zittrig; Sind dir mit deiner 3870 X2 Karte schonmal Mikroruckler aufgefallen?

Die Karte, die im Frühjahr vorgestellt werden (R730) klingen für mich nach Low-End Segment, vielleicht auch für den Notebookbereich.
Bis die nächste High-End GPU geben wird, vergeht bestimm noch ein Jahr.

Bisher sind mir keine Mikroruckler aufgefallen. Läuft alles einwandfrei bisher. Oder ich bin bei 1920x1200 @ max. Details @ max. AA +AF bei z.B. Oblivion oder Stalker einfach nicht anspruchsvoll genug um sowas zu merken ;)

Naja, ich habe zwar aus der 3000er-Reihe die Highend-Karte, wenn ich mir jedoch die Leistung der 4850 angucken im Vergleich zur 3870 X2 bin ich mir nicht sicher, ob es das nächste mal wieder das Highend-Produkt sein muss.
 
Da zeigt sich wieder einmal, daß alleine schon aufgrund der schnell routierenden Veröffentlichungsspirale ein Abwechseln des SPitzenreiter vorprogrammiert ist. Die Phasen der Entwicklung überlappen wunderbar, so daß mal der ein, mal der andere oben steht. Wunderbar :)

@Brosi:
Genauso sehr wie bei NV im SLI Verbund. Dieses Rumreiten auf Microrucklern ist echt nervend. Es betrifft beide Anbieter (zugegeben wegen X2 Karten natürlich Ati etwas mehr) weiterhin und ist nur in seltenen Fällen zu beobachten, bei extrem hohen Grafikeinstellungen. Also i.d.R belanglos.
 
Laut einigen Meldungen im Netz gehören die Mikroruckler bei den neuen ATI X2 Karten der Vergangenheit an. Auf Planet3DNow! gab es gestern eine Newsmeldung, dass der finnische Overclocker Sampsa mit seinem 4870 X2 Preview-Sample keine Mikroruckler mehr feststellen konnte.

MfG
 
Ich denke das AMD (ATI dead?) bei den Shader Prozessoren auf einem Holzweg ist, nVidia hat mit deutlich weniger Shadereinheiten ein besseres oder ähnliches Resultat.
Das ist irgendwo derselbe Flaschenhals wie der Kampf um die Ghz und die Prozessorkerne.
Zwar wird der Rv870 komplett neu entworfen sein, ausruhen auf hohen Shaderzahlen sollte sich AMD aber nicht.

Mann muss zu der Fertigung in 40nm muss man sagen, das ATI ausschließlich von anderen Firmen wie TSMC ihre GPU's fertigen lässt, dadurch entfallen natürlich kosten für die Entwicklung, die Fabriken und die Geräte.
Falls die Frage kommt, warum ATI schneller als AMD einen Die Shrink vollziehen kann.
 
wenn das so ist, dann hat ati es geschaft was nvidia seit ewigkeiten versucht (mikroruckler), durch den treiber das problem zu lösen
 
@news:

Die Daten sind genauso mehr oder weniger "realistisch" wie die Angaben zum GT300 von nVidia. Entweder kann man beide für voll nehmen oder tut sie beide als Gerücht ab.

Flo89 schrieb:
@ Radde
So einfach ist das nicht, zum einen sind 40 nm ja noch nicht möglich,

Es ist bereits möglich bzw. werden Muster von diversen Anwendern (Chipschmieden) dieses Jahr schon erwartet. Das Problem ist nur, das TSMC den Start der 40nm-Massenproduktion verschoben hat, so dass die 40nm-Chips erst im Frühjahr 2009 erscheinen werden. Das betrifft nicht nur Ati sondern möglw. auch nVidia, deren 40nm-Chips dann auch erscheinen werden (wobei das dann im Moment noch Spekulation ist).
 
Zuletzt bearbeitet:
ati ist ja gerade vollauf der überholspur wenn das alles stimmt und sie benutzten schon wieder neuere technologien als nv

einfach nur feetttt
 
Aber warum kann AMD seine CPU's denn dann nicht auch einfach auf 40nm umstellen? Die Fertigung scheint ja technisch möglich zu sein.

AMD entwirft nur die GPUs, hergestellt werden sie von externen Firmen (die gleichen Auftragsfertiger, die auch die NV-Chips zusammenbasteln). Bei den CPUs klammert sich AMD (wohl zu Intels Glück) daran, dass man sie selbst herstellen will.
 
@tokad

ist ja auch irgednwie logisch da die Karte bei keinem spiel unter 30fps fällt bzw keine singlecore lösung annähernd auf die leistung kommt und somit ein vergleich ausfällt! Wenn die microruckler weiterhin bestehen bleiben, werden wir einen Anstieg der subjektiven Meinung von 25 auf 35 fps erwarten und das ist ein klarer Rückschritt, wo doch die Leistung da ist!

PS: an alle die, die meinen es gäbe keine Microruckler und dass das nur schlechtreden wäre, dann macht dochmal einen Vergleich zwischen einer HD3870X2 und HD4850 in Call od Duty 4@2560x1600 4xAA/16xAF
oder
zwischen einer 9800 GX2 und GTX 260 in Bioshock@2560x1600 4xAA/16xAF und sagt mal wellches system das ruhigere Bild hat!
Mich würde es aufjedenfall aufregen wenn ich in einem Jahr bei den gleichen Einstellung in jedem Spiel irgendwie mit der singlecorekarte immernoch zufrieden wäre aber die multigpu-lösung schon nach einer neuen verlangt?!
Aber es ist veständlich das Leute die etwas teuer kaufen die schönheitsfehler gerne verschweigen wollen...
Also ich glaube nicht das soviele Fachleute sich irren, und ATI/Nvidia dieses vermeintliche ruckeln dementieren und das gegnwärige beweisen, aber wartet mal, haben sie es nicht schon zugegeben?!
hmm verückte Welt sage ich nur^^

gruß

setnumbertwo
 
zittrig schrieb:
Sehr schön, ich denke, ich werde die 4000-Reihe auslassen und erst im Frühjahr meine GPU wechseln :D
Du hast noch nicht das Prinzip verstanden. Man kauft sich eine neue Grafikkarte, wenn man die Leistung braucht^^

AeS schrieb:
Ich denke das AMD (ATI dead?) bei den Shader Prozessoren auf einem Holzweg ist, nVidia hat mit deutlich weniger Shadereinheiten ein besseres oder ähnliches Resultat.
Nvidia hat bei der GTX280 240 1D-Shader, AMD/ATI bei der HD4870 160 5D-Shader, d.h AMD/ATI hat weniger dafür aber komplexere.
 
Mal kurz ne Technikfrage an die Freaks:
Warum GPU 40 und CPU 45 nm?
Ich dachte die Sprünge seien atomar bedingt durch Siliziumschichten. Also durch Atom dicke definiert und daher gäbe es nur bestimmte Dicken.
 
Sgt.Speirs schrieb:
Nvidia hat bei der GTX280 240 1D-Shader, AMD/ATI bei der HD4870 160 5D-Shader, d.h AMD/ATI hat weniger dafür aber komplexere.

Komplexer bedeutet aber nicht effektiver, diese 160 Shader können 5 Berechnungen auf 1 Shader bringen, ein 1D - Shader folgerichtig nur 1.
Somit ist die HD4870 mit 800 Berechnungen der GTX280 mit 240 Berechnungen und einer höheren Taktung unterlegen.
In der theoretischen Anzahl der ALU's und der Masse an durchzuführenden Berechnungen ist die nVidia Karte der AMD Karte deutlich unterlegen, trotzdem ist sie auf dem selben oder einem höheren Leistungsniveau.
 
Zurück
Oben