News ATi plant GPUs in 40 nm für das erste Quartal 2009

AeS schrieb:
Falls die Frage kommt, warum ATI schneller als AMD einen Die Shrink vollziehen kann.

Werden da nicht verschiedene Fertigungsverfahren genutzt? AMD nutzt doch die SOI-Technik, TSMC meines Wissens nicht. Gabs da nicht vor einer Weile eine Meldung über die geplante Fertigung des Fusion (komplett in SOI) in dem das erwähnt wurde? Meine da sowas gelesen zu haben.
 
Ich spekuliere auf 1000 Shader pro Chip. Allerdings wäre eine Doppel-Chip-Lösung denkbar, vielleicht sogar in demselben Package(siehe Intel). Monsterchips sind grün... :D
 
ist jetzt ja nicht so der Sprung von 45 auf 40... wenn dann noch die Einheiten überpropertional steigen, wird die Karte zwar schneller aber auch lauter...

ich hoff mal in Zukunft läuft es ähnlich wie bei den CPU's auf viele kleine abschaltbare Kerne im Idel Betrieb hinaus.
 
AeS schrieb:
In der theoretischen Anzahl der ALU's und der Masse an durchzuführenden Berechnungen ist die nVidia Karte der AMD Karte deutlich unterlegen, trotzdem ist sie auf dem selben oder einem höheren Leistungsniveau.
Du musst dir nur einige Tatsachen vor Augen führen, dann ist Nvidias Architektur plötzlich nicht mehr die übereffiziente bzw. AMDs extrem ineffizient:

  • AMD hat 800 ALUs in über 400 Millionen Transistoren weniger gequetscht
  • Nvidias sehr fein granularer Ansatz erforder eine um ein vielfaches (10x? 20x?) komplexere Steuerung als AMDs
  • Nvidias Shaderdomäne taktet gut zwei Mal so schnell wie der restliche Chip, womit eine GTX 280 effektiv über 500 ALUs verfügt
Allerdings hat die 280 mitnichten eine höhere mathematische Leistung, auch in der Praxis nicht. Der RV770 wird in vielen Spielen von der geringeren Texturleistung ausgebremst, glänzt dafür aber z.B. in GRID und Age of Conan.
Nvidias Ansatz ist also mitnichten wesentlich effizienter und benötigt handoptimierte Transistoren, um den hohen Takt zu erreichen.
 
AeS schrieb:
Komplexer bedeutet aber nicht effektiver, diese 160 Shader können 5 Berechnungen auf 1 Shader bringen, ein 1D - Shader folgerichtig nur 1.
Es geht gar nicht darum, welches Konzept effektiver ist sondern nur um die Wiederlegung der Behauptung, eine HD4870 hat 800 Shadereinheiten. Ein Shader von AMD/ATI kann zwar 5 Berechnungen gleichzeitig ausführen, dies ist aber meist nur theoretisch der Fall.
 
Ich spekuliere auf 1423 Shader pro Chipspackung!

So, damit hab ich auch orakelt und mein sinnloses Posting abgeben. Dafür bekomm ich bestimmt wieder einen Rüffel!
 
@Sgt.Speirs: Falsch. Jede dieser Einheiten verfügt intern über fünf ALUs (arithmetisch-logische Einheiten) und kann definitiv pro Takt 5 MADD-Operationen durchführen. Nicht wie bei Nvidia, wo jede Shadereinheit unter speziellen Bedingungen ein 2. ADD berechnen kann, diese Zahl ist fix!
Ob jetzt eine Einheit für Perspektivenkorrektur gebraucht wird oder ein solcher 5D-Shader nicht voll ausgelastet wird ist schnurz, denn wenn, wie du sagst, die Effektivität keine Rolle spielt, wieso dann die Auslastung? Die Begriffe beschreiben in diesem Fall so gut wie das gleiche.
 
Zuletzt bearbeitet:
Am meisten interessiert mich, wie viel Know-How ATI vom RV770 in die neue DX11-GPU reinstecken kann a la kompakte Die-Größe
 
riDDi schrieb:
Du musst dir nur einige Tatsachen vor Augen führen, dann ist Nvidias Architektur plötzlich nicht mehr die übereffiziente bzw. AMDs extrem ineffizient:

Weder das eine, noch das andere habe ich behauptet. ;-)
Jedoch selbst bei deinen theoretischen 500 ALU's von nVidia wäre das weniger als die theoretischen 800 ALU's von AMD.
Ich sagte nur das der Kampf um Shaderalu's wie der Kampf um Ghz Zahlen und Prozessorkerne enden wird, in einer Sackgasse.


Sgt.Speirs schrieb:
Es geht gar nicht darum, welches Konzept effektiver ist sondern nur um die Wiederlegung der Behauptung, eine HD4870 hat 800 Shadereinheiten. Ein Shader von AMD/ATI kann zwar 5 Berechnungen gleichzeitig ausführen, dies ist aber meist nur theoretisch der Fall.

Irgendwie beziehen sich doch sehr viele Spezifikationen auf theoretischer Basis, im idealfall ereichbar usw.
Aber ja, wenn wir die reele Anzahl betrachten, dann sind es nur 160, jedoch halt 5D-Shader und keine 1D.


TheDuffman schrieb:
Werden da nicht verschiedene Fertigungsverfahren genutzt? AMD nutzt doch die SOI-Technik, TSMC meines Wissens nicht. Gabs da nicht vor einer Weile eine Meldung über die geplante Fertigung des Fusion (komplett in SOI) in dem das erwähnt wurde? Meine da sowas gelesen zu haben.

Ja die SOI Technik ist eine von AMD genutzte Technik zur Herstellung ihrer Prozessoren.
TSMC nutzt die Immersionslithografie, arbeitet mit Gestrecktem Silicium und der Low-k-Dielektrikum-Halbleitertechnologie.
Genaueres weiß ich da aber nicht, nur das es unterschiedliche Verfahren sind, das kommt zu meinen Punkten noch dazu.
 
Zuletzt bearbeitet:
AeS schrieb:
Ich denke das AMD (ATI dead?) bei den Shader Prozessoren auf einem Holzweg ist, nVidia hat mit deutlich weniger Shadereinheiten ein besseres oder ähnliches Resultat.

Ulkig, ich sehe das eigentlich genau andersrum. :D
AMD schafft mit 160 SPs genausoviel wie nVidia mit 192. Leider hinkt der Vergleich auch hier wieder, da ja unterschiedliche Taktraten benutzt werden und das sonstige Chipdesign völlig vernachlässigt wird. Insgesamt halte ich AMDs Ansatz für transistorsparender, aber stromfressender als nVidias.
Das auch AMDs Ansatz von Vorteil sein kann, zeigt sich wenn sie sogar eine GTX 280 überholen, die mit 240 SPs sogar 50% mehr SPs hat als AMD. Es ist halt hauptsächlich eine Frage dessen, was die Spiele verlangen.
 
@AeS: Was sollen sie sonst auch tun? Anders als bei CPUs, die mit vielfältigen, komplexen Aufträgen klarkommen müssen gehts bei Grakas nur ums crunchen vieler milliarden Pixel.
Prefetching, Caching, Branch Prediction, alles Ansatzpunkte, wo CPUs beschleunigt werden können, GPUs aber nur bedingt. Einzig ein Paradigmenwechsel oder eine große Erleuchtung (woher soll die kommen?) kann hier helfen.
Ansonsten bleibts eben dabei: Leistung rauf, Stromverbrauch auch.
 
Forum-Fraggle schrieb:
Mal kurz ne Technikfrage an die Freaks:
Warum GPU 40 und CPU 45 nm?
Ich dachte die Sprünge seien atomar bedingt durch Siliziumschichten. Also durch Atom dicke definiert und daher gäbe es nur bestimmte Dicken.

ein siliziumatom ist 0,1nm gross, man kann davon ausgehen das man schritte in der grössse 5nm machen kann.

Greetz
 
Desoxyribo schrieb:
Komplettzitat entfernt. Bitte Regeln beachten.


glaube eher, dass das andere Hüntergründe hat, weil ja auch 32 und 22nm geplant sind, da kommt man in 5er schritten schlecht hin^^ ich denke eher das die entwicklung mit den kosten verbunden wird, d.h. wenn man ohne viel aufwand kleiner produzieren kann, dann wird das auch gemacht sonst nicht oder man wartet bis es noch größere sprünge gibt. Üblicherweise sind bei neuen generationen CPU/GPU meist ca. 30% Ersparnisse in der Breite zu erwarten.

gruß setnumbertwo
 
Zuletzt bearbeitet von einem Moderator:
Das klingt ja alles ziemlich gut, aber leider ist es noch eine menge Zeit bis Frühling 2009.

Am Rythmus bei AMD verändert das somit nichts, nur wird der Termin ein wenig nach hinten verlegt.

Im Vorherigen Jahr im April erblickte die Radeon HD 2000 Serie das Licht der Welt und gut ein halbes Jahr später kommt die Radeon HD 3000 Serie an den Start. Im Juni diesen Jahres kam aber schon die Radeon HD 4000 auf den Markt. Praktisch acht Monate nach dem Launch der HD 3800. Wenn nun also in sechs Monaten die neue HD 5000 Serie kommt, haben wir schon lange Februar oder März. Na wird sicher wieder nen Launch zur CeBIT!

Was ich damit sagen will schneller oder langsamer wirds im Grafikkartengeschäft nicht bewegen. Ob sechs oder acht Monate es bleibt ein Rythmus, den man einhalten muss.
 
cosmicparty schrieb:
der rv870 soll ja eine neue architektur haben und nicht mehr auf dem r600 basieren.

also so grob gesagt, kann man beim shrink von 55 auf 40 fast doppelt soviele chips pro wafer bei gleicher größe erzielen.

bzw kann man den chip, wenn man ihn "gleichgroß" lassen möchte mit doppelt sovielen transistoren ausstatten.
also so abwegig ist die news nicht.

hmm wo hast du das her, mein stand war das es der letzte chip auf basis von dem r600 werden wird.

Was ich auch begrüßen würde, den bis dahin sind wohl die offenen treiber unter linux endlich komplett fertig (powerplay, xv, exa, aiglx)

Wenn ich dann wieder ein jahr warten muss bis die treiber für die neuen karten raus kommen wirds für mich uninteressant, dann würd ich mir vielleicht noch für 100,- ne hd4870 holen oder bräuchte dann nen windows-only pc auf dem ich nur zocke (für was anderes ist windows ja nicht zu gebrauchen)
 
r870 wird auch auf dem r600 basieren, aber es wird ne ziemlich starke evolution geben.Es wird ja gemunkelt entweder an die 2000shader oder 1000 mit shaderdomain wie bei nv,mal gucken was am ende rauskommt.
die neue architektur kommt wohl eher mit dx11 ende 2009/anfang 2010
und ati wird ihren vorteil gegenüber nv inner fertigung auch net wirklich ausbauen, nv wird sicher zur gleichen zeit oder spätestens 1,2monate später mit irgendwas in 45 oder 40m antworten
 
Zuletzt bearbeitet:
@AffenJack
nVidia hat relativ lange im Vergleich zu ATI von 65nm auf 55nm gebraucht, bzw. umstellen lassen.
Ich würde nicht sagen das es nach 1 - 2 Monaten demzufolge auch bei nVidia angekommen ist.
Wodurch die Verzögerung kommt weiß ich jedoch nicht, ich denke das hängt auch etwas mit dem Geld zusammen welches TSMC bekommt.
 
nvidia wollte den g200 wohl allgemein früher rausbringen und ist ja in der regel etwas konservativer mit den Prozessen deshalb gabs da erst 65nm. Aber bei 45/40nm könnense nix anderes mehr machen als den sprung sofort mitzumachen um ne chance gegen amd zu haben. Es wird bis auf den g200b kein high-end mehr in 55nm geben von nv,man sieht ja jetzt schon deutlich dass 65/55nm an der grenze ist
 
nicht schon wieder! :rolleyes:

Es gibt so gut wie keine unterschide von 65nm zu 55nm, es ist so ziemlich das selbe und man hat KEINE Vorteile ausser das die DIE natürlich etwas kleiner ist!

Es gibt KEINEN Fertigungs-Vorsprung seitens AMD/ATI, NV wollte die 55nm einfach ausslassen, MÜSSEN jetzt aber wegen den Herstellungskosten auf 55nm umsteigen!

NV ziehl ist ganz klar 40nm ab 2009 bei den kleinen G200 GPUs mit GDDR5 und 256Bit SI!
 
Zurück
Oben