News AMD: „Southern Island“ kommt noch dieses Jahr

Nun.. der 28nm dauert noch einige Zeit.
Nvidia wird spätestens bis zum Winter auch irgen n Update machen.
So müsste Southern Islands schon gut 20% schneller werden um die Oberhand zu behalten.
 
Wie stellt ihr euch denn alle den nV Refresh vor?! Die können definitiv nicht shrinken und die ewige verzögerung von Fermi deutet schon darauf hin, dass sie noch lange an der Effizienz gefeilt haben. Das einzige was ich mich vorstellen könnte wäre eine Steigerung wie 4870->4890 die halt Erfahrungen und Verbesserungen der 55nm Fertigung nutze. Und GF104 wird nunmal de facto kein Ersatz für die GTX480 sondern endlich mal ein legitimer Nachfolger der GTS250.
Ich sehe da die verzeifelte Hoffung aler nV Semifanboys oder ewiger Optimisten. GF100 ist ne klasse Architektur - für die 28nm Fertigung :freak:
Zweifelsohne ist Fermi eine super Grundlage für die nächsten Jahre und gerade im Bereich DX11 ist der Chip da mal extrem effizient und stark. Aber eine 100 Watt höhere Leistungsaufnahme für 14-20% Mehrleistung zum Cypress ist einfach ein Witz!

E:
Achso ich nehme mal an, es ist mit southern islands nicht die "Südsee" gemeint - also hauptsächlich die Pazifikinseln oder im die im indischen Ozean. Mit südlich wird da wohl einfach nettes Klima verbunden - man sollte nicht vergessen, wo ATi sitzt. Für die hat sogar Sylt im Sommer ein gefälliges Klima :lol:
 
Um mal dem Spekulatius betreffend der SI Codenamen ein Ende zu bereiten.

"Short story, some of the names for the Southern Islands family of next-gen ATI GPUs are all based around Vancouver. The names that have come our way are Whistler-Blackcomb, Robson and Seymour."

Link
 
[F]L4SH schrieb:
Zweifelsohne ist Fermi eine super Grundlage für die nächsten Jahre und gerade im Bereich DX11 ist der Chip da mal extrem effizient und stark. Aber eine 100 Watt höhere Leistungsaufnahme für 14-20% Mehrleistung zum Cypress ist einfach ein Witz!

Ich glaube, dass du das Wort "effizient" nicht verstehst. Widersprichst dir gerade selber...
 
Effizienz ist nicht nur immer im Zusammenhang mit FPS/Watt zu sehen. Bei der Auslastung der (Shader-)Einheiten ist die NV-Architektur immer noch effizienter als die AMD-Lösung, und ich glaube, darauf wollte der Poster hinaus.
 
Was genau meinst du mit effizienter Auslastung der Shader Einheiten?
Ich meine wie genau bewertest du die Effizienz bei der Shader Auslastung?
 
Zuletzt bearbeitet:
Schonmal aufgefallen das ATI auch die wesentlich kompliziertere Technik einsetzt? Das sind 5D Shader wohingegen Nvidia nur 1D Shader nimmt.

Die 5d Einheiten sind wie Tesslation bei der HD2900 ihrer Zeit vorraus, es ist halt schwieriger diese zu nutzen. das wird dann erstmal mit masse ausgeglichen.

Wäre gut Möglich das mit der neuen architektur da einiges anders wird...
 
Wenn die Shader damit besser ausgelastet werden können, wäre das schon ne feine Sache.
Was ich mich frage ist, wie es dann mit dem Stromverbrauch aussieht, der müsste doch steigen oder?
 
@Wattebaellchen
Vektor-ALUs sind nichts Neues und schon gar nicht der Zeit voraus. AFAIR nutzten bereits GPUs aus der CineFX-Zeit solche superskalaren Einheiten (http://www.extremetech.com/article2/0,1697,1567089,00.asp), bei ATi hatte die X800-er Serie bereits "5D-Shader", wie du sie nennst (https://pics.computerbase.de/1/3/5/9/1/43-1080.1440401053.jpg). Defacto stellen eben gerade NVIDIAs Skalareinheiten die Neuerung dar, eine Wahl, die wahrscheinlich im Zusammenhang mit GPGPU getroffen wurde. Aber auch ich würde die Rückkehr zur VLIW-Implementierung begrüssen. Zumindest im leakigen 40G-Node scheinen hochgetaktete Skalareinheiten keinen Vorteil zu bringen.
 
Zuletzt bearbeitet:
AwesomeSauce schrieb:
NV verwendet eine aufwendigere Logik zur Ansteuerung der Shader-Einheiten, sodass diese sehr gut ausgelastet werden können. AMD spart beim Scheduling Transistoren, macht dies mit der immensen Anzahl der Einheiten aber wieder wett.

Son Quark. 100% inkorrekt!

Bei NVIDIA heißts ne "Einbahnstraße" auslasten, bei AMD ne 5-spurige "Autobahn". (Wobei das Geschwindigkeitslimit bei der "Einbahnstraße" deutlich höher liegt, wegen dem doppelten Shadertakt)

Für die AMD-Variante braucht man das so genannte ILP=Instruction Level Parallelism.


NVIDIA setzt hingegen "nur" auf TLP = Thread Level Parallelism

AMD macht beides. Wenns die Software hergibt, ist AMD wesentlich effizienter.

Wenns die Software nicht hergibt, kehrt sich das eher ins Gegenteil.

Deswegen hat damals die 4850 schon fast GTX280 Niveau erreicht, wohingegen manchmal die 4870 mit der GTX 260 zu kämpfen hatte.

Ist heute im Prinzip genauso. Wenn man so will, erreicht man mit NVIDIA ein konstanteres Level an Performance.

Kann man alles schön hier nachlesen, mit bunten Bildchen.




ilp.png
 
ILP ist Sache des Compilers, nicht des Schedulers:rolleyes:! Genauer: der Compiler sorgt dafür, dass ILP möglichst effektiv stattfinden kann.
 
Zuletzt bearbeitet:
Ich denke da hätte auch AwesomeSauce zu beginn seiner Aussage etwas differenzieren müssen.
Und was ist jetzt hier bitte die Ineffiziente Nutzung?
Der Sheduler wird aufgrund des Compilers, sprich ILP kaum anders arbeiten können.
Wir werden ja sehen, was bei der Architektur dann genau rauskommt.
 
Es ist ja nicht wirklich ineffizient;) NVIDIA kann die Einheiten nur besser auslasten, während bei AMD die Einheiten öfters mal Kaffe trinken. Ist ja auch überhaupt nichts verwerfliches, es sind beides andere Ansätze, keine ist besser als die andere, nur anders;) Laut Coda (3DC Coder) liegt die durchschnittliche Auslastung einer 5D-VLIW-ALU bei AMD bei ca 3/5 bis 4/5. Ich such noch den Post...
 
Zuletzt bearbeitet:
Hmmm, is klar.

"The limitations of extracting ILP are on the program itself (the mix of independent and dependent instructions), the hardware resources (how much can you do at once from the same instruction stream), the compiler (how well does the compiler organize basic blocks into something the hardware can best extract ILP from) and the scheduler (the hardware that takes independent instructions and schedules them to run simultaneously). "

:rolleyes::evillol:

AwesomeSauce schrieb:
Defacto stellen eben gerade NVIDIAs Skalareinheiten die Neuerung dar, eine Wahl, die wahrscheinlich im Zusammenhang mit GPGPU getroffen wurde.

pfffft. Wird wohl kaum der Fall sein, wenn ATI erstmals mit der X1900 eine "3-fache" ALU eingeführt hat.

"Der R580 verfügt über drei gleichwertige Shader-Einheiten pro Pipeline anstatt nur einer wie beim R520, weswegen eine X1900-Grafikkarten auf insgesamt 48 „Arithmetic Logical Units“, kurz ALU, zurückgreifen kann. "

Die 2000er Serie bekam dann letztendlich das 5D-Design.

Was vorher war kannste eh nicht vergleichen, da das alles noch keine Unified Shader waren. :rolleyes:
 
Zuletzt bearbeitet:
http://www.extremetech.com/article2/0,1697,1567089,00.asp

"So the NV40 effectively provides superscalar (more than one instruction at a time) processing of pixel shader code."
--> NV hatte superskalare Shader schon beim NV40 (2004?)

https://pics.computerbase.de/1/3/5/9/1/43-1080.1440401053.jpg
--> ATI Vektoreinheiten in R420, ok, nicht unabhängig...

Carsten Spille (PCGH) zu den Skalareinheiten:

"Natürlich sind sie teuer. Das sieht man an GT200/RV770 und jetzt an GF100/Cypress - beide Nvidia-Chips belegen wesentlich mehr zusätzliche Siliziumfläche als sie an zusätzlicher Performance bringen. Doch ob's wirklich falsch ist mag ich nicht beurteilen. Es ist eine Investition in die Zukunft, die sich auszahlen kann, aber nicht muss."

"Man möchte Otto Normalentwickler dazu bringen, sich mit GPU-Computing zu beschäftigen. Und Otto Normalentwickler ist es, soweit ich weiß, nicht gewohnt, sich mit Vektorisierung usw. zu beschäftigen, sondern programmiert traditionell eher seriell. Neben der zu schaffenden Compiler-Infrastruktur, bei der du sicherlich recht hast, ist gerade bei Multi-Plattform-Entwicklung die Zeit, die für die Optimierung auf einzelne Architekturen zur Verfügung steht, ziemlich gering - das möchte man mMn auf Hardware-Ebene angehen und zumindest den Schritt der Vektorisierung entfernen"

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-8800-gtx-test.614/seite-3

"Hier muss man allerdings einen Blick ins Innere der ALUs werfen, da diese zwischen den beiden Generationen deutliche Änderungen aufweisen. So sind die ALUs sowohl auf dem R580 als auch auf dem G71 Vektorprozessoren (4D), die innerhalb eines Taktes vier unterschiedliche Komponenten (RGBA; Rot, Grün, Blau und den Alphawert) berechnen können."

"Somit entschied sich nVidia beim G80 dazu auf Vektorprozessoren zu verzichten und verbaut 128 Skalareinheiten."

--> Vektor ALUs nichts neues
 
Zuletzt bearbeitet:
Die neueste Nvidia-Entwicklung, die in den GTX4xx-Einzug gehalten hat, ist viiiel besser als irgendwelche Skalareinheiten. Skalareinheiten waren gestern, heute gibts mächtige, alles in Grund und Boden rechnende CUDA-Cores. Die sind ihrer Zeit so weit voraus, dass sie eigentlich nen DIE-Shrink bräuchten :stacheln::mussweg:
 
Die GF100 Einheiten sind immernoch Skalareinheiten, wie beim G80, rechnen jedoch nur noch mit 2Flops statt zuvor 3. Das 3. Flp (war glaube ich eine MUL-Operation mehr, die aber nicht arg viel brachte, den Chip insgesamt aber offenbar etwas effizienter machte, da die Mehrleistung wohl in einen günstigen verhältnis zum Stromverbrauch stand).

Die bessere Architektur ist die, die auf gleicher DIE-Fläche mehr Leistung bringt (Kostenvorteil bei der Fertigung) und die bei gleicher Leistung weniger Strom verbraucht (leiser, kühler und kleinere Stromrechnung).
Ati ist hier insgesamt ganz klar überlegen! Vergleicht ma die Größe des GT200 mit der des RV770 und die Größe und das FPS pro Watt Verhältnis vin RV870 und GF100.

Nvidia hat sich mit ihrer neuen rchitektur ganz schön in die Scheiße geritten.
Die Architektur kann man vlt dahingehend optimieren, zukünftig für Gamer den platzaufwenfigen Cache zu verkleinern und vlt Compiler und Sheduler vereinfachen, aber im FPS pro Watt Verhältnis wird ma, sollte Atis Northern Islands Architektur nicht deutlich uneffizienter werden, auch langfrsitig kaum etwas ändern können.

Aber vlt liege ich ja auch falsch und es sieht alles ganz anders aus.
 
AMD hat jetzt einen sehr wunden Punkt bei Nvidia gefunden. Die Leistungsaufnahme.
Ich denke AMD optimiert weiter für noch weniger Idle Stromaufnahme und noch weniger Leistungsaufnahme unter Last, besonders bei Midrangekarten.
 
Zurück
Oben