News Bleibt Nvidia weiterhin bei großen GPU-Kernen?

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.547
Ein großer komplexer oder mehrere kleine, weniger komplexe Chips? Bei GPUs hat sich diese Frage bis vor kurzem noch nicht gestellt. Dort entwickelte man für den High-End-Markt immer eine sehr große und komplex zu fertigende GPU, die den Konkurrenten mit dem vollen Einsatz schlagen musste.

Zur News: Bleibt Nvidia weiterhin bei großen GPU-Kernen?
 
Hmmm...scheint eine logische Konsequenz zu sein!Nvidia hat ja wohl langasam mitbekommen,dass der low/mid-range Markt die Gewinne einbringt!Ati hats vorgemacht Nvidia zieht nach und wenn sie die MultiGPU Probleme langsam mal in den Griff bekommen spricht eigentlich nichts dagegen!
 
Ich glaube ATI gibt den richtigen Weg vor. Ist ja ein wenig ähnlich wie bei den cpus. wenn probleme wie mikroruckler endgültig aus dem weg sind, warum nicht auf mehr kern setzen? sehe keinen grund wenn die spieleentwickler mitziehen.
 
Solange die Leistung im Vergleich zu den Radeon (X2) stimmt - warum nicht?

Mit MR hat man dann zumindest gar keine Probleme !


Aber ich denke mal spätestens mit dem "GT400" bzw. mit dem Release von Intels "Larabee" werden sie zumindest eine Dual Core Lösung bringen müssen, um up to date zu bleiben.

MfG
Edge
 
Es ist zwar ein bisschen OT, aber die Microruckler sind nicht das einzige was sie in den Begriff bekommen müssen.
Meiner Meinung nach ist die Performance für DX10 noch derart schlecht, dass die Entwickler lieber mal hier verbessern sollte als gleich DX11 nachzureichen.
Ich seh es kommen das dann die High-End Karten 6-8 FPs bei dem ersten DX11 Spiel erreichen.
 
aminos schrieb:
Hmmm...scheint eine logische Konsequenz zu sein!Nvidia hat ja wohl langasam mitbekommen,dass der low/mid-range Markt die Gewinne einbringt!Ati hats vorgemacht Nvidia zieht nach und wenn sie die MultiGPU Probleme langsam mal in den Griff bekommen spricht eigentlich nichts dagegen!

Ich würde nochmal in Ruhe den Artikel durchlesen, vielleicht merkst du das Nvidia derzeit noch nichts gelernt hat, bzw. einfach noch nicht soweit geplant hat.

Ich hab mal vor einiger Zeit einen Artikel zur Geschichte der 4000er Reihe von ATI auf Anandtech gelesen, sehr interessant. Dort geht auch hervor das die einzelen Chips viele Jahre vorher schon geplant werden (glaub mehr als 2 Jahre). Deswegen wundert mich einfach nicht, das die nächsten zwei Kerne von Nvidia noch auf einen großen Chip setzen.

Entwicklung braucht nun mal Zeit, ich hoffe aber, das ATI, die ja schon jetzt auf den Zug der kleinen Chips aufgesprungen sind auch mal etwas gegen die daraus resultierenden Probleme bei Multi-GPUs tut. Grade diese machen die Chips von Nvidia trotzdem zu einer interessanten Alternative (vom wirtschaftlichen Aspekt für Nvidia abgesehen).
 
Zuletzt bearbeitet:
Die nächste nv-Karte wird bestimmt wieder ein Monster-Chip. Erst vor 6 Monaten hat nv mitbekommen, dass man mit der ATI-Strategie (mehrere kleine Chips) besser fährt -- auch wenn die Spiele noch etwas mehr auf CF/SLI optimiert werden müssen.

Wenn nv Mitte 08 die Strategie ändert, dann wird Ende 09 sicher noch keine entsprechende Karte fertig sein. Die Frage ist nur, ob nv "selbstständig" schon vorher einen Strategie-Wechsel beschlossen hat. Und da man bei der Vorstellung des RV770 offen zugegeben hat, die Konkurrenz unterschätzt zu haben, würde ich nicht davon ausgehen.

Spannend wird auch die Frage, wie ATI die Zukunft bestreitet: mit 40nm ist grob eine Verdopplung der Transistoren bei gleicher Fläche drin. Werden sie das ausnutzen oder kommen noch kleinere Chips, dann aber eine HD5870X4?
 
Zuletzt bearbeitet:
Maddog85 schrieb:
[...] Meiner Meinung nach ist die Performance für DX10 noch derart schlecht, dass die Entwickler lieber mal hier verbessern sollte als gleich DX11 nachzureichen.
Ich seh es kommen das dann die High-End Karten 6-8 FPs bei dem ersten DX11 Spiel erreichen.


Das stimmt schon - liegt aber auch daran, dass die ersten Spiele, die auf eine neue API setzen nicht explizit darauf optimiert wurden, sondern sagen wir mal die neuen Technologien erst einige Monate vor dem Release eingebaut werden - man muss ja mit 2 - 4 Jahren Entwicklungszeit rechnen.

Es ist also wahrscheinlich, dass GT300 und RV870 in den ersten DX 11 Games eine schlechte Performance auf High abliefern - 6 - 8 fps halt ich zwar für ein wenig zu niedrig, aber unter 30 fps und somit nicht mehr pralle spielbar wäre schon möglich.

MfG
Edge
 
Zuletzt bearbeitet:
Das ist, wie bei Autos, so eine Gaubensfrage.

Entweder einen V8 mit 6 Liter Hubraum oder einen Biturbo 4 Zylinder mit 2L.

Mehr Hubraum, mehr Roh-Kraft beim Anzug (bei Grakas unterer Qualitätsbereich, 4AA mit Nvidia). Trotzdem kann es sein das so eine augetunte 2L Schüssel schneller ist (siehe AMD 4870 mit hohen Settings, 8AA)

Mir haben damals, wie auch jetzt, schon eher die Musclecars gefallen. :D
 
Zuletzt bearbeitet:
Ich sehe aktuell weder die eine, noch die andere Strategie mit einem klaren Vorteil. Wenn man sich die letzten zwei Generationen mal anschaut, hat ein Mal der große Chip dominiert, das andere Mal die kleinen ICs.

Persönlich interessant finde ich allerdings, dass nVidia mit dem G200-Refresh wahrscheinlich im gleichen Fertigungsprozess ein besseres Leistung/Watt-Verhältnis erreichen wird, als AMD mit dem RV770, dass aber mit größerer Chipfläche "bezahlt".

Die Zukunft dürfte entscheiden, ob sich nVidia durch AMDs Doppelchipkarten dazu gezwungen sieht, ihre High-End GPUs thermisch derart zu konstruieren, dass auch sie, falls nötig, wenige Monate nach dem Start einer Generation mit einer Doppelchipkarte nachziehen können.

Sollte 300W auch weiter die obere Grenze bei der Stromversorgung darstellen, könnte sich nVidia, weiterhin vorausgesetzt die Verwendung vergleichbarer Prozesstechnologie, mit ihrer aktuellen Strategie der breiteren, aber niedrig taktenden und daher effizienteren Kerne einen Vorteil erarbeiten. Ob der aber zur zusätzlichen Chipfläche im Verhältnis steht?
 
Edgecrusher86 schrieb:
.... mit dem Release von Intels "Larabee" werden sie zumindest eine Dual Core Lösung bringen müssen, um up to date zu bleiben.

....

Der Larabee ist aber eine GPU die leistungstechnisch höchst wahrscheinlich(!) mit den heutigen Grafikkarten bzw. der vorherigen Generation (HD3000 etc) gerade einmal, wenn überhaupt, mithalten kann. Zumal es zwischen Larabee und den ATi / nvidia Karten gewaltige Unterschiede gibt, Stichwort Raytracing usw

incurable schrieb:
Ich sehe aktuell weder die eine, noch die andere Strategie mit einem klaren Vorteil. Wenn man sich die letzten zwei Generationen mal anschaut, hat ein Mal der große Chip dominiert, das andere Mal die kleinen ICs.
Das liegt aber auch daran bei welchem Entwicklerteam hat sich nvidia mit hingesetzt und mitprogrammiert bzw in welche Softwareschmiede hat sich nvidia eingekauft. ;)

incurable schrieb:
Persönlich interessant finde ich allerdings, dass nVidia mit dem G200-Refresh wahrscheinlich im gleichen Fertigungsprozess ein besseres Leistung/Watt-Verhältnis erreichen wird, als AMD mit dem RV770, dass aber mit größerer Chipfläche "bezahlt".
Wenn man selber an den Reglern dreht können auch die ATi Karten vernünftig Strom sparen, was allerdings ATi davon abhält ihr Powerplay vernünftig in die Treiber zu integrieren, wissen leider nur die Köpfe bei ATi.
 
Zuletzt bearbeitet:
incurable schrieb:
Ich sehe aktuell weder die eine, noch die andere Strategie mit einem klaren Vorteil. Wenn man sich die letzten zwei Generationen mal anschaut, hat ein Mal der große Chip dominiert, das andere Mal die kleinen ICs.

Die ATI-Strategie ist im Vorteil: die ATI-Chips sind so viel günstiger in der Produktion, dass die auch noch Geld verdienen, wenn sie eine GraKa an den Mann bringen. Bei nv hat man sich da lange schwer getan (ATI verkauft ja jetzt noch fast zum Vorstellungspreis, nv musste seither den Preis fast halbieren). Mittlerweile dürften die auch wieder in der Gewinnzone sein, aber dass die die Entwicklungskosten reinholen glaube ich nicht.
 
Dass der GT300 noch im alten Gewand daherkommt, war irgendwie abzusehen. NVidia wirft garantiert nicht knapp ein Jahr vor Veröffentlichung (wenn man mal von den Q42009-Gerüchten ausgeht) alles übern Haufen und fängt nochmal bei Null (was das Chip-Design betrifft) an. Und wenn die neuen GPUs dann vlt. sogar noch in Q3 oder Q2 veröffentlicht werden sollen - ja Herr Gott, wo soll NVidia bitte die Zeit hernehmen?

Im Grunde ist an der aktuellen Politik auch nichts sonderlich verkehrt - man hat den schnellsten Chip im Angebot, die Preise sinken weiter vor sich hin und auch der Rest stimmt. Für Low/Midrange hat man halt andere Chips. Das einzige, was NVidia daran nicht gefallen kann, sind die höheren Kosten für sich selbst -> bei gegebenen Verkaufspreisen also ein kleinerer Gewinn. Als börsennotiertes Unternehmen hat NVidia aber nunmal leider den Druck, da alles drann zu drehen um das zu maximieren.

Wie gesagt, rein von der technischen Seite halte ich die Fertigung großer Chips mit entsprechender Leistung für sinnvoller als mehrere kleine Chips, die man zusammenbastelt. So gäbe es ja verschiedene Teile doppelt, die die Platzersparnis wieder ad absurdum führen und vlt. sogar den Stromverbrauch verglichen mit einer Ein-Chip-Lösung erhöhen würden. Auf Kosten/Nutzen-Seite sähe das natürlich wieder gleich ganz anders aus...
 
Ich nehme an, das Ati und Nvidia das Microrucklerproblem solange aussitzen, bis es durch reine Rohleistung hinfällig wird und jedes Spiel mit 100 FPS läuft. Spannend finde ich daran nur, ob sie das mit 2 Chips erreichen oder ob es mehr werden müssen. Dann wird man Singlechips generell nicht mehr im High End Bereich vorfinden.
 
eine doppelt so große gpu ist zwei kleineren grundsätzlich überlegen (einfacheres pcb-layout, kein verlust durch synchronisation (skalierung), keine doppelte speicherbestückung, etc.). allerdings je größer (und komplexer) der chip des so niedriger die yieldrate und damit des so höher die herstellungskosten. bei hohen yieldraten sind aber singel-gpu-lösungen definitiv die bessere wahl.

was man hier nicht verwechseln darf: gpu sind keine cpu. daher ist das thema "multicore" auch nicht vergleichbar, denn gpu bestehen bereits aus sehr vielen recheneinheiten!

imho wird multi-gpu daher auch langfristig immer nur eine notlösung bleiben, wenns um den kampf um die performancekrone geht.
 
Zuletzt bearbeitet:
warum weiter Monsterkarten kaufen wenn sowieso die ganzen games in zukunft erstmal für die Konsole kommen der PC bekommt doch sowieso nur noch Umsetzunggen von der Konsole und die sind dann auch noch schlechter bestes Beispiel gta4.das letzte große only PC game war crysis und das war ein riesenflop!Monsterkarten haben nur einen Sinn benchmarks und zogen in riesen Auflösungen jenseits von 1920-1200 also kein wirklich großer Markt:
 
Irgendwie sind mir die dicken Rechenkerne der nvidia Karten immernoch sympathisch - könnte natürlich auch an den Treibern liegen, aber die ATI Karten haben immernoch keine durchgängig hohe Skalierung im Multi GPU Einsatz - einmal wird die Leistung verdoppelt ein anderes Mal bekommt man keine Mehrleistung.

Ferner ist das Problem mit 4 GPUs im 3D Mark Vantage immernoch nicht gelöst, es sieht immernoch aus als wäre die Hälfte der Karten im Eimer, auch wenn sich die Fragscreens etwas gebessert haben ^^ man erkennt mittlerweile das Bild ;)
 
Turbostaat schrieb:
Wenn man selber an den Reglern dreht können auch die ATi Karten vernünftig Strom sparen, was allerdings ATi davon abhält ihr Powerplay vernünftig in die Treiber zu integrieren, wissen leider nur die Köpfe bei ATi.
Klar könnte AMD wahrscheinlich RV770 Chips selektieren, um eine SKU mit besserer Leistung pro Watt als die GTX 285 zu produzieren, bis dass aber passiert, dürfte letztere ein paar bis ein dutzend Prozent vorn liegen.

Powerplay dürfte zusätzlichen Qualifikations- und Qualitätssicherungsaufwand verlangen, den sich AMD scheinbar lieber sparen wollte, und der dann in jedem Review wie ein blühender Pickel hervorstand, eben weil nVidia beim G200 auch auf den idle-Verbrauch geachtet hat. Ist wie damals bei Speedstep / Cool'n'Quiet, nur mit für AMD umgekehrten Vorzeichen.

Killermuecke schrieb:
Die ATI-Strategie ist im Vorteil: die ATI-Chips sind so viel günstiger in der Produktion, dass die auch noch Geld verdienen, wenn sie eine GraKa an den Mann bringen. Bei nv hat man sich da lange schwer getan (ATI verkauft ja jetzt noch fast zum Vorstellungspreis, nv musste seither den Preis fast halbieren). Mittlerweile dürften die auch wieder in der Gewinnzone sein, aber dass die die Entwicklungskosten reinholen glaube ich nicht.
Theoretisch ist AMD im Vorteil, aber praktisch kann man nicht davon ausgehen, dass ein RV770-Wafer genauso viel kostet wie einer vom G200, oder dass beide die gleichen yield- und bin-Raten produzieren. Obendrein verkaufte AMD lange Zeit nur voll funktionstüchtige Chips, und deckte damit den Bereich von $200 SRP aufwärts ab, bevor die HD 4830 als salvage-SKU installiert wurde.

Die Rechnung, welcher Chip seinem Hersteller schlussendlich mehr Freude gemacht hat, dürfte also deutlich komplizierter ausfallen als der simple Vergleich der die-Größen, und wahrscheinlich enger ausgehen, als eben dieser glauben machen würde.
 
Zuletzt bearbeitet:
Das "noch" in Klammern gefällt mir. :lol:
Seit wann gibts jetzt SLI? Seit wann sind Mikroruckler bekannt? Seit wann werden die trotzdem immer weiter verkauft und immer neue entwickelt mit dem gleichen Fehler?
 
Zurück
Oben