9pinking schrieb:
Die HD5970 ist auch keine 5870x2 ...
Tja, weil es keine 5870x2 ist, heißt sie nicht umsonst HD5970
9pinking schrieb:
@all die, die über die Dual-GPU mit beschnittenen Fermis schimpfen:
Die HD5970 ist auch keine 5870x2, sondern eher eine 585"5"x2, also auch ein beschnittener Top-Chip als Dual-GPU. Also bitte nicht so auf Nvidia schimpfen.
Hier gehts ja nicht um beschnittene Top-Produkte, sondern ob Dual-Fermi-512 @ 300 Watt überhaupt möglich ist.
Um HD 5970 überhaupt möglich zu machen, musste die Spannung "der HD 5870" von 1,15 Volt auf 1,05 Volt sowie den Takt von 850 auf 700 Mhz (oder so ) gesenkt werden um die 300 Watt-TDP statt 2x210 Watt-TDP (=420 Watt-TDP) einhalten zu können.
Erstes Problem vom Fermi ist.
a) er ist schon beschnitten. Weniger mit dem Takt sondern mit Einheiten.
b) Müsste Fermi-B-Stepping extrem viel besser sein.
Auch 250 Watt-TDP statt 310 Watt-TDP reicht kaum aus.
Denn dann würde Dual-Fermi vielleicht nur mit 0,85 Volt und 500 Mhz-Takt haben und das vielleicht noch mit weniger Einheiten um dann die 300 Watt-TDP einhalten zu können.
Und das bezweifel ich stark, dann allein der GT200b braucht eben das 3 Stepping um sich deutlich vom A-Stepping absetzen zu können.
Vorallem, mit so einer extrem niedrigen Spannung und das mit einem nicht immer etwas problematischen 40nm-Fertigung.
Im August/September sehen wir wahrscheinlich erst das B-Stepping und da erwarte ich mir jetzt keine großen Sprünge auf z.B. 250 Watt-TDP (TDP meine ich mit "unter Furmark")
Vorallem, weil es ja ein 512-Fermi vielleicht mit etwas mehr Takt alias 750Mhz wird.
franzi3 schrieb:
Die Entwicklung geht bei NVidia jedoch ganz klar in eine andere Richtung...in Bereiche, die von x86 weitaus weniger abhängig sind, als das bisherige Brot- und Butter Geschäft.
Ich würde schon ernsthafte Probleme sehen, wenn Nvidias Low-End & Mainstream-GPUs im Verhältnis ähnlich schwach sind, wie es zu GT280-Zeiten war.
Da hatte GT280 die selbe Performance-pro-Watt wie der HD 4870, aber die Low-End & Mainstream sahen zur 4000er-Serie deutlich schlechter aus.
Okay, das waren keine 200er, sondern noch G90er.
Deshalb warte ich noch ab und bin sehr auf diese Low-End & Mainstream gespannt!!!!!
Der Größte Fehler den Nvidia machen kann ist, sich aus dem GPU-Markt zurückzuziehen und sich zu sehr auf HTC/GPGPU zu konzentrieren. Denn die GPU-Entwicklung für GPGPU kann Nvidia eben auch über den GPU-Markt abschreiben.
Wäre der GPGPU-Markt rentabel, dann hätte es mehr sinn, für den GPGPU-Markt eine extra GPU zu designen. Aber das ist ja noch nicht der Fall.
franzi3 schrieb:
Nvidia ist quasi seit Jahren tot, befindet sich auf dem Sterbeweg oder wird morgen, übermorgen oder sonstwann tot sein.
So schnell geht das nicht.
Nvidia hat mit Optimus, CUDA, Physx, Grafikqualität, schnellste single-GPU, Treiber-Qualität, Mitarbeit an Spielen noch viele Gründe bzw. dementsprechendes Image, warum Nvidia so schwer zu knacken ist.
Aber wenn Low-End & Mainstream - Fermi in Massen-Foren bzw. Online-Zeitungen den selben Ruf bekommt wie Fermi-512er, dann sehe ich schon erhebliche Probleme.
Aber die führen ja nicht gleich zu Nvidias tot, sondern gefährden zuerst eben obengenannte Projekte.
Denn wenn wenn wenn sie dann weiter Marktanteile verlieren, gibt es für viele Spiele-Hersteller keinen Grund auf geschlossene Software vom kleineren zu verwenden.
Und mit weniger Umsatz & Gewinn könnte eben auch das Pushen von Spiele & Cuda zurückgefahren werden.
Dazu kann eben AMD auch mit Grafik-Qualität, Optimus-Konkurrent, OpenPhysx, Performance, Treiberqualität usw usw kontern und Nvidia weiter das Leben schwer machen.
Aber da reden wir eher von Jahren und nicht um wenige Quartale, weil eben Nvidia in diversen Sachen noch ziemlich stark ist. Und weil das so lange dauert, könnte Nvidia bis dahin noch richtig reagieren, um wieder gut im Spiel zu sein.
Aber wie schon gesagt: Für mich sind Fermi-Low-End & Mainstream verdammt entscheidend. Schließlich sollte Fermi ja die Mega-Architektur der nächsten Jahre sein, weil später nur geringere Veränderungen kommen.