News Dual-Chip-Karte von Nvidia zum Jahresende?

@franzi3

Also wenn andere schlecht über Fermi reden, dann sind es ATi-Fanboys. Wenn du Fermi aber als "Abfallprodukt" bezeichnest, dann ist das vollkommen okay. Seltsame Logik.

Allerdings hast du recht, dass man Nvidia nicht so schnell abschreiben darf. Die sind so breit aufgestellt, dass die immer irgendwo Geld herbekommen. Sieht man ja an dem letzten Quartalszahlen. Angeblich lagen die guten Zahlen ja an Fermi, aber der wird wohl kaum in der Bilanz schon wirklich ausschlaggebend gewesen sein.
 
@Lonely Shepherd

Mit "Abfallprodukt" meine ich in der Tat es fällt ab, nämlich vom HPC Produkt (Tesla), welches für Nvidia meines Erachtens mittlerweile wesentlich höhere Priorität genießt als der PC-Gaming Markt. Immer mehr miese Konsolen-Ports schreien nicht gerade nach High-End Karten.

Mitnichten sehe ich Fermi als Abfall=Müll an, auch wenn ich mir aktuell keine der verfügbaren Karten zulegen würde.
 
Zuletzt bearbeitet:
Bei 375 Watt TDP könnte man auch gleich eine Bratpfanne mitliefern. :D

Spass beiseite: Ich sehe auch keinen Sinn in einen Dual-Chip Karte mit abgespeckten Grafikchips, hier würde ich auch eine Single Chip Karte mit leistungsfähigeren Grafikchip bevorzugen. Wobei mir der Fermi sowieso zuviel Strom braucht.
 
franzi3 schrieb:
Warum dieses Herziehen über Team Green? 90% aller ATI-Fanboys in diesem Forum kann es doch völlig egal sein, was Nvidia auf den Markt bringt. Ihr kauft es doch eh nicht. Faktisch ist diese Firma für euch nicht existent. Nvidia ist quasi seit Jahren tot, befindet sich auf dem Sterbeweg oder wird morgen, übermorgen oder sonstwann tot sein. Solchen Unsinn (nebenbei verhalten sich die NV-Fanboys ähnlich) liest man hier ohne Unterlass.

Derzeit orientiert sich die Firma um, der Gamer-Markt wird zusehends unattraktiver und ich erachte die Fermi-Varianten für diesen Markt eh nur als "Abfallprodukt". Man bietet was an, weil man es die letzten Jahre auch so getan hat und weiss, dass es teilweise gekauft werden wird. Die Entwicklung geht bei NVidia jedoch ganz klar in eine andere Richtung...in Bereiche, die von x86 weitaus weniger abhängig sind, als das bisherige Brot- und Butter Geschäft.
1. hier behaupten wenige, dass Nvidia in kürze untergeht. der sterbeprozess des Grafikkartenmarkts (sofern dieser überhaupt in den nächsten Jahren eintritt) wird länger dauern.
2. viele, die du als ATI Fanboys bezeichnest kaufen einfach das beste. Wenn diese leute meinen, dass 50% mehr Stromverbrauch (im IDLE wesentlich mehr) und 30% mehr Preis für 15% mehr Leistung nicht gerechtfertigt ist, dann haben sie (meiner Meinung nach) Recht.
3. die AMD Grafikkarten sind in jedem Bereich bei der Performance pro Watt gleich gut oder besser (mir fällt jedenfalls kein Gegenbeispiel ein). AMD wär also ohne Umorientierung besser, als Nvidia mit.
 
@all die, die über die Dual-GPU mit beschnittenen Fermis schimpfen:
Die HD5970 ist auch keine 5870x2, sondern eher eine 585"5"x2, also auch ein beschnittener Top-Chip als Dual-GPU. Also bitte nicht so auf Nvidia schimpfen.
Allerdings bin ich auch ein Verfechter von Singel-GPU-Lösungen, hatte eine zeitlang eine Dual-Lösung in Form von 2 4870ern im CF, aber es gab da recht viel Probleme, was ich aber gut fand, daß ich eine GPU dann rausnehmen konnte, da es sich um zwei Karten handelte :) Deshalb lieber zwei Single-GPU als Gespann als eine Dual auf einem PCB.
Gruß
9pinking
 
Nö mit wird ja selbst beim UltraGaming Rechner (2x HD5970 im CFX) nicht auf die schlechte Skalierung und die die Treiberprobleme, besonders bei 4 GPu´s hingewiesen, selbst wenn du im Mediamarkt fragst.
Hatte mal einem Beratungsgespräch gelausch.
 
Zuletzt bearbeitet:
ich schreibe hier nicht oft, aber bei diesem thema muss ich einfach mal was loswerden!


was nvidia zur zeit treibt mit ihren karten ist für die füße!!! weil jeder normal denkende mensch niemals eine grafikkarte nutzt die so einen hohen strom verbrauch hat ( stromverbrauch zu hoch, bedeutet hitze und diese hitze bedeutet schnelleren verschleiß was einen früheren defekt der hardware zufolge hat!!!! klingt komisch ist aber leider so.


ich habe zur zeit 2xhd 5770 im crossfire ( zusammen einen verbrauch von 216 watt unter last, im idl 36 watt ) und habe eine perfekte perfomance in spielen, bei 1920x1080 mit 8xaa( microruckler waren mal was crossfire angeht)
!
was kann denn nvidia entgegensetzen zur zeit??? nichts!!!
und verschont mich mit cuda, physix und denn ganzen rotz, hatte genug nvidias die letzten jahre und bin was preis/leistung angeht enttäuscht und ausgenommen worden.

nvidia sucks, zu teuer in der anschaffung und zu teuer bei laufenden kosten.

p.s.@terraconz

MM steht für media markt, und der hat was pc angeht null,null ahnung! nur mal so zur info, dort kaufen pc noobs!die meisten die im media markt einen pc oder pc hardware kaufen wollen das ihr pc gut läuft, ich dagegen brauche einen pc der rennt wie die sau!
 
Zuletzt bearbeitet:
Babyboy1976 schrieb:
was kann denn nvidia entgegensetzen zur zeit??? nichts!!!
und verschont mich mit cuda, physix und denn ganzen rotz, hatte genug nvidias die letzten

Jedem Nutzer sind andere Dinge wichtig. Dem einen Eyefinity, dem anderen Physx etc.

Die meisten neutralen Nutzer, egal von welchem Hersteller sie eine Karte einsetzen, haben bisher in der Tat keinen Nutzen in z.B. Phsyx gesehen...weil einfach keine sinnvolle Anwendung für den Consumer dabei war.
Nun hüpf mal ins Gamestar Forum, wo gerade Mafia 2 getestet wurde und die Redaktion zu dem Ergebnis kommt, dass Physx der Spielatmosphäre eine deutliche Aufwertung beschert.

Statt nun weiter zu sagen, dass Physx Rotz ist, wird nun gemotzt, dass es nur auf Nvidia Karten möglich ist. Sobald Tesselation mehr Verwendung in Spieltiteln findet, wird ähnliches passieren.
Tja, die Welt ist schon ungerecht.
 
Zuletzt bearbeitet:
9pinking schrieb:
Die HD5970 ist auch keine 5870x2 ...
Tja, weil es keine 5870x2 ist, heißt sie nicht umsonst HD5970;)

9pinking schrieb:
@all die, die über die Dual-GPU mit beschnittenen Fermis schimpfen:
Die HD5970 ist auch keine 5870x2, sondern eher eine 585"5"x2, also auch ein beschnittener Top-Chip als Dual-GPU. Also bitte nicht so auf Nvidia schimpfen.
Hier gehts ja nicht um beschnittene Top-Produkte, sondern ob Dual-Fermi-512 @ 300 Watt überhaupt möglich ist.

Um HD 5970 überhaupt möglich zu machen, musste die Spannung "der HD 5870" von 1,15 Volt auf 1,05 Volt sowie den Takt von 850 auf 700 Mhz (oder so ) gesenkt werden um die 300 Watt-TDP statt 2x210 Watt-TDP (=420 Watt-TDP) einhalten zu können.

Erstes Problem vom Fermi ist.
a) er ist schon beschnitten. Weniger mit dem Takt sondern mit Einheiten.

b) Müsste Fermi-B-Stepping extrem viel besser sein.

Auch 250 Watt-TDP statt 310 Watt-TDP reicht kaum aus.
Denn dann würde Dual-Fermi vielleicht nur mit 0,85 Volt und 500 Mhz-Takt haben und das vielleicht noch mit weniger Einheiten um dann die 300 Watt-TDP einhalten zu können.

Und das bezweifel ich stark, dann allein der GT200b braucht eben das 3 Stepping um sich deutlich vom A-Stepping absetzen zu können.
Vorallem, mit so einer extrem niedrigen Spannung und das mit einem nicht immer etwas problematischen 40nm-Fertigung.
Im August/September sehen wir wahrscheinlich erst das B-Stepping und da erwarte ich mir jetzt keine großen Sprünge auf z.B. 250 Watt-TDP (TDP meine ich mit "unter Furmark")
Vorallem, weil es ja ein 512-Fermi vielleicht mit etwas mehr Takt alias 750Mhz wird.

franzi3 schrieb:
Die Entwicklung geht bei NVidia jedoch ganz klar in eine andere Richtung...in Bereiche, die von x86 weitaus weniger abhängig sind, als das bisherige Brot- und Butter Geschäft.
Ich würde schon ernsthafte Probleme sehen, wenn Nvidias Low-End & Mainstream-GPUs im Verhältnis ähnlich schwach sind, wie es zu GT280-Zeiten war.

Da hatte GT280 die selbe Performance-pro-Watt wie der HD 4870, aber die Low-End & Mainstream sahen zur 4000er-Serie deutlich schlechter aus.
Okay, das waren keine 200er, sondern noch G90er.
Deshalb warte ich noch ab und bin sehr auf diese Low-End & Mainstream gespannt!!!!!;)

Der Größte Fehler den Nvidia machen kann ist, sich aus dem GPU-Markt zurückzuziehen und sich zu sehr auf HTC/GPGPU zu konzentrieren. Denn die GPU-Entwicklung für GPGPU kann Nvidia eben auch über den GPU-Markt abschreiben.
Wäre der GPGPU-Markt rentabel, dann hätte es mehr sinn, für den GPGPU-Markt eine extra GPU zu designen. Aber das ist ja noch nicht der Fall.

franzi3 schrieb:
Nvidia ist quasi seit Jahren tot, befindet sich auf dem Sterbeweg oder wird morgen, übermorgen oder sonstwann tot sein.
So schnell geht das nicht.
Nvidia hat mit Optimus, CUDA, Physx, Grafikqualität, schnellste single-GPU, Treiber-Qualität, Mitarbeit an Spielen noch viele Gründe bzw. dementsprechendes Image, warum Nvidia so schwer zu knacken ist.

Aber wenn Low-End & Mainstream - Fermi in Massen-Foren bzw. Online-Zeitungen den selben Ruf bekommt wie Fermi-512er, dann sehe ich schon erhebliche Probleme.
Aber die führen ja nicht gleich zu Nvidias tot, sondern gefährden zuerst eben obengenannte Projekte.
Denn wenn wenn wenn sie dann weiter Marktanteile verlieren, gibt es für viele Spiele-Hersteller keinen Grund auf geschlossene Software vom kleineren zu verwenden.
Und mit weniger Umsatz & Gewinn könnte eben auch das Pushen von Spiele & Cuda zurückgefahren werden.
Dazu kann eben AMD auch mit Grafik-Qualität, Optimus-Konkurrent, OpenPhysx, Performance, Treiberqualität usw usw kontern und Nvidia weiter das Leben schwer machen.

Aber da reden wir eher von Jahren und nicht um wenige Quartale, weil eben Nvidia in diversen Sachen noch ziemlich stark ist. Und weil das so lange dauert, könnte Nvidia bis dahin noch richtig reagieren, um wieder gut im Spiel zu sein.

Aber wie schon gesagt: Für mich sind Fermi-Low-End & Mainstream verdammt entscheidend. Schließlich sollte Fermi ja die Mega-Architektur der nächsten Jahre sein, weil später nur geringere Veränderungen kommen.
 
Was bringt einem Optimus wenn keiner die Mobile GPUs kaufen will? Dafür sind zuviele verreckt, die meisten Hersteller haben die Nase voll.

Geh mal in einen Medimarkt und guck nachd en Grafiklösungen... du wirst zu 80 - 90 % nur noch ATI finden oder halt die grottige Intel GMa, aber kaum noch nvidia.

Mit OpenCL stirb CUda und Physx eh irgendwann, wobei es keine 10 Spiele gibt die das wirklich nutzen. Die Grafikqualität ist ein von der PCGH heraufbeschworener Vorteil, die Treiber haben nachgelassen, gab schon genug die ordentlich verbuggt waren.

Wenn das bei den leuten ankommt ist das Image weg... und was bleibt dann? nicht viel.

Und diese Karte wird wegen der TDP ein dualkrüppel werden oder bis zum St. Nimmerleinstag verschoben, genau wie Tesla
 
@aylano

Zitat von franzi3
Nvidia ist quasi seit Jahren tot, befindet sich auf dem Sterbeweg oder wird morgen, übermorgen oder sonstwann tot sein.

Ich habe nur wiedergegeben, was man immer wieder von Nvidia-Gegnern im CB-Forum lesen kann. Denselben Unsinn findet man natürlich auch zu AMD/ATI. Danke für deine Ausführungen, ich sehe es ähnlich.
 
also mir ist des egal ob meine nächste Grafikkarte ne Ati ode eine NVIDIA wird solange bei der Karte der Preis und Leistungsverhältniss stimmt, mir ist wichtig das ich für das Geld was ich ausgebe die Leistung auch bekomme und ne gute Grafikkarte krieg... da zur Zeit bei NVIDIA nach meiner Meinung nicht so toll aussieht ist ganz klar ATI meine Empfehlung...solange NVIDIA nichts tut ist klar das ATI immer weiter die Nase vorn hat und immer weiter entwickelt und sich verbessert!
 
Zurück
Oben