News Dual-Chip-Karte von Nvidia zum Jahresende?

Nvidia hat versagt und wird auch nicht durch solch einer Dual Chip Karte an ATI vorbei ziehen, sie müssen nun aufpassen, das sie nicht vom Markt verschwinden.
 
@MC BigMac: Ja, da muessen sie wirklich gut aufpassen, dass sie mit der Leistungsstaerksten Single-GPU-Karte nich vom Markt verschwinden oder gar komplett pleite gehen..:rolleyes:

Was hier wieder alles abgelassen wird.. Dieses ganze Schlechtreden der GF100 wird langsam richtig oede. Aussagen ala Epic-Fail weil man im Monat dann 1Euro mehr auf der Abschlagszahlung hat.. Klar sind die neuen Fermis nich perfekt und haben Nachbesserungsbedarf im Punkto Stromverbrauch, aber im Ganzen sind das alles andere als schlechte GPUs... also einfach mal nich so nen Wind machen und abwarten was Nvidia dadraus macht.
 
Zuletzt bearbeitet:
@rumpel01

ATI hatte ja bereits einen Sideport in der 4000er Reihe verankert, nur wegen des Verbrauchs nicht in Betrieb nehmen können.

Sollte der aber, so wie ATI es sagt, wieder eingeführt werden, sieht es für SLI wohl eh sehr düster aus.

Die Sklalierung dürfte wesentlich besser sein als bei einer Softwarelösung und je nachdem wie es umgesetzt wird kommt an Ende ein "verlängerter" chip raus.

Bei ATI wollte man mit der HD2900 schon soviel, die floppte zwar total, aber das was drinsteckt ist heute für den Erfolg der 5000er Serie verantwortlich.


@Bernd_Brot

eine neue tausenderstelle beudetet nicht das es eine völlig neue Entwicklung ist. Die aktuellen Karten gehen auch noch auf die HD2900 zurück.

Die nächsten werden einen Mix aus der aktuellen und der neuen Architektur sein und dann erst kommt was wirklich komplett neues.
 
terraconz schrieb:
Warum meinen so viele das Nvidia an Fermi irgendwas ändern müsse? Die Fermi Karten verkaufen sich doch eh wie geschnitten Brot. Man hat die schnellste Karte am Markt (Single GPU), die (Marketing)Vorteile CUDA, Physx, TWIMTBP und den Vorteil des besseren Image, Sachen wie Verlustleistung oder Wärmeentwicklung/Lautstärke sind für den normalen User eh kein grosses Kriterium. Die kommen zu uns in den Markt und fragen nach der schnellsten Karte, mehr nicht.
Tja, die schnellste Karte hat momentan aber ATI. Und darum geht es nVidia hier wohl. ;) Langfristig muss nVidia etwas tun, da Kosten und Leistungsaufnahme des aktuellen Designs viel zu hoch sind. Und das hat nichts mit "meinen" zu tun, das sind Tatsachen. Mit der schnellsten Grafikkarte oder der schnellsten Single-GPU Grafikkarte verdient man sowieso kaum Geld. Geld verdient nVidia momentan hauptsächlich mit "alten" Designs auf G80/G92 Basis. Oder glaubst du, Fermi könnte mit den aktuellen Leistungsdaten problemlos im mobilen Markt oder als IGP eingesetzt werden? Abwärme ist hier definitiv ein Problem, auch wenn das den gemeinen Kunden nicht interessiert. Und die Konkurrenz schläft währenddessen auch nicht. Northern Islands wird für ATI ein Meilenstein im kommenden Jahr. Und wie man hört, werkelt Intel auch weiter an Larrabee. Mindestens die kommenden 2 Jahre werden verdammt schwierig für nVidia. Auch wegen Fusion und Co. AMD und Intel können diesbezüglich problemlos eigene Plattformen auf die Beine stellen. Das kann nVidia nicht. Und da reden wir von wichtigen Massenmärkten.
 
terraconz schrieb:
Warum meinen so viele das Nvidia an Fermi irgendwas ändern müsse? Die Fermi Karten verkaufen sich doch eh wie geschnitten Brot. Man hat die schnellste Karte am Markt (Single GPU), die (Marketing)Vorteile CUDA, Physx, TWIMTBP und den Vorteil des besseren Image, Sachen wie Verlustleistung oder Wärmeentwicklung/Lautstärke sind für den normalen User eh kein grosses Kriterium. Die kommen zu uns in den Markt und fragen nach der schnellsten Karte, mehr nicht. Und wenn die dann noch von Nvidia kommt (was für sie eine Marke ist die sie zuordnen können) ist sie meist eh sofort gekauft. Ich sehe für Nvidia keinen Handlungsbedarf, eher für AMD den Bedarf an viel viel mehr Marketing.
Ja noch geht es Nvidia gut.
Nvidia hat momentan den Vorteil der begrenzten 40nm-Kapazitäten, wodurch ATI eben nur 33% aller seiner GPUs als DX11 produzieren konnte.

Je extreme die Gamer werden, desto unwichtigern wird die Verlustleistung und desto wichtiger wird die schnellste Single-GPU & Grafik-Qualität.

Aber AMD konnte mit der 5000er-Serie in Sachen Grafik weiter aufholen. Eine Perfekte AF-Blume aber für viele noch ein zu starkes Flimmern.

Wenn AMD mit North-Island das Flimmer wegbringt, dann hätte Nvidia ein großen Vorteil bei Extrem Gamer weniger.

Dazu konnte AMD mit jeder Generation seit R600 immer näher an Nvidia rückt. Momentan sind sie schon so nah, dass die Fermi-Performance für die Extrem-Gamer über den Stromverbrauch gerade noch "deutilch" über ATI steigern konnte. 50% mehr Stromverbrauch bei 0,15 Volt geringerer Spannung ist schon beträchtlich.

Aber wenn AMD mit North-Island (nicht zu verwechseln mit South-Island der davor kommt) wieder einen gesunden Schritt nach vorne macht und nebenbei wie erwartet die Tesselation deutlich steigert, dann könnte eben Nvidias gute Image auch nicht mehr so viel bringen, wie eben jetzt.

In Sachen CUDA wäre es für Nvidia schlimm, wenn Apple AMD-Fusion-Notebooks macht und nebenbei OpenCL stark vermarktet/pusht. Und mit Apples Image kann es erhebliche Auswirkungen haben, da sie in letzter zeit mit iPod & iPhone & iPad wissen, wie man Trends setzt.

Nicht zu vergessen ist, Nvidia hat noch Optimus, aber auch hier arbeitet AMD an einer Konkurrenzlösung. Allein die frühe veröffentlichung von Optimus zeigt ja die Schwierigkeit von Nvidia. Denn wenn sie es mit DX11-Low-End & Mainstream veröffentlicht hätten, dann wäre die Überraschung IMO deutlich größer und AMD hätte IMO deutlich schwieriger reagieren können, da die Zeit zu Fusion deutlich geringer wäre.

Momentan sieht es für Nvidia nicht gut aus.
Und wenn sie nicht zur Computex die ganze Fermi-Familie zeigen, dann sieht es noch übler aus.

Denn sichtbar wird es, wenn es mal genug 40nm-Kapazitäten oder später 28nm-Kapazitäten gibt.
Und wenn für Nvidia die 28nm-Einführung wieder so holprig verläuft, wie die letzten Jahre, dann erst recht.
 
Zuletzt bearbeitet:
@ aylano

Nich zu vergessen, dass nVidia die Tesla Karten wieder runterschrauben musste und erneut verschoben hat. Zusätzlich hat man ebenso große Probleme den Tegra irgendwo massenhaft zu verbauen und bei den Grafiklösungen arbeitet Intel auch auf breiter Front dagegen. Auch Ion hat nicht mehr die Bedeutung wie früher. Sieht schon ganz schön übel aus für die Zukunft, würde ich sagen.
 
Jupp, bei den ganzen Problemen vergisst man mal paar Probleme.

Ach ja, laut Nvidia soll das 3Q 2010 ja das beste Chipsatz-Quartal werden. Danach gehts wegen den Fusion & Co Produkten ziemlich steil bergab und dieser Markt bringt Nvidia momentan 250 Mio. $ Umsatz und mit ca. 50 Mio. $ (=drittel (bis halber) Konzerngewinn) erheblichen Gewinn machte.

Mit der Tegra-Euphorie im Jänner glaubte man, Tegra könnte den MCP-Markt ersetzten, aber momemtan sieht es da überraschend schlecht aus.
 
aylano schrieb:
Ach ja, laut Nvidia soll das 3Q 2010 ja das beste Chipsatz-Quartal werden.

Denen kann ich leider gar nichts mehr glauben. Keine Ahnung womit die in den letzten Monaten so viel Gewinn gemacht haben, aber ich kann mir nur vorstellen, dass es ab jetzt bergab geht. Welche Chipsätze wollen sie denn so massenhaft verkaufen? Ion2 ist noch das einzige was mir einfällt und das ist eigentlich auch kein Chipsatz mehr.
 
Könnte man sich bitte wieder dem eigentlichen Thema der News zuwenden? Die Finanzdaten nvidias oder deren Konkurrenzfähigkeit tangiert dies wirklich nur sehr am Rande. ;)
 
Hoffentlich kommt gar keine Dual-GPU-Karte mehr.
Irgendwie machen es sich die Hersteller damit sehr einfach, mehr Performance zu erzielen - und zwar auf dem Papier. In der Realität bleibt von der theoretischen Mehrleistung aufgrund der Nachteile, die die Technologie nunmal hat nicht viel übrig.
Single-GPU-Karten und natürlich auch Single-GPU-Systeme sind einfach der einzig wahre Weg.
 
Sehr gut, wollte mir schon eine HD5870 zu legen. Dann werd ich noch bis Ende des Jahres, oder Anfang nächstes warten. Hoffentlich kommt dann wirklich eine :)

Bis dahin reicht sicher meine 4890 noch. Sonst erhöhe ich einfach den Takt ;)
 
MR2 schrieb:
Ob die Karten am Ende der HD6000er angehören, oder 5890 heißen weiß wohl nur ATI selbst.

Unwahrscheinlich, dass sie HD 5890 heißt. Ati wird da soviele Veränderungen vornehmen, wenn sie die dann lediglich als weitere HD 5000er Karte bezeichnen wäre das ein schlechter Zug. Ich glaube schon, dass sie einen richtig neuen Seriennamen bekommen wird. Ob dies allerdings immernoch dem alten Schema entsprechen muss, also HD 6000, wird sich zeigen.
 
Ich sehe für Nvidia keinen Handlungsbedarf, eher für AMD den Bedarf an viel viel mehr Marketing.

nv hat mit fermi sein ziel ganz klar verfehlt, die bereiche von den du redest (mm resteverwertung) hat die geringsten gewinnmargen! die wollten im computing bereich einiges reißen mit fermi, mit angeblicher überragender performance pro watt! seit dem sind die spezifikation der tesla fermis aber von der performance her gut 50% gesenkt worden, und die stromaufnahme um gut 30% gestiegen! auf dauer wird nv aber nicht davon leben können nur im high end und mainstream vertreten sein zu können. der mobile bereich fällt spätestens mit amd fusion ganz weg, und der chipsatzmarkt ist schon weggefallen! von daher liegt handlungsbedarf ganz klar bei nvidia, die sitzen in einer ziemlich blöden zwickmühle. amd muss auch handeln, die müssen vielmehr bei support und marketing machen, das stimmt schon!

und so dermaßen über leute die sich halt nicht für pc's interessieren herzuziehen, ist auch ziemlich dämlich, besonders als mm mitarbeiter, die man dank der nicht vorhandenen kenntnisse ebenfalls in die DAU schublade stecken kann. anstatt initiative zu ergreifen die leute richtig zu beraten, sagt man lieber nicht zuviel, bevor fragen kommen die die eigenen kompetenzen überschreiten...

aber alles in allem denke ich wird der refresh chip ganz gut, aber ati hat soviel zeit jetzt gehabt das die innerhalb kürzester zeit die performance krone zurück gewinnen. und das ist ein harter schlag für nv, die so selbstverliebt bis zum erscheinen von fermi sich selbst so gefeiert haben, und den monsterchip überhaupt bringen würden^^ und was ist geblieben? dieses jahr geht die performance krone vermutlich das komplette jahr an ati^^
 
Naja, also eigentlich ist so eine Dual Karte aus 2x GTX 470 mit Core Takt von 550MHz für mich gut vorstellbar...

Standard sind ja doch bei dieser 600MHz, oder? Und die GTX 400er lassen sich nahezu bei jeder Karte undervolten und gleichzeitig übertakten. Bei meiner 480er hab ich die Standard 1,038V. Hab die mit 1,025V auf 725/1450/1900MHz laufen lassen und nun halt bei 1,000V! auf 750/1500/1800... hier läuft der Speicher leider nur unter Referenz, ist aber auch egal, da die 400er bei der Speicherbandbreite "über"-ausgestattet sind, dass bedeutet, ich habe unter 1% weniger Leistung wegen dem geringeren Speichertakt, aber 7% mehr Shaderleistung, bei geringerem Verbrauch! Von 1,038V auf 1V macht ca. 30W weniger aus, trotz Übertaktung. Dazu gibt es auch viel im hardwareluxx-Forum zu lesen. Und die haben dort bessere Werte als ich, hab wohl eine schlechte 480er erwischt... Die 470er laufen dort oft mit von Standard ~0,975V und den 600MHz auf 650MHz mit 0,95V oder weniger. Wenn man diese nun auf vielleicht 550MHz setzt, bei 0,925V oder so, dann ist so ne GTX 495 bestimmt für 500€ realisierbar, die dann aber nicht, wie sonst bei nvidia üblich, übertaktbar wäre, da sie dann so ziemlich ausgereizt ist, was ja auch kein Problem darstellen sollte. Ging ja bei ATI auch so mehrere Jahre gut, siehe 9800Pro/XT und flg.
 
rumpel01 schrieb:
Könnte man sich bitte wieder dem eigentlichen Thema der News zuwenden? Die Finanzdaten nvidias oder deren Konkurrenzfähigkeit tangiert dies wirklich nur sehr am Rande. ;)
Natürlich könnten wir, aber da gibts nicht viel über die Dual-Chip-Karten von Nvidia zu reden.

Die Sache ist, Fermi-Single braucht mehr Strom als die Dual-RV870 und die PCIe 2.0 Spedifikationen und das mit weniger Spannung als Dual-RV870.

Eine Dual-Fermi-512 @ 40nm wird es mit echten 300 Watt-TDP nie geben. Man darf ja auch nicht an SLI vergessen, die eben keine 100% Effizienz hat.

Zwar wird es das B-Stepping geben, aber in der Vergangenheit brauchte Nvidia auch schon das B2 bzw. B3 - Stepping um sich von der Konkurrenz (auch eigenen Konkurrenz) absetzten zu können.
Von daher würde ich mir von B1 im Herbst nicht zu viel erwarten.

Aber es ist schon seit Monaten so.
Die Erwartugnen sind bei Nvidia immer paar Wochen vor der Einführung extrem hoch und dann kommt die Ernüchterung.
Das war an einer Dual-Fermi @ April ja auch nicht anders.
 
Auwei,

Warum dieses Herziehen über Team Green? 90% aller ATI-Fanboys in diesem Forum kann es doch völlig egal sein, was Nvidia auf den Markt bringt. Ihr kauft es doch eh nicht. Faktisch ist diese Firma für euch nicht existent. Nvidia ist quasi seit Jahren tot, befindet sich auf dem Sterbeweg oder wird morgen, übermorgen oder sonstwann tot sein. Solchen Unsinn (nebenbei verhalten sich die NV-Fanboys ähnlich) liest man hier ohne Unterlass.

Derzeit orientiert sich die Firma um, der Gamer-Markt wird zusehends unattraktiver und ich erachte die Fermi-Varianten für diesen Markt eh nur als "Abfallprodukt". Man bietet was an, weil man es die letzten Jahre auch so getan hat und weiss, dass es teilweise gekauft werden wird. Die Entwicklung geht bei NVidia jedoch ganz klar in eine andere Richtung...in Bereiche, die von x86 weitaus weniger abhängig sind, als das bisherige Brot- und Butter Geschäft.

Ich freue mich jedenfalls, wenn AMD euch in Zukunft 1000 € für unnütze Karten aus der Tasche zieht, weil Nvidia diesen bald unlukrativen Markt gänzlich ad acta legen wird.
 
Zurück
Oben