News Nvidias x86-Prozessor kommt in 2-3 Jahren

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
Im Rahmen einer Analystenkonferenz hat Nvidia so deutlich wie nie zuvor angedeutet, dass das Unternehmen an einem eigenen x86-Prozessordesign arbeite um damit in einer klar definierten Marktnische in Konkurrenz zu AMD und Intel treten könnte.

Zur News: Nvidias x86-Prozessor kommt in 2-3 Jahren
 
Also wieso will sich Nvidia ausgerechnet auf den Atommarkt stürzen? selbst AMD wollte das ja nicht, weil der nicht so rentabel ist
und in 2-3jahren kann noch viel passieren
 
haben die überhaupt eine Lizenz bzw. Berechtigung auf den x86 bzw. IA32 Befehlssatz von intel zurück zugreifen?
Zudem hat Nvidia in meinen Augen bis jetzt noch nie mit Energie-/oder Ressourcensparenden Werkzeugen gearbeitet. (Siehe Die- und Strukturgröße in ihren Produkten)
 
Was ist mit Intel die Nvidia lieber verklagen anstatt ihnen eine x86 Lizenz zu verkaufen?

BTW: es gibt seit heute die HP Pavilion DV2 in 3 Varianten mit AMD Athlon Neo Prozessor. Ich weiss nicht wieso es dafür keine News auf CB gibt, aber AMD mischt nun langsam also doch mit.
 
Ja endlich neue Konkurenz, früher war ja noch viel mehr aufm Markt.
Winchip, Intel, AMD, IBM ... . Einen 3ten zuhaben ist immer gut, umso billiger wirds für uns :D
Naja im highend können sie vielleicht noch nicht mitmischen, aber ich sag mal so wenn sie die Power ihrer Grakas in eine x86 CPU reinstecken könnten, das wäre doch was.

Aber erstmal Atom angriff^^
 
Nice, als ich die Idee hier vor 2 Wochen geäußert habe war sich jeder sicher, dass das abwegig sei ;)
-> Nennt mich den Hellseh-Schlumpf :evillol:
 
welches alle grundlegenden Komponenten für einen vollständigen Rechner in einem Chip vereint

Ohne die dem Zitat voran gehenden Namen zu kennen, verstehe ich das als CPU+GPU in einem Chip, was ja nicht wirklich dem Atom entspricht.
Sollte ich das so richtig verstanden haben, scheint mir der Schritt von Nvidia richtig und nötig zu sein.
Auf Dauer wird Nvidia sonst zwischen Intel (die auch in den GPU Markt vorstoßen wollen, und damit Chipsatz+CPU+GPU haben werden) und AMD/ATI zerrieben.

Und das gerade in dem Einstiegssegment. Ohne komplette Plattformen wird in der Zukunft nix mehr gehen.
Und wenn AMD und Intel die GPU erfolgreich in die CPU holen, bleint Nvidia gar nix mehr...

haben die überhaupt eine Lizenz bzw. Berechtigung auf den x86 bzw. IA32 Befehlssatz von intel zurück zugreifen?
Eben war da noch ne andere News zu (etwas spekulativer) in der auch erwähnt wurde, dass eben diese Rechtslage nicht ganz klar wäre, weil Patente eigentlich nach 20 Jahren verfallen.
http://ht4u.net/news/20083_nvidia_kuendigt_x86-prozessor_an/

Gruß

Doc
 
Naja, ob ein ARM basiertes Design eine große Hilfe bei der Entwicklung eines stromsparenden x86 SoC ist, wage ich mal zu bezweifeln. ;)
Immerhin kommen ARM CPUs mit recht wenigen Transistoren aus und sprechen natürlich eine völlig andere Sprache (RISC Befehlssatz). Die fehlende x86 Lizenz kommt dann auch noch hinzu.
Ich würde mich zwar sehr über ein Quadcore ARM Cortex-9MP in einem Netbook mit Ion- artigem Chipsatz freuen, aber das Teil wäre eben nicht x86 kompatibel (was mir unter Linux und bei dem geringerem Stromverbrauch im Vergleich zum Atom wurscht wäre).
Allerdings halte ich es für wahrscheinlicher, daß NVidia mit VIA an einem DC Nachfolger für den Nano arbeitet, da man dann schon ein relativ gutes x86 Design und den entsprechenden Chipsatz dafür hätte.
Eine Alternative wäre zwar eine x86 Emulation à la Transmeta, aber soweit ich weiß, hat NVidia nur die Rechte an deren Stromspartechnik gekauft (Longrun).
 
Crux --- was hast du denn gegen 55nm Strukturbreite im Grafikkartenmarkt?

Nur ATI hat bisher 2 Low-End Karten (sind die überhaupt schon draußen?) mit 40nm. Also ist Nvidia dort mal noch vorn dabei.
Wenn man sich dann bei ATOM noch den Grafikchipsatz anschaut.... hust.... 130nm... naja, wird einem ja übel.
Dieses Jahr wird auch schon die erste 40nm-GeForce kommen.

In 2-3 Jahren werden sie also noch gutes hinkriegen. ;) ;) bestimmt.



Wenn sie nun noch den "ATOM"-Markt betreten, dann wäre das ja super.
Endlich mehr Konkurrenz. Dazu hat Nvidia erkannt, dass die Gesamtperformance nicht mehr vom Prozessor abhängig ist. Momentane Prozessoren reichen für alles.
Nun kommt die Grafik an die Reihe. Office kann jeder Pentium III. BluRay nicht.
 
So das wars! Das Ende der klassischen CPU wie wir sie heute kennen! CPU und GPU verschmelzen wobei von der CPU nur der X86 Part gebraucht wird und die GPU die "Drecksarbeit" erledigen darf. :D

Dachte eigentlich für Netbooks braucht man noch eine kleine klassische CPU, aber sogar bei den Netbooks baut man keine normale CPU mehr sondern eine CPU/Chipsatz/GPU Kombi...

Wird bestimmt ein netter Kampf in einem völlig neuen Einsatzbereich, AMD Fusion v. Nvidia X86-GPU Plattform v. Intel Larbee und co.

AMD und NV haben die besten Karten weil sie ja schon verdammt viel Erfahrung mit parallel Computing gemacht haben, bin ja gespannt ob der Larabee da mithalten kann.

Endlich wirds wieder so richtig spannend und die Karten werden vollkommen neu gemischt, ob Intel seine Marktführerschaft behaupten kann wird sich erst noch zeigen.

MfG Kasmo
 
Zuletzt bearbeitet:
Hmm, kam da Nvidias ersten Reihe nicht "GPUs sind für die Zukunft wirkungsvoller als CPUs" ?

Ich bin immer noch der Meinung das Nvidia sich erstmal auf momentane Projekte konzentrieren soll und nicht so schnell expandieren sollte wie die momentan aufm Trip sind. CUDA hat sich nocht nicht vollständig auf dem Markt etabliert, Physx gibt es nun auch schon einige Jahre und dies hat sich auch noch nicht wirklich etabliert.

Kurz: Nvidia bleibt bei GPUs!
 
Zuletzt bearbeitet:
Logischer und richtiger Schritt.
Mit dem Atom wie wir ihn heute kennen hat Nvidia das bestimmt nicht gemeint.
Der soll ja erst in 2,3 Jahren kommen mit den Verbrauch und Preis eines ATOM von heute und der leistung eine guten Core 2. Denk ich mal.
Dann wird da auch ein Schuh draus.
Denke da an komplette Motherboards für schmalles Geld die dann in Handys (ohne MB), mini Laptop, Mutlimedia stations etc. bis hin zu NAVi (allgemein Automobilebranche etc.) verbaut werden.
Ein großer Markt.
 
Kurz: Nvidia bleibt bei GPUs!
Was macht dich so sicher, dass es GPUs, wie wir sie heuten kennen noch in, sagen wir, 5 Jahren gibt?

Wenn (oder besser falls) Intel und AMD eine CPU/GPU 1-Chip-Lösung durchsetzten, in Kombination mit einer entsprechenden allgemeinen Schnittstelle (ala DirectX, bzw. DirectX wird halt zu dieser Lösung), ist NVidia tot.
Intel (steigt ja langsam drauf ein) und AMD (hat mit ATI schon alles an Bord) könnten das wohl locker durchsetzten (sofern es in der Praxis funktioniert).

Und Intel würden keine kartellrechtlichen Probleme stoppen, da man immerhin einen Zweianbietermarkt behalten würde.
Da Intel AMD ja fest im Griff hat (ohne ein Interesse AMD pleite gehen zu lassen, eigene Zerschlagung würde drohen) wäre das für Intel eine gute Möglichkeit zu expandieren.
Auch für AMD wäre das ein gutes Geschäft, da man dann ausser Intel (die AMD nicht pleite gehen lassen dürfen), keine Konkurenz mehr hat.

Gruß

Doc
 
Zuletzt bearbeitet:
Blutschlumpf schrieb:
Nice, als ich die Idee hier vor 2 Wochen geäußert habe war sich jeder sicher, dass das abwegig sei ;)
-> Nennt mich den Hellseh-Schlumpf :evillol:

wer dauernd wirres Zeug von Sich gibt, der hat eben irgendwann auch mal recht....



zur News:
Es geht immer mehr in Richtung 1 Chip Lösung. und damit meine ich nicht nur CPU/GPU.
in einigen Jahrzehnten wird es nur noch einen Chip geben der Alles Integriert. (vom Arbeitsspeicher bis zum i/o Controller. Aber auch kleine Treiber wären denkbar...)
 
Auf Dauer wird Nvidia sonst zwischen Intel (die auch in den GPU Markt vorstoßen wollen, und damit Chipsatz+CPU+GPU haben werden) und AMD/ATI zerrieben.

Das sehe ich auch so. Der "streit" schwelt ja schon länger. Intel möchte mehr und mehr kerne bauen und am liebsten auf ein paar davon auch mal grafik berechnen. Nvidia möchte natürlich nur 2 oder 4 kerne und den rest die graka machen lassen. Im leistungsmäßigen low end bereich einzusteigen, ist sicher sinnvoll, da vor allem mobilität im trend liegt.

Kurz: Nvidia bleibt bei GPUs!
never ever.

Physx gibt es nun auch schon einige Jahre und dies hat sich auch noch nicht wirklich etabliert.
Noch ein grund mehr für nvidia umzudenken ;)
 
wow, das ganze halte ich für eine sehr gute idee! vorallem wenn nvidia dann einzelne CPUs entwickeln würde, die auf anwendungen mit GPU-computing maßgeschneidert werden und somit die höchste effizienz aus CPU und GPU herausgeholt werden kann!

sehr guter ansatz! :)
 
Das kommt 2 Jahre zu spät. Die Mittel von Nvidia werden nicht mehr ausreichen um solch eine CPU/GPU auf den Markt zu bringen. Zumal Nvidia dazu auch physikalisch wachsen müsste bei weniger Gewinn und Umsatz? Und dann wird das neue Standbein auch gleich Gewinn einfahren müssen weil Nvidia keinen langen Atem mehr haben wird um 3 oder 4 Jahre auf Gewinne zu warten die daraus resultieren sollen. Zumal die Konkurrenz nicht schläft und die ist nicht nur Intel und AMD. Von Vorsprung dieser will ich hier erst gar nicht Anfangen zu schreiben. Alleine der Markt Einstig wäre ein Akt der Verzweiflung. Gegen 32nm Atoms oder Nanos anzugehen mit 40nm Chips, den 32nm wird ganz sicher nicht ab Start klappen 2012, na Klasse. Egal, soll Nvidia auch sein letztes Geld verpulvern. Sie haben AMD falsch eingeschätzt, sie haben den GPU Markt falsch eingeschätzt, sie haben VIA falsch eingeschätzt und völlig am Markt vorbei Produziert. Von falschen Lötzinn will ich erst gar nicht schreiben.
Nvidia wird dann wohl von Intel übernommen, sofern AMD und VIA weiterhin bestehen, oder VIA wird dann Nvidia aufkaufen. Ich dachte ja immer, das passiert anders herum aber eventuell kommt noch der Apfel und schnappt sich das vorher und dann wird es wohl erst wieder richtig Interessant am Markt. Ein Mini Apfel mit eigener Hardware. Die kann dann auch in 40nm daher kommen, der Preis wird das schon "regeln". Na dann... guten Appetit.
 
Das diese Aktion kommen MUSSTE, was an dem Tag klar, als ATI durch AMD übernommen wurde. nVidia hat sich seitdem zunehmend in den Freak-Markt mit zwar großen Spannen aber winzigen Stückzahlen zurückgezogen und die derzeitigen Onboard-Grafikchips und zukünftig in die CPUs integrierten Grafikeinheiten werden einen reinen "Grafikkartenhersteller" so überflüssig machen, wie es heute Hersteller von Soundkarten sind. Wenn Intel wirklich dank "Larabee" bald nicht mehr auf einen Partner für anständige Grafikleistung angewiesen ist, wird nVidia ein *gigantisches* Problem kriegen, die werden dann nämlich komplett aus dem Massenmarkt verschwinden. heute einen x86er für "in 2-3 Jahren" anzukündigen, ist mehr als mutig; denn in einem Jahr werden wir vermutlich intels CPU mit integrierter Grafikeinheit sehen und der Markt für kleine Grafikkarten wird dermaßen kollabieren, dass einem die Ohren schlackern. Das ist übrigens auch der Grund, wieso nVidia bei seinen kleinen Karten nichts mehr macht: Es lohnt nicht, denn die haben eh nur noch 1 Jahr zu leben.
 
@TheK
Schwachsinn, ich bezweifle dass Intel auf Anhieb mittels Labree überhaupt in die Gefilde einer G92 kommen wird, von Treibern mal ganz zu schweigen.

Es wird für nVidia zwar schwer an die x86 Lizens kommen, aber in ein zwei Jahren geht ohne 64-bit gar nichts mehr. Tja und wem gehört diese Erweiterung, auch AMD64 genannt?
Es wird wohl stimmen, dass das Patent für x86 nach 20 Jahren am 10. April 2009 wohl endgültig ausläuft, aber es gibt da so schöne Sachen wie SSE,MMX etc. ohne diese Erweiterungen ist der Prozessor einfach nichts wert. Da nVidia sich in letzter Zeit nicht besonders gut zu Intel und AMD verhalten hat, ist nV einfach in der Sackgasse, die beiden werden bestimmt nicht kooperieren
Für nV wird es schon schwer sein die nächsten zwei/drei Jahre zu überleben, einen x86 werden wir von denen niemals sehen!
 
Ich finds gut.
Erst mal im Büro/Client/Nettop Rechner Markt Fuß fassen und dann etwas später den High-End Markt anpeilen.
Go, Go, Go Nvidia!
 
Zurück
Oben