News Tegra für Nvidia bald die Hälfte des Geschäfts?

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.615
Der Grafikchipspezialist steckt derzeit etwas in der Zwickmühle: Zwar hat man durchaus sehr gute GPUs im eigenen Portfolio, ein Prozessor fehlt den Kaliforniern aber. Dadurch geraten diese unter Druck, weil AMD und Intel beides anbieten.

Zur News: Tegra für Nvidia bald die Hälfte des Geschäfts?
 
Gibt es denn nun schon Smartphones damit? Sollten ja wohl welche von HTC kommen aber bisher konnt ich keins finden...könnte mein Iphone ersetzten, das ist ja mittlerweile nen einheitsbrei geworden.
 
genau, wann kommen die dinger raus?
 
Nvidia steht das Wasser echt bis zum Halse...der Artikel legt da echt den Finger auf die Wunde. In wenigen Jahren werden viele Grafikeinheiten in die CPU mit eingebunden sein, und da Nvidia keine CPU hat, fliegen die raus. Darum verstehe ich auch nicht, warum nichts aus der Kooperation zwischen Nvidia und VIA geworden ist. VIA alleine ist zu schwach um viel laenger zu ueberleben, Nvidia hat ein Zukunftsproblem.

Jetzt muss es in der Tat Tegra rausreissen. Aber Nvidia ist da evtl. ein wenig zu optimistisch. Zum einen zielt Intel mit dem Atom (und seinen Nachfolgern) auf den gleichen Markt wie Nvidia mit Tegra. Zum anderen ist Tegra nicht Windows-Kompatibel. Und ob sich der Verbraucher (zumindest bei Netbooks) an was anderes als den Marktfuehrer gewoehnen will ist mal fraglich.

Ich faends gut, denn da erwaechst ' ne neue Chance fuer Linux, sich Maerkte auf dem Desktop zu erschliessen. Wenn ich Nvidia waere, ich wuerde schon laengst die ein oder andere Million in Linux oder Android pumpen.
 
Solange die integrierten Grafiklösungen nicht einen unglaublichen Leistungssprung machen wird NVidia auch noch GKs verkaufen. Insbesondere da ihr Geschäftsfeld nicht allein auf den Privatbereich beschränkt ist. Aus einer solchen Tunnelsicht immerso düstere Progonosen abzugeben ist zur Zeit wohl in und eine Teil des Problems und seiner Ursachen.

Edit wenn der Tegra im Zune HD landen soll der ja wohl mit einer art Win7 läuft scheints zumindets machbar zu sein.
 
@die.foenfrisur: Falscher Fred glaub ich ;)

OLED News eins weiter...

@Topic: Na wenn der gute Mann da mal nicht zu optimistisch ist. Die Konkurrenz schläft nicht, ARM bringt z.B. ein Dualcore Modell raus im nächsten Jahr.
 
aber arm ist auf grafikeinheiten angewiesen und da hat nv im mom die nase wohl klar vorne ;)
eine fusion der beiden könnte noch interessant werden. sowas hätte über htpc und office-pc auch chancen im "normalen" computersegment. ein arm dualcore mit 1,6 ghz und 1,5 watt verbrauch mit einer gf9400 @ 40nm.... son ding würde das nettop-segment komplett aufmischen. ;) allerdings gibt es da einschrenkungen bei der software; os: windows-mobilde ableger oder linux, angepasste anwendungsprogramme und eine modifizierte version der spiele wären erforderlich, wenn das ganze denn auch als normaler pc genutzt werden soll. browser, office und multimedia-software hingegen gibt es ja schon.
vieles kann, nix muss... ;)
 
blangone schrieb:
In wenigen Jahren werden viele Grafikeinheiten in die CPU mit eingebunden sein, und da Nvidia keine CPU hat, fliegen die raus. Darum verstehe ich auch nicht, warum nichts aus der Kooperation zwischen Nvidia und VIA geworden ist. VIA alleine ist zu schwach um viel laenger zu ueberleben, Nvidia hat ein Zukunftsproblem.

Das problem ist wenn die eine kooperation eingehen als 2 getrennte Firmen würden beide
nicht so erfolgreich sein als eine große, weil es immer meinungs verscheidenheiten enstehen würden im Managment weil jeder im seinen sinne der Firma wirtschaftet als im wohle seine Firma. Wenn Via und Nvidia Fusionieren bringt das auch nix weil die, die x86 Lizenz verlieren würden weil Intel mit Via das abgeschlossen hat und nicht mit Nvidia dadurch kann Nvidia keine CPU herstellen obwohl das Know-How da wäre bzw. ist die bestimmt jetzt schon da aber die Lizenz fehlt einfach. Intel würde ein Teufel tun und Nvidia eine x86 Lizenz verkaufen.
 
Die "Nase vorne" bei ARM basierten SoCs und leistungsfähiger GPU hat PowerVR mit dem SGX. Dieser wird in Form des OMAP 3430 nicht nur ausgeliefert sondern bereits im Palm Pre verbaut. Auch im Iphone 3GS befindet sich der SGX, wobei die Vorgänger ebenfalls über einen älteren PowerVR MBX lite verfügen.

Mehr dazu:
http://anandtech.com/gadgets/showdoc.aspx?i=3579&p=3

Architekturbedingt hat PowerVR in diesem Marktsegment auch auf lange Sicht einen deutlichen Vorteil denn der wichtigste Faktor ist die Energieeffizienz.

Mir ist nicht verständlich wie Nvidia zu der Feststellung kommt mit Tegra einen signifikanten Marktanteil erreichen zu können. Die Herstellerliste an ARM SoCs ist beinahe endlos und diese können sich bei PowerVR die IP in der gewünschten Ausbaustufe lizenzieren und in ihre eigenen Chips integrieren. Solange Nvidia Tegra als kompletten SoC anbietet ohne den GPU Part anderen Herstellern anzubieten wird daraus kaum etwas werden.
 
Zuletzt bearbeitet:
da wär ich mir auch nicht so sicher. die architektur von power vr ist nicht für komplexere dinge, die zb direkt x oder der gleichen verlangen, optimal ausgelegt. und wenn ich mir nur mal das tempo der entwicklung der handy-spiele anseh (kiddies sind ja eine hauptzielgruppe), dann könnte es power vr da bald so gehn wie im pc-markt auch: sie können nicht schritt halten und verschwinden in der versenkung.

bald soll z. b. der nf9400 auf 40nm geshrinkt werden. wenn man das ganze ein wenig stutzt und takt und voltzahlen reduziert um ein ähnliches niveau wie der sgx zu haben, dürften sehr interessante verbrauchswerte entstehen. nicht zu vergessen: der nf9400 ist chipsatz und gpu in einem chip!
für smartphones und co können pci-e-controller und der gleichen komplett gestrichen werden. ich bezweifle, dass wenn leistung gefragt ist, power vr lange gegen nvidia und auch ati mithalten kann. sie haben bisher einfach in einer "niesche" recht unbehelligt überlebt.

aber wir können alle nur wild spekulieren. keiner weis, in welche richtung es auf dauer wirklich gehen wird. wer hätte schon erwartet, dass intel mit einer cpu auf pentium III niveau (atom) in 2009 noch einmal so kasse machen kann? (hier würde mich mal ein p III in 45nm-fertigung zum vergleich der leistungsaufnahme interessieren^^)
 
Zuletzt bearbeitet:
Siehe oben. Wie wäre es mit lesen ?

http://anandtech.com/gadgets/showdoc.aspx?i=3579&p=3

Blockschaltbild und Text. Der SGX kann de fakto alles und die Leistung ist einfach nach oben zu skalieren. Will aber aktuell niemand bei SoCs denn das wichtigste ist die Energieeffizienz.

PowerVR entwickelt nur IP, das ist wesentlich kostengünstiger als komplette Chips zu fertigen. Deren Entwicklungsstand ist auf gleichem Niveau wie ATI bzw. Nvidia. Im SoC Bereich eher weiter. Nur weil das Risiko Chips selbst zu fertigen nicht eingegangen wird bedeutet das nicht das PowerVR die Fähigkeit fehlt konkurrenzfähige Designs zu entwickeln.
 
Zuletzt bearbeitet:
blangone schrieb:
Ich faends gut, denn da erwaechst ' ne neue Chance fuer Linux, sich Maerkte auf dem Desktop zu erschliessen. Wenn ich Nvidia waere, ich wuerde schon laengst die ein oder andere Million in Linux oder Android pumpen.

Ja aber momentan ist der Linuxunfreundlichste Hardwarehersteller zumindest von den den großen GPU herstellern NVIDIA. Wie die jetzt plötzlich umschwenken sollten in eine massive ausrichtung auf den Linuxmarkt seh ich jetzt noch nicht.

Aber mittelfristig müssen Sie wohl nachziehen gerade weil sie momentan am schwächsten aufgestellt sind von den 3 großen. Nvidia wird sich es nicht mehr so lange leisten können als einziger Linux weitgehenst zu ignorieren.

Sie haben ja eigentlich gute vorraussetzungen, sie haben ja noch einen relativ guten proprietären treiber, wenn sie den heute oder morgen offenlegen würden wären sie damit von jetzt auf gleich an der spitze. So veraltet der Treiber immer mehr, weil man an neuen entwicklungen auf dem Sektor nicht mitmachen kann z.B. Gallium3d und all dessen vorzügen. Des weiteren ist hier nvidia hardware natürlich für viele Personen und auch Firmen ein rotes Tuch einfach weil nur vernünftige geschlossene Treiber verfügbar sind.

Man muss sich sowas mal auf nem handy vorstellen, also nehmen wir mal Android an wie von dir angesprochen, also mal angenommen nvidia schafft es solch eine hardware zu liefern die dessen specs erfüllen muss es spätestens am geschlossenen Treiber scheitern, denn Nvidia oder deren vertragspartner dürfen kein handy ausliefern mit linux + geschlossenem treiber vorinstalliert.
Und auf nem handy erstmal per "apt-get" oder änlichem nen nvidia treiber nachzuinstlalieren auch nicht über ne einfachere gui ist einfach utopisch und unvorstellbar, das kann man handy-usern nicht antun ;)
 
@YforU: power vr konnte damals bei den desktops ja auch dx8. aber auf was für einem niveau? etwas grundsätzlich zu unterstützen oder etwas optimal zu beherschen sind zwei paar schuhe. bei power vr war damals wohl mehr ersteres der fall. und ich bin mir ziemlich sicher, dass sich nach dem wegfall der konkurrenz seitens ati und nvidia da auch nicht sehr viel getan haben wird. zu dem war der sprung der architektur von dx9 zu dx10 enorm und unified shader erfordern eine komplette neuentwicklung.
ich glaube nicht an einen langfristigen vorsprung von power vr. sobald moderne spiele-ableger von konsolen und pcs auch für smartphones erscheinen, wird power vr imho ins hintertreffen geraten.
sparsamkeit ist auf dauer nicht mehr alles. die entwicklung richtung pc geht rasend vorran. ich denke, dass auch handys über kurz oder lang die technologie vom pc beherschen werden und im wesentlichen leistung vs. mobilität die unterschiede ausmachen werden.
allerdings wäre es schon interessant, die beiden architekturen (sgx vs gf9) gegeneinander hinsichtlich leistung und verbrauch zu testen.

@blackiwid: wo ist nvidia denn linux unfreundlich? Oô ich kenne keinen gpu-hersteller, der mehr resourcen auf die linuxtreiberentwicklung verwendet. falls du damit meinst, dass amd den quellcode für opensource entwickler freigegeben hat und nv nicht, das hat mit linux als solchem erstmal wenig zu tun. aber es war schon sehr gut von amd, da ati ja linux fast völlig ignoriert hat und selbst mit einer hd2900 unter linux nur 2d-anwendungen ausgeführt werden konnten, mangels treiberunterstützung für 3d....

aber mit den aktuellen ati-linux-treibern bin ich ganz zufrieden. hatte da erst bedenken gehabt.
 
Zuletzt bearbeitet:
Grundsätzlich ist mehr Leistung immer von Vorteil, wenn man aber mit einbezieht das die Auflösung kaum über 800*480 gehen wird (deutlich mehr macht bei der Displaygröße von Mobilgeräten kaum Sinn) bleiben die Anforderungen an Füllrate und Speicherbandbreite in einem überschaubaren Rahmen. Klar, Nvidia wird vermutlich eine Lösung mit deutlich mehr Rohleistung liefern. Das geht aber immer auch auf Kosten der Chipgröße und des Energiebedarfs.

Series5XT ist bereits DX10+. Im Vergleich zum Vorgänger (MBX) ist es praktisch eine komplett neue Architektur die der Entwicklung weg von fest verdrahteten Einheiten Rechnung trägt.
siehe: http://www.imgtec.com/powervr/sgx_series5XT.asp

MBX
POWERVR_MBX_lrg.gif


SGX 5XT
POWERVR_SGXSeries5XT_lrg.gif



Ich will damit nicht sagen das Tegra eine schlechte Platform wird, für mobile Spielekonsolen sicher interessant. Für kompaktere Geräte aber vermutlich weniger geeignet.

T&L auf PowerVR war allerdings über Software realisiert und nicht in Hardware vorhanden. Das ist dann doch ein Unterschied.
 
Zuletzt bearbeitet: (Blockbild eingefügt)
ich sag mal so, verkleinern geht eigentlich immer... denke dass nvidia durch reduktion der ausführungseinheiten einen leichteren stand hat sich power vr anzunähern, als es umgekehrt der fall sein dürfte.
imho dürfte nvidias architektur allein aufgrund des konkurrenzkampfs mit ati und des resourcenaufwands bei der entwicklung grundsätzlich deutlich effizienter sein. die spezialisierung für den ultramobilen bereich fehlt nvidia aber derzeit noch. hier hat power vr ganz klar einen vorsprung.

leider sind beide zu unterschiedlich, um wirkliche rückschlüsse ziehn zu können. aber wenn mal ein crysis für handys mit aa und af erscheint, dürfte der favorit imho klar sein ^^
 
Eben dabei sehe ich den Kern des Problems. Eine einfache Reduktion der Anzahl an Einheiten führt nicht zum Erfolg denn diese sind von sich aus zu komplex und damit ist deren Platzbedarf zu hoch. Der gesamte GPU Part darf nur im unteren einstelligen mm² Bereich liegen. Hier limitiert nicht nur der Energiebedarf selbst sondern auch die Chipgröße als ganzes.

Der Tegra 600 sieht vom Featureset sehr nach einem zusammengestrichenen IGP aus und da stellt sich die Frage ob der Tegra APX eine komplette Neuentwicklung ist oder auch auf bereits vorhandener IP basiert.
 
ich vermute eher letzteres. die igp sind sehr hoch entwickelt und von daher dürfte es bedeutend billiger sein, einen kleineren ableger zu erstellen, als das rad komplett neu zu erfinden. denke nv wird sich darauf konzentrieren die effiziens zu erhöhen, da sie hiervon quer durch alles gpu-sparten profitieren würden. das wäre wirtschaftlich vermutlich das naheliegenste, oder?
 
Das sollte man denken, eine neue, separate Architekturbasis für den ultramobilen Bereich wäre zumindest langfristig unumgänglich. Was sehr verwunderlich ist, Tegra ist zumindest laut Nvidia bereits seit geraumer Zeit verfügbar und trotzdem ist kein Gerät am Markt zu finden. Mit Mitte 2009 scheint das nichts mehr zu werden den mir sind auch keine Produktankündigungen bekannt.
 
Zurück
Oben