News Tegra für Nvidia bald die Hälfte des Geschäfts?

Naja solange es mehr Leistung bei weniger Verbrauch bringt warum nicht?
 
x86-Lizenz is eine Frechheit!
Das ist wettbewerbshemmend und außerdem, da alle Computer auf x86 basieren, eine Art "Monopol-Lizenz". Diese müsste an jeden vergeben werden MÜSSEN! Von mir aus mit 10% Gewinnbeteiligung an Intel, aber die Lizenz an sich darf nicht verweigert werden...

Soweit meine Meinung...
 
Gibt's nicht das Gerücht, dass Win7 auch für die ARM- Architektur kommen soll? Wenn ja, dann ist fehlendes x86 überhaupt kein Problem. Vielleicht haben dann Intel und AMD sogar die größeren Probleme, da ihre Hardware immer mehr an den Bedürfnissen des größten Teils des Marktes vorbeigeht. Wieviel % des Marktes benötigen wohl jetzt und auf absehbare Zeit Quadcores oder HighEnd Grafikkarten? Und wieviele brauchen dagegen billige, ausreichend leistungsfähige, stromsparende Lösungen?
 
Selbst wenn, Windows 7 für ARM hätte eine Softwarebasis von exakt null und jedes Programm sowie Treiber müsste neu kompiliert bzw. auch teilweise umgeschrieben werden. Und selbst das garantiert nur Funktion, nicht Leistung.

btw. Gemeint war sicher Windows Mobile 7. Das hat mit Windows 7 wenig am Hut.

Der Haken ist nicht der X86 Befehlssatz selbst sondern dessen unzählige Erweiterungen ohne die keine kompatible und konkurrenzfähige X86 CPU entwickelt werden kann. Diese gehören Intel bzw. AMD und wurden auch von beiden entwickelt. Das diese ihre Entwicklungen nicht gerne Teilen wollen ist verständlich, die Patente sind schließlich auch wichtige Kapitalwerte. Via ist dabei noch ein Sonderfall, für einen Neueinsteiger sieht es aber mehr als schlecht aus.
 
Zuletzt bearbeitet:
@Lübke:

Deine Aussagen zeigen leider, dass du dich ziemlich wenig über PowerVR informiert hast. PowerVRChips für den Desktop konnten noch nie DirectX8, du liegst da um ca. zwei Jahre falsch, DX8 gab es da noch nichtmal. Es ging damals ja auch nur um DirectX 7, selbst dazu fehlten der kyro ein paar hardwareeinheiten, wobei T&L dann in Software recht fix emuliert werden konnte. die kyro war damals trotzdem großartig, mit einem 15mio Transistoren chip hat man den 19mio geforce 2mx mit schnellerem speicher und takt glatt geschlagen und kam gut an die 25mio große geforce 2gts mit ddr speicher heran.
trotzdem liegen zwischen diesen chips soviele jahre der entwicklung, dass diese eigentlich nicht mehr vergleichbar sind. Rückschlüsse vom damaligen ausgang des GPU-Rennens (was im übrigen nicht an der Leistung PowerVRs scheiterte, sondern am Chiphersteller ST), auf die kommende Tegra vs SGX Schlacht kann und sollte man nicht ziehen!

Ein 9400 bzw. ION Chipsatz liegt im moment um mehrere Größenordnungen in der Verlustleistung über den gängigen SGX Varianten. Sicherlich kann man irgendwo die Verlustleistung reduzieren, bei gleicher konfiguration sind bei einem shrink aber mit etwas glück 50% drin, was immernoch meilenweit vom sgx entfernt ist. aber wenn du nur ein Basisverständnis der Aufbaus der G8x/GT200 Architektur hättest, würde dir das schnell deutlich machen, dass eine Einheitenreduzierung nur im Rahmen der verwendeten Bausteine (TPC, SIMD array) möglich ist.

Nehmen wir mal eine architektur aus Basis des GT200:
Kleinster Baustein ist der Textur Processor Cluster (TPC) mit einer (starken) Textureinheit, Caches und Fetcher und drei ShaderMultiprozessoren á 8 Einheiten. Ergibt 24 Shaderprozessoren.
Das ist die kleinste Mögliche Konfiguration ohne eine völlig neue Architektur zu bauen.

Beim G8x wären das immernoch 16 Shader in der minimalkonfiguration, also soviel wie derzeit die Geforce 9400 hat. Wenn du diese zahl reduzieren willst müsstest du in gleichem maße die textureinheit halbieren, bekommst du probleme mit den caches und dem fetcher/dispatcher etc.


Es ist also völliger Unsinn über eine Adaption des G8x oder GT200 designs im Ultramobilen Bereich zu reden, egal wie man es dreht und wendet, es passt einfach nicht und das ist offensichtlich.
Von einem 9400 chip, der mit müh und not und fast halbiertem takt als ionchipsatz für netbooks auf geradeeinmal 8watt gedrückt werden konnte, auf deutlich unter 1 watt zu kommen ist schlichtweg unmöglich.
und das ist genau das hauptmarktsegment des sgx. was anderes kann man sich im handybereich nicht leisten von der verlustleistung.

ich denke tegra wird im bereich für die ultraportablen geräte bzw. multimediahandys (iphoneklasse) angeboten und da ist eine grafiklösung auf basis der desktopgrafikkerne schlichtweg unmöglich.

Ich denke eher dass es sich hier um eine weiter goforce adaption mit simpler 2dbeschleunigung und rudimentären 3dfeatures handelt. die transistoren spart man sich lieber für eine leistungsfähige video und audio dekodiereinheit auf, die es möglich macht hochauflösende videos (etwa 800*480) auf handys abzuspielen.
 
bei power vr hab ich gemerkt, dass ich mich mit einem anderen hersteller (xgi) vertan hab. >.< entschuldigung dafür.
stimmt, die kyro I war sehr gut, die kyro II war leider nur noch ein aufguss der ersten version. das problem bei der kyro war aber nicht der chiphersteller allein, sondern dass einfach nach der ersten überzeugenden generation nichts mehr kam. nach der kyro II war plötzlich schluss.

beim ion-chipsatz können wir das potential wohl nur schwer abschätzen, da wir hier grade einen chipsatz mit hochgezüchteter grafikeinheit mit einem reinen stromspar-grafikchip vergleichen. erstmal müsster bei der gf9400 der ganze chipsatz weggenommen werden. dann die gpu selbst auf das notwendige maß reduziert und anschließend die taktraten und damit vor allem die spannung gesenkt werden. zwar wird man die power vr-werte nicht erreichen können, aber es geht ja auch um steigende anforderungen an den chip und hier muss power vr in die richtung von nvidia entwickeln. beide müssen sich also irgendwo annähern, um für zukünftige anforderungen gerüstet zu sein.
ich vermute dabei, dass nvidia in sachen leistung einen ganz enormen vorsprung hat und power vr daher keinen uneinholbaren vorsprung besitzt. denn power vr muss mehr leistung ebenfalls mit mehr verbrauch bezahlen. und dann kommt die effiziens der architektur ins spiel. da sich nvidia in den vergangenen jahren einem viel härterem wettbewerb zu stellen hatte und wohl auch über mehr entwicklungsresourcen verfügt, glaube ich, dass nvidia unterm strich die nase vorn hat.
aber wie ich schon geschrieben habe, können wir nur spekulieren. das ist ein vergleich wie via nano gegen phenom II
 
Microsofts Zune HD hat ihn: http://en.expreview.com/2009/06/20/microsoft-confirms-zune-hd-is-powered-by-nvidia-tegra-chip.html
“We actually wanted to confirm something; there’s been a lot of chat going on right now about us possibly putting the NVIDIA Tegra chip in the Zune HD. Gess what we did? Ok, right now, we’re going ahead and confirm that: Yes, the Zune HD does have a Tegra chip in it, which is so sick, so much better battery life, graphics acceleration, I mean, this thing is like a mini laptop in your hands.” :eek:

MfG Kasmo
 
Naja das war kein Wunder^^
Das wurde schon am Tag der News bekannt :)
 
Zurück
Oben