News Toshiba angeblich erster Abnehmer des Nvidia Tegra 4

Patrick

Rear Admiral
Registriert
Jan. 2009
Beiträge
5.267
Der Name DigiTimes war zuletzt nicht unbedingt ein Garant für knallharte Fakten, das taiwanische IT-Branchenblatt lag aber zumindest mit einigen Tendenzen öfter richtig. Nun vermeldet man, dass ausgerechnet Toshiba der erste Abnehmer des neuen Tegra 4 aus dem Hause Nvidia sein soll.

Zur News: Toshiba angeblich erster Abnehmer des Nvidia Tegra 4
 
Ich würde mir keinen Tegra mehr holen, die Treiber werden leider nicht von Nvidia veröffentlicht.
 
Welche Treiber
 
User6990 schrieb:
Gemeint ist wohl eher der Quellcode für die Treiber.

Wodurch es Entwicklner meist verwehrt bleibt Funktionalität für neuere Android Versionen zu grantieren (großes Problem bei Tegra2 Geräten)
 
Ganz einfache Geschichte: für die dargebrachte Leistung sind die Tegra zu teuer. Ein MediaTek MT6577 mit 1GHz ist schneller und sparsamer als ein Tegra 2. Und obendrein noch billiger.
 
News schrieb:
Der Grund dafür soll aber nicht ein Exklusivabkommen oder ähnliches, sondern schlicht das ausbleibende Interesse anderer Tablet-Hersteller sein. Weder Acer noch Asus, beide verbauen den Vorgänger Tegra 3 in zahlreichen Geräten, haben sich bislang festgelegt, so DigiTimes.
Hört sich schlimm für Nvidia an.
Aber das ist genau das, was ich schon vor Monaten sagte.
Tegra 3 verkaufte sich halt nur deshalb so gut, weil alle anderen Top-ARM-SoC-Hersteller ihre Top-Modelle in 28nm produzierten und deshalb keine Hohen Stückzahlen liefern konnte.

Auch wenn die künftige Modell-Planung noch nicht abgeschlossen ist und vielleicht das ein oder andere Modell noch kommt, sieht es für Nvidia nicht gut aus, weil sie nicht mehr erste Wahl sind.
Früher wurde ein großes Tam-Tam gemacht, als Nvidia den Asus Transformer ankündigte. Aber bei der Tegra 4 vorstellung merkte man schon, dass es dafür kaum interesse gibt, weil keine Tegra 4-Tablets nicht nur nicht präsentiert wurden, sondern auch keine Hersteller erwähnt wurden. Da verwundert es nicht, wenn Nvidia fast schon gezwungen wird, eigene Tabelts & Devices (Projekt Shield) selber zu machen.

Interessant es jetzt heuer zu sehen, wie sich das in dem vor mir genannten 2013-Tablet-Selktierungs-Jahr entwickeln wird. Denn Tegra ist für Nvidia mit 40 Mio. $ immer noch ein nicht unerhebliches Verlustgeschäft.
 
Es mag schlicht daran liegen, daß der Tegra 4 am Markt vorbei konzipiert wurde. Noch gibt es keinen ausreichenden Bedarf für eine vierkernige Cortex-A15 Version, eine zweikernige zeitgleich anzubieten hat Nvidia ja versäumt.

Man wird sehen, ob Samsung mit seinem Vierkerner außerhalb des eigenen Konzerns wird reüssieren können. Klug genug einen Zweikerner anzubieten waren sie jedenfalls!
 
Tegra 4 kann also nicht in 7" verbaut werden. Aha. Aber mit Tegra 3 soll dies ohne Probleme möglich gewesen sein. :freak:
Laut nVidia verbraucht Tegra 4 bei gleicher Leistung wie Tegra 3 bis zu 45% weniger Strom.

Aber hey, Digitimes.com wird es wohl schon besser wissen. :rolleyes:
 
Sontin schrieb:
Laut nVidia verbraucht Tegra 4 bei gleicher Leistung wie Tegra 3 bis zu 45% weniger Strom.

Fällt dir was auf? Der Tegra 4 mag bei gleicher Leistung vielleicht weniger verbrauchen (wenn auch wohl nicht 45%), das hilft dir aber nichts wenn dein Handy beim Spielen anfängt zu schmelzen. Um keine höhere Wärme zu bekommen, müsste man den Tegra 4 also runter takten und dann hätte man schlicht einen etwas schnelleren, aber teureren Tegra 3.
 
Wenn Tegra 4 bei gleicher Leistung bis zu 45% weniger verbraucht, dann liefert er bei selbem Verbrauch erheblich mehr Leistung.
Alleine durch 28nm wird der Stromverbrauch um mindesten 33% reduziert.

Ehrlich, statt jeden Schwachsinn im Internet als News zu verkaufen, sollte man sein Denkapparat einsetzen und mal angebliche News ignorieren.
 
Sontin schrieb:
Tegra 4 kann also nicht in 7" verbaut werden. Aha. Aber mit Tegra 3 soll dies ohne Probleme möglich gewesen sein. :freak:
Laut nVidia verbraucht Tegra 4 bei gleicher Leistung wie Tegra 3 bis zu 45% weniger Strom.

Marketing = Rosinen

Das hier was nicht so ganz passen kann zeigt schon der in 32nm produzierte Dual A15 von Samsung. Bis zu 4,x Watt unter CPU Last (1,7Ghz).

Wie kommt man also bei Nvidia auf solche Vergleichswerte ? Beispiel: Die älteren A9 SoCs haben im Gegensatz zum neuen A15 alle einen recht miserablen Speichercontroller. I/O intensive Anwendungen auf zwei ARM A15 Kernen bei moderaten Frequenzen (28nm) gegen vier A9 (40nm).

Ist ein netter theoretischer Vergleich welcher aber nicht die TDP von vier aktiven A15 Kernen wie in Tegra 4 unter Last widerspiegelt. TSMC (28nm) ist zwar sicher besser als Samsung (32nm) aber Wunder sind hier trotzdem keine zu erwarten. Womit Tegra 4 auf jeden Fall in der Kategorie um 5 Watt landet.

5 Watt TDP sind bei 10 Zoll Tabs recht nahe am Limit. Deutlich darüber hinaus (~8 Watt) wird eine aktive Kühlung notwendig.
 
Zuletzt bearbeitet:
YforU != Realität.

28nm gegen 40nm. Da muss man einfach auch nichts mehr sagen. Bei gleicher Leistung ist Tegra 4 erheblich stromsparender. Aber laut YforU verbraucht eine GTX680 wohl dann auch mehr Energie als die GTX580...

Bei 2,6x mehr CPU und bis zu 6x mehr GPU-Leistung wird auch niemand erwarten, dass Tegra 4 in der schnellsten Ausbaustufe nicht mehr Strom benötigt. Dann muss Tegra 4 eben für unterschiedliche Formen gebinnt werden. Ist auch nichts neues, wie man schon bei Tegra 3 gesehen hat.
 
Die IPC Steigerung bei A15 ist alles andere als umsonst. Oder wie erklärst du dir dann das ein ARM A7 (28nm) um Welten effizienter ist als ein A15 (28nm) ;)

Effizienter = Energiebedarf um einen Task abzuarbeiten.
Seite 3: http://www.arm.com/files/downloads/big.LITTLE_Final.pdf

Das sag übrigens nicht ich sondern jedes ARM White Paper. Was Effizienz angeht ist A15 ein massiver Rückschritt und genau deshalb gibt es den ISA kompatiblen A7.

A15 ist auf Performance getrimmt und bei solchen Ansätzen geht die Effizienz immer überproportional den Bach runter.
 
Zuletzt bearbeitet:
Schön. Was hat das jetzt mit Tegra 4 zu tun?!
Tegra 4 ist für alle Formen ab 4,x Zoll gedacht - darunter natürlich 7" Tablets. Vorallem in Anbetracht der Tatsache, dass auch 7" Geräte 1200p Displays erhalten, wird niemand einen A7 Chip verbauen wollen. Siehe dazu auch A5 mit A9 und quälend langsame Leistung durch gerademal 1000MHz.

Achja: Man kann A15 auch mit 700MHz betreiben und erreicht dabei die Leistung von ca. einem 1300MHz A9 Core bei deutlich besserem Verbrauch dank
28nm, geringer Takt, geringere Spannung.

Das zeigt dir ARM eben nicht: Wie sich A7 mit doppelter Taktrate gegen A15 schlägt.
 
Ein weiteres Problem: Nach eigenen Angaben kann die auf der CES vorgestellte Version des Tegra 4 nicht in Smartphones verbaut werden, erst zu einem späteren Zeitpunkt soll eine entsprechende Variante folgen.

Stimmt nicht, Huang meinte in der Keynote dass sie sehr wohl den Tegra4 in Smartphones verbauen. Vorerst nur in China mangels LTE. Es ist durch die HDR features ja eigentlich prädestiniert für Smartphones.

Er meinte dass Tegra4 auch im rest der Welt in Smartphones eingesetzt wird sobald sie ihr software Modem mit LTE produktionsreif haben.
 
Sontin schrieb:
Wenn Tegra 4 bei gleicher Leistung bis zu 45% weniger verbraucht, dann liefert er bei selbem Verbrauch erheblich mehr Leistung.
Alleine durch 28nm wird der Stromverbrauch um mindesten 33% reduziert.
https://www.computerbase.de/2013-01/nvidia-stellt-tegra-4-als-schnellsten-quad-core-soc-vor/
Nvidia gibt aber auch 3,5 fach und 10fach schneller an und da hört sich bis zu -45% bei gleicher Leistung garnicht mehr so viel an. (=weil 1,7 fach bzw. 5 fach höherer Stromverbrauch)

z.B.: Die Steigerung von 12 auf 72 Shaders hört sich viel an, aber die enorme Steigerung kann eben dadurch möglich sein, weil das Front-End noch überdimensioniert ist (und bei 12 erst recht), sodass Nvidia nur Shaders reinfügen muss. (Das selbe Problem hatte AMD damals auch mit R600, wo AMD beim RV770 dann nur mehr 6 SIMD hinzufügen musste, ohne das Front-End zu vergrößern.)

Also, bis zu sowie ohne genauen Performance-Definitionen können die bis zu 45% alles oder nichts bedeuten.

Ehrlich, statt jeden Schwachsinn im Internet als News zu verkaufen, sollte man sein Denkapparat einsetzen und mal angebliche News ignorieren.
Da stimmen dir die meisten zu.
Aber da Nvidia eben nichts genaues zum Stromverbrauch und Modellen sagten, hat man eben einen sehr großen Spekulations-Raum.
 
YforU schrieb:
Die IPC Steigerung bei A15 ist alles andere als umsonst. Oder wie erklärst du dir dann das ein ARM A7 (28nm) um Welten effizienter ist als ein A15 (28nm)...

A15 ist auf Performance getrimmt und bei solchen Ansätzen geht die Effizienz immer überproportional den Bach runter.
Da frage ich mich schon was bei den ARM Chips anders ist im Vergleich zu den x86 CPU von Intel oder AMD.

Kann die Leistungsaufnahme bei den ARM Chips nicht so gut beeinflusst werden? Funktioniert der Ansatz Energiesparen über den Ansatz Taktfrequenz u. Betriebsspannung absenken bei diesen schlechter im Vergleich zu derzeitigen x86 CPUs?

Weshalb sonst dieses big.little Konzept bei Tegra 4, nur um Energie zu sparen bei geringer Auslastung?
 
WinnieW2 schrieb:
Da frage ich mich schon was bei den ARM Chips anders ist im Vergleich zu den x86 CPU von Intel oder AMD.

Kann die Leistungsaufnahme bei den ARM Chips nicht so gut beeinflusst werden? Funktioniert der Ansatz Energiesparen über den Ansatz Taktfrequenz u. Betriebsspannung absenken bei diesen schlechter im Vergleich zu derzeitigen x86 CPUs?

A15 ist eine ganz andere Kategorie als noch A9 und damit nicht als direkter Nachfolger zu sehen. Auf A15 aufbauend will man bei ARM auch Produkte bedienen welche eine höhere Performance als Smartphones und simple Tabs benötigen. Diese massive Steigerung der IPC benötigt massig Transistoren und das schlägt sich in der Verlustleistung nieder. Aus dem Grund wurde für Low-Power parallel der A7 entwickelt welcher zur gleichen ISA kompatibel ist. Mit einem Design ist das nicht unter einen Hut zu bringen.

Weshalb sonst dieses big.little Konzept bei Tegra 4, nur um Energie zu sparen bei geringer Auslastung?

Das big.Litte Konzept bei Nvidia hat mit dem Original von ARM wenig gemeinsam. Es ist mit sehr viel weniger Ressourcen (Entwicklung) umsetzbar und gleichzeitig sind so Produkte etwas schneller auf den Markt zu bringen. Der Haken ist das es für den Scheduler nicht transparent ist (vier A15 + ein Low-Power A15) und nur im Leerlauf und bei sehr geringer Last Einsparungen bringt.

big.Little bedeutet bei ARM das für jeden A15 Kern auch ein A7 vorhanden ist. Bei geringer bis mittlerer Last ist der A7 aktiv und erst bei vergleichsweise hoher Last wird auf den zugehörigen A15 umgeschalten. Jeweils ein A7 und A15 bilden damit ein Paar.

Beispiel:
A7 taktet je nach Last von 300Mhz bis 1Ghz (A15 Kern deaktiviert). Mehr Leistung nötig, Umschaltung->
A15 taktet je nach Last von 700 Mhz bis 1,7 Ghz (A7 Kern deaktiviert).

Ein A15 Quadcore mit vier A7 kann also zum Beispiel einen A15 bei 1,2Ghz aktiv haben und einen A7 eines anderen Paares bei 500Mhz. Alles andere ist Power-Gated. Bei Nvidia geht das nicht denn hier müssen dann zwei A15 auf 1,2Ghz laufen während der Rest Power-Gated. Der Companion Core kann nur alleine betrieben werden.

Gleiche Kerne müssen wenn aktiv immer mit der gleichen Frequenz laufen. Dynamische Frequenzen gibt es bei zusammenhängenden ARM CPU Blöcken ( A15 und A7 sind getrennt) bisher nicht.


Sowohl Qualcomm als auch Apple sind hier mit ihren eigenen zur ARM ISA kompatiblen Designs einen anderen Weg gegangen und können die Powerstates unabhängig steuern. Deren CPUs sind genau in der Mitte zwischen Smartphone und Tab platziert (Performance zu Leistungsaufnahme). Passt damit perfekt in das (jeweilige Produkt) Portfolio und ist der Vorteil einer eigenen Entwicklung.

Um es auf den Punkt zu bringen haben alle SoC Hersteller welche die CPUs nicht selbst entwickeln sondern bei ARM (IP Cores) einkaufen aktuell wenig zu lachen. Entweder komplexe SoC mit A7 und A15 Kernen oder Dual A15 mit der Brechstange ins Smartphone quetschen. Die (günstige und einfache) Alternative wird in einigen Fällen Quad A7 ganz ohne A15 sein.

Etwas entspannen wird sich die Situation erst wieder beim nächsten Wechsel des Herstellungsprozesses. Für 28nm ist A15 bezogen auf Smartphones grenzwertig.
 
Zuletzt bearbeitet:
Zurück
Oben