News Nvidia: Smartphone-Chip „Grey“ kurz vor Tape-Out

Decius schrieb:
Office bringt den Tegra3 im Surface an den Rande des Zusammenbruchs. Gibt auch genug andere Anwendungen (Instagram-Filter, JPEGS von Webseiten laden), die A9-Prozessoren deutlich überfordern und viel Verbesserungsbedarf haben.


ja deswegen bei Tegra2 bleiben und hoffen dass Tegra4 wirklich was gutes wird und "alltagstauglich" wird. :)
 
Der Begriff "Superphone" wurde meines Wissens von Nvidia beim Release der ersten Tegra2 Telefonen eingeführt.
Die modernen SoCs stehen und fallen mit der Energieeffizienz.
Der Tegra 2 hat in diesem Punkt ziemlich versagt, da die Wlan und 3G Module zu viel Strom verbraucht haben bzw. verbrauchen. Ich bin auf Tegra 4 gespannt. Ich hoffe sie bekommen das mit der Integration der Funktechnik gut hin.
 
Decius schrieb:
Office bringt den Tegra3 im Surface an den Rande des Zusammenbruchs.

Office für Win RT ist noch nicht ganz bugfrei, aber dass liegt sicher nicht an angeblich fehlenden Rechenleistung.

PhilAd schrieb:
Der Tegra kann ja nur besser werden. Ist ja immerhin das Schlusslicht.

Bei 40nm zubleiben, war für NVIDIA die einzig richtige Entscheidung, angesichts der Preise für 28nm Wafer.
Qualcomm und Apple, die mittlerweile beide jeweils mehr wert sind als Intel, können sich so teure Experimente leisten, NVIDIA nicht.

PhilAd schrieb:
Qualcomm Snapdragon und Apple A6 werden aber in den kommenden Jahren weiterhin den Markt dominieren. Sie sind die einzigen Hersteller die vom ARM Cortex Design abweichen und zeigen, dass sich das lohnt.

Die mobile Welt ist so schnelllebig, wo heute ein S4 Pro die Benchmarks dominiert, wird er zur CES anfang Januar schon wieder alt aussehen ggü. echten A15 Quads wie Tegra 4.

PhilAd schrieb:
Die haben den Quadcore wWahn erst gar nicht mitgemacht ... im kommenden Jahr werden aber auch Quads kommen, die das schaffen, was in diesem Jahr versprochen wurde.

Das S4 Pro im Nexus 4 ist ein Quadcore...
- http://www.google.de/nexus/4/
- http://www.qualcomm.com/chipsets/snapdragon

Und wenn Apple bis 2017 von Intel unabhänig werden will, werden sie sich sicher nicht ohne Not auf einem Dualcore ausruhen.
Apple konnte "sich nur kein Quad leisten", weil sie erstmal ne fette GPU für ihr Retina PR-Gedöns brauchen und so die TDP Grenze erreichen, ansonst hätten auch sie schon längst einen Quad.
 
Den Begriff des Superphones gibt es schon lange.
Als damals das erste Samsung Galaxy S raus kam, war schon die Rede davon, als ferne Nachfolgegeneration der Smartphones.

Wir sind aber noch im Zeitalter der Smartphones, keine Angst :D
 
aylano schrieb:
Interessant, wie wenig in diesem Thread geschrieben wird.
Ich finde, diese News bzw. Entwicklungsphase ist bei Nvidia einer der Bedeutesten bei Nvidia,
Ja naja... die News strotzt nicht gerade so vor Informationen. Und schon gar nicht vor solchen, die den normalen CB-User hinterm Kamin vor holen ;)


aylano schrieb:
(...)Auswüchse schon vor paar Tagen gesehen, wo TI seinen Ausstieg aus der ARM-Smartphone/Tablet-Chiptechnik bekanntgab.
So wie ich das in Erinnerung hab, wollen die nicht komplett aussteigen, sondern nur den Fokus ein bisschen verschieben.
Ergänzung ()

Amok-Sepp schrieb:
Qualcomm und Apple, die mittlerweile beide jeweils mehr wert sind als Intel, können sich so teure Experimente leisten, NVIDIA nicht.
Was hat die Marktkapitalisierung/der Börsenwert mit Investitionsmöglichkeiten zu tun?
 
Was hier schon wieder für "Fachwissen" publiziert wird:

Der Tegra kann ja nur besser werden. Ist ja immerhin das Schlusslicht.

Dann kommt ja endlich mal der erste gute ARM-Soc von Nvidia raus

Erstens spielt der Tegra immer noch recht weit vorne mit und ist objektiv betrachtet sehr weit davon entfernt das Schlusslicht zu sein. Zweitens ist er jetzt schon locker 1 Jahr alt, und zum Zeitpunkt des Erscheinens war er definitiv Spitze. Und drittens war der Clou beim Tegra das Power-Management mit den 4(ARMv7)+1(ARMv6) Kernen und das Funktioniert ziemlich gut, wie kann man da von einem schlechten SoC sprechen?

Das wollte ich nur mal zu bedenken geben :).
 
Decius schrieb:
Office bringt den Tegra3 im Surface an den Rande des Zusammenbruchs. Gibt auch genug andere Anwendungen (Instagram-Filter, JPEGS von Webseiten laden), die A9-Prozessoren deutlich überfordern und viel Verbesserungsbedarf haben.

Das Hauptproblem ist die Sparbrötchen-Implementierung von Nvidia. Zu kleine Caches und ein schwachbrüstiges Speicherinterface - aber es spart halt Die-Fläche und fällt in den meisten Benchmarkprogrämmchen nicht auf.

Davon abgesehen, wer sagt denn, daß MS Code abgeliefert hat, der effizient auf ARM-Quadcore läuft? Normalerweise läuft der ja auch nicht gerade effizient auf x86-Quadcore :D
 
Cr4y schrieb:
Ja naja... die News strotzt nicht gerade so vor Informationen. Und schon gar nicht vor solchen, die den normalen CB-User hinterm Kamin vor holen ;)
Deswegen erwähnte ich neben der News auch die Entwicklungsphase von Nvidia. Mit der integrierten Funktechnik macht man IMO generell einen deutlichen Konkurrenzfähigen schritt nach vorne. Zwar machen das andere Firmen auch (z.B.: Intel), aber nicht alle, wobei bei Apple eine Integriete Funktechnik nicht so wichtig sind, da sie sowieso in einer anderen Liga spielen.

Wie bedeutend Tegra für Nivdia ist, sah man dieses Quartal, wo sie die Profi-GPU-Abteilung schon mal @ Umsatz nicht unerheblich überholten. Das Potential ist groß, aber mal sehen, wie viel Gewinn sie dann tatsächlich machen, da sie bis zum 2Q 2013 immer mehr Verlust @ Tegra bzw. CPB machten.

So wie ich das in Erinnerung hab, wollen die nicht komplett aussteigen, sondern nur den Fokus ein bisschen verschieben.
https://www.computerbase.de/2012-11/texas-instruments-entlaesst-1.700-mitarbeiter/
So wie ich es sagte. Sie steigen aus der ARM-Smartphone/Tablet-Chiptechnik aus.
Und wen man sich den Link durchliest, dann gleicht das fast einen kompletten ARM-Ausstieg überhaupt, da die Mehrheit der Leute entlassen wird.

Abgesehen davon muss sich TI im Embedded-Markt auch noch behaupten können, da Intel und AMD "gerade erst" (1-2 Jahren) so richtig in diesen Markt eingestigen ist und nächstes Jahr mit neuen Versionen und Embedded-Verbesserungen den Durck sicher weiter deutlich erhöhen wird.

Es hat mich schon überrascht, wie schnell so ein Big-Player ausgestiegen ist. Ich hätte eher erwartet, dass man nächstes Jahr Tendenzen für zukünftige Verlierer/Aussteiger sieht.
 
Werde mein SII erst austauschen, wenn es welche mit nem i7 gibt. xD
 
Amok-Sepp schrieb:
Bei 40nm zubleiben, war für NVIDIA die einzig richtige Entscheidung, angesichts der Preise für 28nm Wafer.
Qualcomm und Apple, die mittlerweile beide jeweils mehr wert sind als Intel, können sich so teure Experimente leisten, NVIDIA nicht.

du vergisst Samsung ;)
 
ix.tank schrieb:
Erstens spielt der Tegra immer noch recht weit vorne mit und ist objektiv betrachtet sehr weit davon entfernt das Schlusslicht zu sein. Zweitens ist er jetzt schon locker 1 Jahr alt, und zum Zeitpunkt des Erscheinens war er definitiv Spitze. Und drittens war der Clou beim Tegra das Power-Management mit den 4(ARMv7)+1(ARMv6) Kernen und das Funktioniert ziemlich gut, wie kann man da von einem schlechten SoC sprechen?
Das wollte ich nur mal zu bedenken geben :).

1. Smilies haben durchaus ihre Bedeutung.
2. Tegra 2 sowie Tegra 3 zeichneten sich bisher immer dadurch aus, dass sie besonders günstig sind. Wurden somit auch in sehr vielen, wie auch günstigen Geräten verbaut.
Und damit man einen SoC günstig herstellen kann muss natürlich auch eingespart werden. Zum Beispiel war eine 40nm-Produktion während des Erscheinens definitiv nicht Spitze. Klar, mit 28nm (oder auch 32nm) und mit dem was @smalM schreibt hätte man damals diese Stückzahlen bzw. den Preis erst garnicht erreicht, aber das sollte man auch bedenken.
Das einzige Alleinstellungsmerkmal, dass sich Nvidia immer geholt haben dürfte, glaub ich, war der 1. zu sein. (1. Dualcore, 1. Quadcore)

Aber ich will ja garnicht sagen, dass es ein schlechter SoC ist, ich bin mit meinem LG 4xHD inkl. Tegra3 vollkommen zufrieden, Hardware ist TOP, alleine die Software von LG lässt zu wünschen übrig.
Und mit dem Tegra3 liefert Nvidia definitiv genug Rohleistung, Tegra2 war hier noch eher eine Krücke. Nichtsdestotrotz mag ich den Tegra3 trotzdem nicht :D
 
Zurück
Oben