News Nvidia nennt weitere Details zum Tegra 4

LundM schrieb:
das war nur letztes jahr vorteil jetzt ist 28nm am laufen.
somit gewinnt nvidia im vergleich zum rest da siew shrinken der rest nicht.
Ich bezog mich dabei auf time-to-market bzw. die Verfügbarkeit. Da hatte NV mit 40nm einen riesigen Vorteil bei der letzten Generation, welche sie jetzt nicht mehr hat. Dass sie shrinken ist klar - allerdings würde ich das jetzt nicht als Vorteil sehen. Natürlich können sie wohl einen grösseren Schritt vorwärts machen als die Konkurrenz, aber sie schliessen damit ja nur auf...
 
Wow, hier wird schon wieder über die GPU gemeckert bevor es offizielle Tests gibt. Zumal GL-Benchmark 2.5 qualitativ (Grafik - zuwenig "komplexere" Shader) von den aktuellen Spielen ein Stück entfernt ist. Den normalen Nutzer interessiert es also Null ob der Tegra da schneller ist oder der A6X oder ein andere. Mit GL-Benchmark 3.0 dürft sich das ändern (der ist auf der höhe der Zeit), dann bleibt es allerdings ein einzelner Messwert, erst wenn die Auswahl größer wird kann man ernsthaft Aussagen treffen, es macht ja schließlich auch keiner einen Grafikkartentest mit 3DMark11 sonder auch mit Spielen und anderen Benchmarks.

Bisher ist es jedenfalls so, dass der A6X in keinem Spiel von der angeblich so hohen Performance so profitieren kann, dass er sich optisch von den besten Tegra 3 Spielen absetzen kann. Und solange das so bleibt, kann es Nvidia auch egal sein.

Und man kann auch auf Pixel-Shadern GPGPU betreiben, findige Programmierer hält das nicht ab. In diesen Leistungsklassen sind komplexere Shader mit größerem Befehlsatz, Registern, Lokalem Speicher, etc. (also die Möglichkeit aufwändigere Shader zu schreiben) noch nicht unbedingt von Vorteil, da die Gesamtleistung meist sowieso nicht reicht um davon zu profitieren. Wobei das beim Tegra 3 wirklich noch stimmte, beim Tegra 4 würde ich das nicht mehr 100%ig unterschreiben :).

Also ich würde erstmal was ein Urteil über die GPU angeht die Füße still halten bis es die ersten aufwändigeren Games gibt und dazu passend die Tests. Wenn der Tegra 4 @ 2560x1440 jeden Android AAA-Titel schafft, gäbe es nicht wirklich etwas zu bemängeln (und nein GLBenchmark ist kein AAA-Titel :))

Was mich aber wirklich mal interessieren würde: Sind es 72 skalare Einheiten oder 72 Vec4 Einheiten? Speziell von 24 Vertex-Shadern zu sprechen wenn es skalare Prozessoren wären, wäre ja absolut Schwachsinnig da ein Vertex ja immer Vec4 ist (Homogene-Koordinaten), trotzdem würde ich es dem Marketing absolut zutrauen :).
 
Je moderner der Benchmark wird, desto weiter dürfte T4 zurückfallen.

Sind Vec4 Einheiten. Eventuell hat NV auch den richtigen Riecher und denkt sich, dass GPGPU und dergleichen in der jetzigen Generation noch keinen Sinn macht bzw. sich erst im nächsten Jahr lohnen wird.
 
Eggcake schrieb:
Je moderner der Benchmark wird, desto weiter dürfte T4 zurückfallen.

Nicht wirklich. Tegra 4 hat 12 Vec4 PS und 6 Vec4 VS. Damit erreicht man bei 522MHz (Tegra 3) 50GFLOPs für PS und 25 GFLOPs für VS. iPad4 mit 544MP4 erreicht 75 GFLOPs für PS oder VS im besten Fall.
Im Gegensatz zur Rechenleistung wird der Rest nicht annährend mit skaliert sein: Doppelte Bandbreite und wohl im besten Fall auch nur doppelte Texturleistung. Dreiecksdurchsatz hängt dann stark von der Anzahl der Raszerizer ab.

Je aufwendiger Spiele mit PS und VS Berechnungen werden, umso besser steht Tegra 4 gegenüber Tegra 3 dar und kann es dann auch locker mit der Konkurrenz aufnehmen.

Sind Vec4 Einheiten. Eventuell hat NV auch den richtigen Riecher und denkt sich, dass GPGPU und dergleichen in der jetzigen Generation noch keinen Sinn macht bzw. sich erst im nächsten Jahr lohnen wird.

Die HDR-Fotografie ist eine GPGPU Anwendung, da die GPU Cores mitverwendet werden.
 
abwarten und tee trinken.

glaub kaum das nvidia bei der gpu falsch liegt^^

sry das ist ihr kern gebiet und wer ist aktuell welt markt führender mit ner mainstream karte?
also erst ma abwarten was raus kommt.

denke nvidia hats genau so errechnet das es 1 jahr reicht und tegra 5 wird dann dank genug leistung auch gpgpu leistung haben.
 
@LundM
Das eine hat mit dem anderen doch überhaupt nichts zu tun. Auch zu T3-Zeiten waren sie Leader (oder einer der Leader) im Desktop-GPU Segment - trotzdem hinkte die T3 GPU bereits zu diesem Zeitpunkt der Konkurrenz hinterher. Und was man so aufschnappt, soll das Entwicklungsteam der Tegra SoCs extrem klein sein - das ist schlicht (noch) nicht ihr Kerngebiet - es lohnt ich für sie wohl noch nicht mehr Manpower dafür bereitzustellen. Der T3 war ja trotzdem relativ erfolgreich.

@Sontin
Gut, da hast du wohl recht :-)
Mit den Benchmarks meinte ich eher, dass T3 wohl einfach nicht auf gleicher höher sein dürfte wie andere modernere GPUs. Je nachdem könnte die GPU nicht mal die Anforderungen des Benchmarks erfüllen...
 
welcher konkurenz soll der t3 den hinterher gewessen sein?

bzw wo schafft eine andre gpu was flüssig darzustellen was der t3 nicht kann? aus dem selben erscheinungs bereich nicht was wo ende 2012 gekommen ist.

gut der gpu teil der k3v2 ist echt böse aber das produkt war erst ende 2012 aufm markt also nicht zu vergleichen.
adreno war auch erst mitm neuen 4er soc am t3 vorbei.
 
Eggcake schrieb:
Je moderner der Benchmark wird, desto weiter dürfte T4 zurückfallen.

Sind Vec4 Einheiten. Eventuell hat NV auch den richtigen Riecher und denkt sich, dass GPGPU und dergleichen in der jetzigen Generation noch keinen Sinn macht bzw. sich erst im nächsten Jahr lohnen wird.
Wäre eine komische Ansicht, dann die enorme CPU-Performance lohnt sich doch jetzt genauso nicht. Vorallem, wenn man damit Hitzeprobleme hat.

ix.tank schrieb:
Und man kann auch auf Pixel-Shadern GPGPU betreiben, findige Programmierer hält das nicht ab. In diesen Leistungsklassen sind komplexere Shader mit größerem Befehlsatz, Registern, Lokalem Speicher, etc. (also die Möglichkeit aufwändigere Shader zu schreiben) noch nicht unbedingt von Vorteil, da die Gesamtleistung meist sowieso nicht reicht um davon zu profitieren. Wobei das beim Tegra 3 wirklich noch stimmte, beim Tegra 4 würde ich das nicht mehr 100%ig unterschreiben :).
Wozu kompliziert rechnen, wenn OpenCL @ Smartphone & Tablet langsam zu Standard wird bzw schon lange ist. Ganz im Gegenteil, sie bereiten sich gerade auf HSA vor, wo fast alle vertreten sind.

Meiner Ansicht nach, wäre es doch viel Sinniger gewesen, die ganze Nvidia-Know-How @ GPU-Nutzen zu können um vielleicht 1 oder 2-CPU-Kerne zu ersetzen, um bei gleicher Computing-Power keine/weniger Hitzeprobleme zu bekommen.

Es ist schon fast seltsam, dass gerade der Grafik-Spezilist bei GPU (Fähigkeiten & Performance) hinterherläuft und viel stärker auf CPU-Performance setzt, während das bei den etabliererten (Apple & Qualcomm) fast schon umgekehrt ist.

Mit den Vorpreschend der GPU-Technik hätten sie noch mit Cuda versuchen können, was im PC-Markt dann ebenfalls gestärkt hätte.
Aber so können sie nur mit OpenCL nachlaufen und dann stehen sie mit HSA vielleicht bald wieder vor dem nächsten Problem.
 
Wozu kompliziert rechnen, wenn OpenCL @ Smartphone & Tablet langsam zu Standard wird bzw schon lange ist. Ganz im Gegenteil, sie bereiten sich gerade auf HSA vor, wo fast alle vertreten sind.

Ich habe ja nur gesagt das es geht, nicht das es gut ist :). Abgesehen davon sind die Anwendungsgebiete von OpenCL auf dem PC schon gering und mobil auch nicht gerade das wichtigste. Videos De- und Encoden macht die Hardware auch ohne OpenCL damit fällt mir eigentlich kaum etwas wo man es wirklich bräuchte und vor allem wo es (mobil) nützliche Software gibt, die davon profitiert.

Das soll nicht heißen, dass ich Unified-Shadern keinen Vorteil abgewinnen kann, sondern dass Nvidia sich vllt. etwas dabei gedacht hat und sich in der Praxis erstmal zeigen muss ob dem Tegra 4 dadurch wirklich etwas fehlt.

Es ist schon fast seltsam, dass gerade der Grafik-Spezilist bei GPU (Fähigkeiten & Performance) hinterherläuft

Und hier stellt sich die Frage wo läuft Nvidia denn wirklich hinterher? In GLBenchmark und auf dem Papier! Und das ist ein Problem? Nein, denn es interessiert niemanden. Alle Spiele laufen, Videos werden dekodiert, etc. . Es gibt keine Anwendung, die die Masse interessiert wo man in der Grafik einen unterschied zwischen einem A6X und einem T33 sehen kann, also was macht Nvidia falsch? Genau, nichts.

Es ist im übrigen auch schwierig für 1 bis 10$ / Spiel etwas zu entwickeln das soviel Content besitzt, dass es moderne mobile GPUs ins schwitzen bringt (in Form von vielen Texturen mit hoher Auflösung oder sehr detaillierten Modellen oder außergewöhnlichen Effekten).

Ich bin gespannt wie sich das Entwickelt, per DLNA als Konsolenersatz wäre sicher bald denkbar.
 
@tank
Och, also Gamestop macht dabei ihrem Namen alle Ehre und schafft es ohne grossen Aufwand Spiele zu entwickeln, die miserabel aussehen und dabei auch noch miserabel laufen :D

Ansonsten stimme ich dir zu. Eventuell hat sich NV auch etwas dabei gedacht. Ich denke es sind sich alle einig, dass Unified Shader "besser" gewesen wären. Nur stellt sich die Frage, ob sich dies in der Praxis in naher Zukunft auch wirklich bemerkbar macht oder ob getrennte Shader derzeit einfach noch ausreichen. Schlussendlich kann NV evt. mit gleicher DIE-Fläche doch etwas mehr Performance herauskitzeln (für heutige Anwendungsfälle) und eventuell ist die Zeit bei ihnen für ein neues GPU Design noch nicht reif. Das kostet auch alles und soviel ich weiss ist die Tegra Serie bereits jetzt für NV kein Geschäft das wahnsinnig viel Gewinn abschüttet - obwohl der T3 doch relativ erfolgreich war (One X, N7, diverse Asus Pads, ausserhalb der Mobilebranche,...).
 
Zuletzt bearbeitet:
ix.tank schrieb:
Ich habe ja nur gesagt das es geht, nicht das es gut ist :). Abgesehen davon sind die Anwendungsgebiete von OpenCL auf dem PC schon gering und mobil auch nicht gerade das wichtigste.
Eigentlich war das nicht direkt auf dich bezogen, sondern dass die Programierer aus Kostengründen (=leicht programierbar = weniger Zeit = billiger) stark auf OpenCL schielen/liebeugeln. Im PC mag OpenCL noch nie so wichtig sein, aber bei Tablet & Smartphone umsomehr, wo Apple eben OpenCL mitgegründen & gepusht hat.

Und hier stellt sich die Frage wo läuft Nvidia denn wirklich hinterher? In GLBenchmark und auf dem Papier! Und das ist ein Problem?
Tegra 4 ist ja noch nicht draußen und Tegra4-Produkte wird es auch nicht nächste Woche geben. Apple A6X gibts schon eine Zeit lang.

Nein, denn es interessiert niemanden. Alle Spiele laufen, Videos werden dekodiert, etc. . Es gibt keine Anwendung, die die Masse interessiert wo man in der Grafik einen unterschied zwischen einem A6X und einem T33 sehen kann, also was macht Nvidia falsch? Genau, nichts.
Wie ich schon sagte, mit GPGPU-Computing Power kann man eine effizientere Arbeitsleistung anbieten, die den Stromverbrauch reduziert hätten und so Tegra für mehr Tablet, aber vorallem für mehr Smartphones interessant geworden wäre. Also, es geht bei Big-New-GPUs nicht nur um Spiele, sondern mit OpenCL/Cuda geht es sehrwohl um mehr Computing-Power oder geringere TDPs.

Oder einfach gesagt. Wozu soll man dann Tegra 4 kaufen, wenn es die Konkurrenz auch kann und dazu mit integrierten Funk (sowie generellen Last-Stromverbrauch) bessere Akku-Zeiten besitzt?
Nvidia ist noch nicht beständig in diesem Markt, weil Tegra mit -40 Mio. $ noch immer ein nicht unerhebliches Verlustgeschäft ist.

Das soll nicht heißen, dass ich Unified-Shadern keinen Vorteil abgewinnen kann, sondern dass Nvidia sich vllt. etwas dabei gedacht hat und sich in der Praxis erstmal zeigen muss ob dem Tegra 4 dadurch wirklich etwas fehlt.
Was hier komisch ist, dass Nvidia normalerweile mit Technologien vorpresht. (Siehe Optimus, Project Shield, CUDA, PhysX, ...)
Sonst hatte Nvidia immer das gewisse Extra an Technologie, welches sich deswegen entschieden haben, währen die Konkurrenz für die Masse zumindestens das Notwenigste hatten.

Nur weil es komisch ist, muss Nvidia aber noch lange nicht schlecht arbeiten. Denn sie können bei dieser Tegra-Entwicklung (gegenüber den Konkurrenten) ein recht kleines R&D-Team/Budget haben. Vorallem, wenn sie mit Project Denver ein weiteres ARM-Projekt laufen haben.
 
Wie ich schon sagte, mit GPGPU-Computing Power kann man eine effizientere Arbeitsleistung anbieten, die den Stromverbrauch reduziert hätten und so Tegra für mehr Tablet, aber vorallem für mehr Smartphones interessant geworden wäre. Also, es geht bei Big-New-GPUs nicht nur um Spiele, sondern mit OpenCL/Cuda geht es sehrwohl um mehr Computing-Power oder geringere TDPs.

Ich habe auch extra nicht "nur von Spielen" sondern von Anwendungen gesprochen. GPU-Computing basiert nach wie vor SIMD-Prinzip, und dieses nütz auf einem mobilen Gerät im Alltag so gut wie nichts. Denn Office starten und nutzen, XML-Parsen (xHTML, etc.), usw. profitiert davon nicht. Ich kenne derzeit kein Programm welches man GPU-Computing beschleunigen könnte oder effektiver betreiben könnte, welches ich auf meinem Tablet nutzen würde. Wenn du mir ein sinnvolles Beispiel nennen kannst, lasse ich mich gern vom gegenteil überzeugen.


Und hier stellt sich die Frage wo läuft Nvidia denn wirklich hinterher? In GLBenchmark und auf dem Papier! Und das ist ein Problem?
Tegra 4 ist ja noch nicht draußen und Tegra4-Produkte wird es auch nicht nächste Woche geben. Apple A6X gibts schon eine Zeit lang.

Die Aussage bezog sich auch auf den Tegra 3.

Oder einfach gesagt. Wozu soll man dann Tegra 4 kaufen, wenn es die Konkurrenz auch kann und dazu mit integrierten Funk (sowie generellen Last-Stromverbrauch) bessere Akku-Zeiten besitzt?

Wie der durchschnittliche Verbrauch sein wird ist doch noch nicht bekannt, also abwarten. Der Tegra 3 ist immerhin in den 2 "langlebigsten" Android-Tablets, also hat Nvidia bislang keinen so schlechten Job gemacht.
 
Ich denke gerade der Companion Core war extrem effizient, wenn man sich solche Dinge anschaut (und dabei nach wie vor bedenkt, dass T3 in 40nm war, im Vergleich zum S4 im One X (non-international; 28nm):

51558.png

51565.png

http://www.anandtech.com/show/6440/google-nexus-4-review/2

Lastverbrauch ist dann auch ein anderes Thema, aber auch da schlägt sich der T3 IMHO nicht allzuschlecht im oben verlinkten Test (T3 ist im One X International, falls nicht bekannt)...
 
Zuletzt bearbeitet:
aylano schrieb:
Eigentlich war das nicht direkt auf dich bezogen, sondern dass die Programierer aus Kostengründen (=leicht programierbar = weniger Zeit = billiger) stark auf OpenCL schielen/liebeugeln. Im PC mag OpenCL noch nie so wichtig sein, aber bei Tablet & Smartphone umsomehr, wo Apple eben OpenCL mitgegründen & gepusht hat.

Lol? OpenCL zu entwickeln ist aufwendiger und schwieriger als Programmierung auf weniger Cores. Du scheinst hier, üblich, in deiner Scheinwelt deiner Fantasie freien Lauf zu lassen.
Seit wann steht Apple im mobilen Bereich hinter OpenCL? Es gibt nichtmal Anwendungen, die OpenCL unterstützen...

Wie ich schon sagte, mit GPGPU-Computing Power kann man eine effizientere Arbeitsleistung anbieten, die den Stromverbrauch reduziert hätten und so Tegra für mehr Tablet, aber vorallem für mehr Smartphones interessant geworden wäre. Also, es geht bei Big-New-GPUs nicht nur um Spiele, sondern mit OpenCL/Cuda geht es sehrwohl um mehr Computing-Power oder geringere TDPs.

Ach und welche Anwendungen auf einem Smartphone profitieren von GPGPU? Video-Encoding? Nope. Browsen? Nope. Gaming? Nope. E-Books? Nope. Telefonieren? Nope. Notizen machen? Nope.

Yeah, soviele Aufgabengebiete, wo GPGPU echt den Stromverbrauch senken könnte... :freak:

Oder einfach gesagt. Wozu soll man dann Tegra 4 kaufen, wenn es die Konkurrenz auch kann und dazu mit integrierten Funk (sowie generellen Last-Stromverbrauch) bessere Akku-Zeiten besitzt?
Nvidia ist noch nicht beständig in diesem Markt, weil Tegra mit -40 Mio. $ noch immer ein nicht unerhebliches Verlustgeschäft ist.

Die einzige Konkurrenz, die über ein integriertes Modem verfügt, ist Qualcomm. Und die haben einen wesentlich größeren Chip und müssen erstmal zeigen, dass Krait 300/400 mit A15 mithalten können.

Was hier komisch ist, dass Nvidia normalerweile mit Technologien vorpresht. (Siehe Optimus, Project Shield, CUDA, PhysX, ...)
Sonst hatte Nvidia immer das gewisse Extra an Technologie, welches sich deswegen entschieden haben, währen die Konkurrenz für die Masse zumindestens das Notwenigste hatten.

Tegra ist ein SoC und kein Grafikchip. Scheint sich bis heute nicht rumgesprochen zu haben. Z.B. spielt Tegra 3 bis auf 10bit alle Videos ab, mit dem man ihn füttert. 1080p in Flash funktioniert einwandfrei. Der 5. Kern hat dazu geführt, dass nVidia bei geringem Leistungsanspruch über der kompletten 40/45nm Konkurrenz herrscht. U.A ein Grund wieso TI den Markt verlässt.
 
Sontin schrieb:
Tegra ist ein SoC und kein Grafikchip. Scheint sich bis heute nicht rumgesprochen zu haben. Z.B. spielt Tegra 3 bis auf 10bit alle Videos ab, mit dem man ihn füttert. 1080p in Flash funktioniert einwandfrei. Der 5. Kern hat dazu geführt, dass nVidia bei geringem Leistungsanspruch über der kompletten 40/45nm Konkurrenz herrscht. U.A ein Grund wieso TI den Markt verlässt.

Yup, das habe ich auch erfahren müssen - ich hatte einige Woche ein One S mit S4 als Ersatzgerät. Ich streame öfters über WLAN einige Filme/Serien - viele davon sind halt in 720p (nur wenige in 1080p). Mit dem BSPlayer konnte ich kein 720p Video ohne Fehler schauen - mit dem One X gingen selbst 1080p Videos problemlos und ruckelfrei.

NV hat mit dem T3 IMHO vieles richtig gemacht. Die eierlegende Wollmilchsau ist der T3 nicht und wird der T4 auch nicht werden, aber ich bin mir sicher, dass sie gut aufgestellt sind.
 
Zurück
Oben