News Kepler hält Einzug in Tegra 4

Patrick

Rear Admiral
Registriert
Jan. 2009
Beiträge
5.267
Noch in diesem Jahr will Nvidia, den aktuellen Plänen zufolge, mit dem Tegra 4 die nächste Generation des hauseigenen SoCs auf ARM-Basis präsentieren und den Geräteherstellern zugänglich machen. Technische Informationen gab es bislang aber nur wenige.

Zur News: Kepler hält Einzug in Tegra 4
 
ja, frag ich mich auch, da müsste man ja alle apps entsprechend cuda-tauglich machen, wer macht sowas schon ?
 
hasse diese wozu fragen ;D

die werden schon irgendwas damit anfangen können.. lebe der fortschritt und endlich A15cores :)

wollte mein htc sensation eh im frühjahr/Sommer 2013 ausmustern =D
 
mehr Leistung wie sie bisher bereits vorhanden ist, ist absoluter Schwachsinn. Man sollte sich lieber mal dem Stomverbrauch widmen wie ständig die Leistung zu erhöhen.
 
Finde ich absolut gut!
CUDA hat sicher seinen Sinn bei games und mehr leistung ist immer gut!

@picxar:
Es wurde schon bei mehreren Tests festgestellt dass bei smartphones das sogenannte "race to idle" am meisten strom spart.
Das hat den Sinn dass die CPU möglichst viel Zeit im idle status verbringt in dem möglichst viel im deep-sleep ist.
Da hat es sich teils ausgezahlt die CPU bei ausgeschaltetem Bildschirm auf max. takt laufen zu lassen um die beste Akkuleistung zu haben.
Dies kann man so erklären dass die CPU zwar bei 400MHz ein wenig weniger Strom braucht als bei 1.2 GHz, allerdings der deep-sleep noch viel viel weniger braucht.
Damit ist es dann besser man braucht ein wenig mehr Strom, ist aber nach 1/3 der Zeit bereits wieder im idle und spart damit.
 
Zuletzt bearbeitet:
picxar schrieb:
mehr Leistung wie sie bisher bereits vorhanden ist, ist absoluter Schwachsinn. Man sollte sich lieber mal dem Stomverbrauch widmen wie ständig die Leistung zu erhöhen.

Du hast Recht genauso wie Bill Gates sagt:"Man braucht nie mehr wie 640kb Ram!"
Warum sollte man nicht beides Optimieren, Stromverbrauch und Leistung? Die Ideen werden durch die Technik begrenzt nicht anders herum.
 
@debrin also ich wüsste wenn es vom Exynos Quadcore einen Benchmark geben würde, also welchen prozessor meinst ud mit konkurrenz
 
Zuletzt bearbeitet:
Ich erinnere mich nur an die Benchmarks wo die A9-Quad von den A15-Dual's abgeräumt wurden...
 
Zeroflow schrieb:
Finde ich absolut gut!
CUDA hat sicher seinen Sinn bei games und mehr leistung ist immer gut!

Was hat CUDA mit Games zu tun?

@Topic

Bleibt fraglich ob hier Nvidia wieder auf eine proprietäre GPGPU Lösung setzt.
 
Bl4ckbeard schrieb:
Du hast Recht genauso wie Bill Gates sagt:"Man braucht nie mehr wie 640kb Ram!"
Warum sollte man nicht beides Optimieren, Stromverbrauch und Leistung? Die Ideen werden durch die Technik begrenzt nicht anders herum.

ich gebe dir zwar im prinzip recht, so ne leute die jeden technischen fortschritt hinterfragen nerven mich auch, aber das bill gates zitat hat er so eigentlich nie gesagt
 
CUDA ... da muss nvidia erstmal den nutzen / sinn / zweck in einem Smartphone raustellen.
 
Pass auf, erstens der Artikel ist von chip, zweitens woher kennst du die Leistung des Tegra 3 im ONE X wenn nur der Tegra 3 des Transformer Prime dort gelistet ist?!
3. Ich kenn jemand der bereits ein ONE X mit Tegra 3 besitzt, Quadrant mit im Hintergrund laufenden Programmen 4600-4700Pkt. Ein Prozessor kann mit entsprechender Optimierungsarbeit und Anpassung einiges mehr leisten wie vielleicht in anderen Geräten bei denen auf die Optimierung der einzelnen Komponenten und deren zusammenspiel keinen Wert gelegt wurde.
 
also ich konvertier meine filme alle mit badaboom welche auf CUDA setzt. und möchte es nicht mehr hergeben!
gibt keine schnellere lösung zum qualitativ hochwertigen konvertieren von filmen!

bei flash is es was sehr geiles auch, wenn die gpu mithilft. leider arbeitet adobe vermutlich nicht weiter an flash :(
 
Cuda im Smartphone , wahrscheinlich gibts dann auch "Protine falten to Go" wie man Heute so schön sagt ;)
 
Bluescreen schrieb:
gibt keine schnellere lösung zum qualitativ hochwertigen konvertieren von filmen!

Allgemeiner Fehler. Grafikkarten eignen sich nicht sehr gut zum enkodieren wegen der parallelen Recheneinheiten. Außerdem fehlen viele Qualitätseinstellungen. Wenn man diese im CPU Enkoder deaktiviert, kommt man locker auf dieselbe Geschwindigkeit.
 
Zurück
Oben