News Nvidia über Mehrkern-CPUs für Handys und Tablets

Dazu brauchste erstmal ein aufteilbares Problem und eine Multhithread-App (oder irgendwas, wo mehrere Apps wirklich Leistung ausschoepfen nebeneinander)?
 
homerpower schrieb:
Zitat:
"...zwei Kernen eineinhalb mal schneller als mit nur einem Kern sein, das Leistungsplus gegenüber anderen Systemen – OMAP 3630, SSPC 110 und QSD 8250 – soll mehr als 150 Prozent ..."

Ist irgendwie n bischen komisch... eineinhalb und 150 Prozent ist doch das Gleiche :D (150/100=1,5=eineinhalb
Nicht ganz: "eineinhalb mal schneller" heißt 150% Leistung, "das Leistungsplus ... mehr als 150 Prozent" heißt 250%. Aber stimmt schon, ist verwirrend formuliert.
 
@Patrick:
oh sorry, dann hab ich wohl "Leistungsplus... 150%" überlesen...
aber ich finde man sollte bei einem bleiben, entweder % oder vielfaches :D
 
NamenIos schrieb:
Als Fausregel: Die Taktung geht linear in den Stromverbrauch ein (halbe Frequenz = halber Verbrauch), die Spannung quadratisch (halbe Spannung = viertel Verbrauch). Daher ist das ganze auch kein "sinnloses geschwafel".
So sehe ich das auch. Meine Schlussfolgerung ist aber eine andere, nämlich dass es im Regelfall kaum einen, bis keinen Unterschied gibt.

Da Takt proportional zu Stromverbrauch ist, wäre das schonmal egal.
Stromverbrauch und Spannung, quadratisch ja, aber meiner Meinung nach ist der gleichzeitig zu erreichende Takt auch überproportional, bis zu einem ertragbaren Punkt.
Umgekehrt sieht man das auch bei der Senkung der Spannung bei Stromsparfeatures. Wenn der Takt halbiert wird, sinkt die Spannung trotzdem nur um einen Bruchteil.
 
funkyfunk schrieb:
So sehe ich das auch. Meine Schlussfolgerung ist aber eine andere, nämlich dass es im Regelfall kaum einen, bis keinen Unterschied gibt.

Da Takt proportional zu Stromverbrauch ist, wäre das schonmal egal.
Stromverbrauch und Spannung, quadratisch ja, aber meiner Meinung nach ist der gleichzeitig zu erreichende Takt auch überproportional, bis zu einem ertragbaren Punkt.
Umgekehrt sieht man das auch bei der Senkung der Spannung bei Stromsparfeatures. Wenn der Takt halbiert wird, sinkt die Spannung trotzdem nur um einen Bruchteil.

Auf Bild 7 sieht man das Beispiel zum Tegra bei dem der DC Tegra 60% des SC Tegras verbraucht. Hab die angegebenen Daten mal überschlagen und komm auf knapp 60%.
Die Leistung ist proportional zum Takt und die benötigte Spannung hängt vom Takt ab. Daher verbraucht ein Core auf 550 MHz 55% von nem GHz Core, da man aber die Spannung auf 0,8/1,1 = 73% senken kann verbraucht man nur noch 55%*(73%²) = 30% bei gut 50% Leistung.

Was meinst du genau mit "ist der gleichzeitig zu erreichende Takt auch überproportional, bis zu einem ertragbaren Punkt.", ich steig da nicht ganz durch.
 
NamenIos schrieb:
Was meinst du genau mit "ist der gleichzeitig zu erreichende Takt auch überproportional, bis zu einem ertragbaren Punkt.", ich steig da nicht ganz durch.

Das hab ich aus der Erfahrung vom Über/ Untertakten geschlossen.

Nehmen wir z.B. mal nen Core 2 Duo --> kurz hier ausm Form rausgesucht:

Meine Einstellungen: Betreibe den 8400 mit 1,1V bei 3,6GHz stabil, bei 3,0 1V
Macht für mich 10% Spannungserhöhung, aber 20% mehr Takt.

https://www.computerbase.de/forum/threads/e8400-undervolten-zum-strom-sparen.499869/#post-5096189

Das ist bis zu einem bestimmten Punkt immer so, bis die CPU zu macht und man nur noch mit der Brechstange mehr Takt rausholen kann.
 
homerpower schrieb:
@Patrick:
oh sorry, dann hab ich wohl "Leistungsplus... 150%" überlesen...
aber ich finde man sollte bei einem bleiben, entweder % oder vielfaches :D
;)
 
funkyfunk schrieb:
Nehmen wir z.B. mal nen Core 2 Duo --> kurz hier ausm Form rausgesucht:

Meine Einstellungen: Betreibe den 8400 mit 1,1V bei 3,6GHz stabil, bei 3,0 1V
Macht für mich 10% Spannungserhöhung, aber 20% mehr Takt.

Das Macht dann 20% mehr Leistung und [120%*(110%²)]-100% 45% mehr Stromverbrauch.
Im Ergebnis also 21% mehr Verbrauch pro Leistung. Das ist bei nur 20% Taktunterschied doch eine ganze Ecke.
 
panopticum schrieb:
sinnlos? warum denkst du das es sich nicht genauso verhält wie bei PCs etc.?
die 1kern cpu will ich sehen die mit einem dual/triple/quad mithält und nur annähernd das gleiche frisst.

lg

Was er meint ist, dass NVIDIA so tut, als ob sie grad das Rad neu erfunden hätten. Weiß doch jeder dass ein Dualcore mehr bringt als ein single-core. Dazu muss man wahrlich kein Raketenforscher sein.

Naja, ohne Worte. Bis jetzt gibt es nicht ein Handy mit Tegra (außer das wieder eingestellte Kin oder wie das hieß)

Demnächst soll ja eins von LG rauskommen, wär dann das erste. Mal sehen wie sich die Kiste schlägt. Ich tippe mal die Akkulaufzeit wird nicht besonders sein, dafür war NVIDIA ja noch nie bekannt.... Ist auch das Hauptproblem warum das Zeugs keiner einsetzt bis jetzt.

Und die andern Hersteller schlafen auch nicht.

1,2GHz Dualcore Anfang nächstes Jahr und 1,5GHz Dualcore Ende nächsten Jahres.

Hoffentlich werden dann die Smartphones mit der alten (jetzt aktuellen) Hardware dann mal deutlich günstiger. Schneller wie jetzt brauchs für mich nicht sein, aber günstiger wär nicht schlecht...
 
Dawzon schrieb:
Als Sinnlos würde ich diese Entwicklung nicht Bezeichnen, eher als Voreilig.
Es nützen die sparsamsten SoCs nichts wenn das Display weiterhin am meisten Strom frisst...

BTW: Ich finde die Entwicklung eigentlich sehr nett, wann kommen die passenden Anwendungen dazu die diese Leistung auch endlich mal ausreizen? :p

Mfg

Sind doch heute schon da ;) also ich befinde mich oft in der Situation, dass ich auf meinem Desire ein backup mit titanium backup mache bzw was bei dropbox runterlad (beides Hintergrundtasks). im Fordergrund ist dann oft Twitter geöffnet und der Dolphin Browser lädt mehrere Tabs im Hintergrund. Zusätzlich aktuallisiert der RSS Reader noch die Feeds - ebenfalls im Hintegrund und so kommt der arme Snapdragon täglich an sein Limit ;)

Es besteht also schon jetzt massiv Bedarf nach mehr Rechenleistung auf dem Smartphone!
Bei PDFs mekt man den langsamen Seitenaufbau auch sehr und Durchsuchen eines PDFs mit sagen wir 500Seiten (also ein durchschnittliches Fachbuch) dauert auch lange..
ich könnte glatt so weiter machen ;)

Beispiel Emulation! Playstation 1 emu auf dem Desire läuft oft langsam - N64 emu auf dem iphone ist auch recht gemächlich also immer her mit der CPU power!
 
Das mit dem weniger Verbrauch ist so gemeint.

Eine Cpu Single Core 2 Ghz verbraucht mehr als ein DualCore mit 2x1 Ghz. Allein der Stromverbruach, da für die Taktrate eine bestimmte/höhere Spannung benötigt wird damit der Takt stabil läuft.

Zitat NamenIos:
>>Daher das Beispiel. Als Fausregel: Die Taktung geht linear in den Stromverbrauch ein (halbe Frequenz = halber Verbrauch), die Spannung quadratisch (halbe Spannung = viertel Verbrauch). Daher ist das ganze auch kein "sinnloses geschwafel".<<

Des meinte ich, hatte mal bei "Itunes U" aus langeweile ne kleine Presentation angesehen, kanns gerne mal raussuchen wenns wenn interessiert und er kein Englsich scheut :)

Zum thema ob ein 2Ghz oder 2x1Ghz Cpu schneller ist.
Wie gesagt kommt immer auf das Problem an, bzw. ob und wie gut man das Problem gut aufteilen kann.
Es kam auch schonmal die frage auf ob eine Gpu nicht generell schneller ist und eine Cpu ersetzen kann. (Ideenkonstrukt ist ja ähnlich)
Interessante Frage die schon ein paar mal aufkam, man müsste nur ein effizientes Betriebssystem für eine Gpu schreiben die dann viele kleinere Berechnungen durchführt.

Das ist die "theroetische" Leistung, die aber in der Realität nicht zu 100% umgesetzt wird/werden kann. Oder "Was bringt an 2Ghz vierkerner im Vgl. zum 4ghz 2Kerner, wenn das Programm nur 2 Kerne sinnvoll verwalten kann."
Thema: Spiele sollte man glaubich fix entsprechende Themen finden :)

Sry wegen der scheinbar "verdrehten Logik"... für mich wars nur schon seid längerer Zeit selbstverständlich nicht alles zu Pauschalisieren *verbeug*
 
also ich bin voll und ganz von Tegra2 überzeugt! Damals bei Tegra 1 (250) war ich schon begeistert! Weil es zu der Zeit noch gar nicht möglich war FullHD oder 720p anzuzeigen bzw. zu streamen in so einem mobilen Prozessor! Nur leider kamen keine/kaum ein Gerät damit....

Ich hoffe sehr auf einen vernümpftigen TabletPC mit Tegra2 :)...
 
Matze89 schrieb:
Ich dachte, Nvidia produziert keine CPUs? Oder hab ich was verpasst?
Produzieren sie ja auch nicht. Wie in der News steht ist es ne ARM Cortex A9 CPU. Nvidia entwickelt "nur" den SoC. Produzieren tut TSMC.

Nvidia ist einfach am frühesten dran mit ARM Cortex A9 CPUs in 40nm.
Aber alle anderen werden nachziehen. TIs OMAP4 wird sicher nicht lange auf sich warten lassen.

Für Smartphones halte ich solch eine Power schon fast für zu viel. Ein Dualcore A9 hat ein vielfaches der Power als ne SC A8.
Aber für Tablets ist das ideal. Da kann man noch ordentlich Rechenleistung gebrauchen.
 
Tegra, das teil was sie noch mieser verkauft als Fermi^^

Audio wollte Tegra 2 für seine Entertainmentsysteme... das wars auch schon was man die letzen Monate so gehört hat... nun ist noch von einem Handy die Rede.

Vielen Herstellern schwebt da sicher noch die gigantische Reklamationsrate von Nvidia Notebook GPUs vor Augen
 
also an einige hier:
wie man aus meinem ersten post schliessen kann, dass ich mehrkerner für sinnlos erachte erschließt sich mir nicht. manchmal frag ich mich ob sätze ganz gelesen werden oder nur auf schlagwörter reagiert wird.
 
Zurück
Oben