News Samsung zeigt Big.Little-SoCs im Februar

dgschrei schrieb:
Das wäre ja eigentlich auch kein Problem und ist sogar relativ genial, hat aber halt ein paar recht heftige Nachteile:
Man verbläst für die sparsamen Kerne noch einmal extra Die-Fläche, die SoCs werden also teurer, was die Fabs freuen, aber die Gerätehersteller ärgern dürfte.
Damit die Geräte beide Kerne ansprechen können ohne dass es zu Problemen kommt, müssen die beiden Kerne dieselben Befehlssätze unterstützen. Soll heißen, wenn mal im ARM Bereich solche Erweiterungen wie AVX bei Intel und AMD Einzug halten, dann muss der sparsame Kern das entweder auch unterstützen, oder das Feature liegt im schnellen Kern brach. Liegt es brach -> negativ für die Leistung. Kann es der langsame Kern auch -> höherer Verbrauch.

Für den Moment ist es ein ganz guter Workaround, aber ob das auf Dauer eine brauchbare Lösung ist, ist fraglich.
Dann hast du leider nicht verstanden, was ein CPU-Core ist. Mach dir aber nichts draus. Das wissen die wenigsten. Die meisten MEINEN nur es zu wissen.

Ein CPU-Core ist nicht viel. Address- und Instruction-Decoder, ALU und Accumulator sowie Register. DAS WARS!
Alles andere wie MMU usw. sind eigentlich nur Erweiterungen eines Prozessorkerns. Insbesondere die FPU ist eine solche. Früher war die FPU nämlich noch ein extra Chip auf dem MB, welchen man auch weglassen konnte :D
FPU usw musst du also gar nicht doppelt verbauen. Schau dir die Bulldozer Flex-FPU an. Hat da etwa jede Integer-Core ne eigene FPU? :rolleyes:


krutoistudent schrieb:
alles was den verbrauch senkt ist gut, denn irgendwann ist auch mal schluss mit immer größeren akkus

wenn das zweite diagramm so der realität entspricht, dann ist der cortex a15 ein stück scheiße, exponentieller anstieg beim verbrauch zu kaum mehrleistung, mit augenmass siehts nach 6mal mehr verbrauch aus als der alte cortex a7, wobei nur die leistung verdoppelt wird? sorry aber das ist doch ein schlechter witz oder? da würde ja ein 2000mAh bei voller leistung nicht mal ne stunde halten

ich hoffe echt, dass das diagramm nicht der realität entspricht
Ähm... zwei Dinge

1.
Siehst du irgendwelche Beschriftungen der Achsen?
Nein?
Ich auch nicht....
Warum verkündest du dann irgendwelche Weisheiten???

2.
Ein exponenziell ansteigender Verbrauch innerhalb! einer CPU-Architektur/Fertigung bei steigender Leistung ist VÖLLIG! normal.

Nur mal so...
ist bei deiner CPU im Rechner auch nicht anders.
 
Radde schrieb:
Das halte ich ja für ein Gerücht. Den meisten Strom verbraucht bei einem Smartphone/Tablett ja das Display. Man könnte die 70% also nichtmal erreichen, wenn die CPU gar keinen Strom verbrauchen würde.
Was die in die Rechnung vermutlich einbezogen haben, ist, dass das Display die meiste Zeit über ausgeschaltet und die CPU im Idle ist.
 
@ Skysnake
Dann geh doch mal zu Intel und AMD und sag ihnen, dass sie ihre SSE-Einheiten und alle anderen Erweiterungen die's da gibt ab sofort nicht mehr zum Kern zählen dürfen sondern das ab sofort uncore ist :rolleyes:.

Es stimmt zwar, dass die FPU früher ein Koprozessor war, aber der heute unter Kern verstandene Teil beinhaltet alle diese Erweiterungen.

Der Kern ist der Teil, der dann letztendlich für die Ausführung der Instruktionen zuständig ist und davon unterstützt ein bestimmter Kern eben einen bestimmten Satz. Dass der Kern völlig andere Instruktionen verarbeitet, als an ihn gesendet werden, gibt es nur in einem einzigen Bereich: x86
Und dort auch nur deshalb, weil man auf RISC umgestellt hat aber die Kompatibilität zu bestehender Software wahren wollte. Das funktioniert bei x86 recht gut. Aber wenn ARM jetzt an den sparsamen Kern ebenfalls so eine Übersetzereinheit dranhängen würde, würde das den Verbrauch des sparsamen Kerns erhöhen und damit das ganze irgendwo ad absurdum führen.
 
olfbc schrieb:
Schon wieder -70%!
Zum Glück sind 100 mal -70% nicht -7000%.
Sonst hätt ich schon ein schönes Kraftwerk daheim.
(scheiß Prozentrechnung....)

Ja ja, scheiß Prozentrechnung. :evillol:

Wenn der Akku von Gerät B 70% länger hält als von Gerät A, dann ist die Ersparnis von B zu A nicht 70% sondern nur ~40%

Gerät A: 100%
Gerät B: 170%
100/170 - 1 = -41,2%
 
jeah, demnächst weniger Plastikbobmer und mehr Aluminium
Irgendwie muss die Wärme ja abgeführt werden :freak:
 
Zuletzt bearbeitet:
schöne News :)

Laut ARM sollen sich die Akkulaufzeit um bis zu 70 Prozent im Vergleich zu einem konventionellen Aufbau verlängern.

Na da bin ich ja mal auf die 1. High-End-Smartphones gespannt ;) und freue mich jetzt schon darauf ;-)
Aber ich tippe mal, das die ersten Geräte wohl eher Ende 2013 - Anfang 2014 auf den Markt kommen, wohl möglich 2014 im Samsung Galaxy S V :D
 
Das klingt doch ziemlich clever, dieses Konzept - freue mich auf die ersten Produkte!

SaschaHa schrieb:
Bald werden Samsungs High-End-Smartphones wohl nicht nur leistungstechnisch zur Elite gehören, sondern zugleich auch eine enorm gute Akku-Performance liefern. Ich bin sehr gespannt! :)

Kauf dir das Note 2, da hast du schon eine extrem gute Akku-Performance.
 
Patrick schrieb:
Dabei soll es wie bei Nvidias Tegra 3 zu Überschneidungen zwischen beiden CPU-Modellen geben, um ein unterbrechungsfreies Wechseln sicherzustellen.

Tegra 3 hat zwei Cluster mit einmal vier und einmal einem Cortex-A9. Es ist jeweils ein Cluster aktiv. Was soll sich da überschneiden?

dgschrei schrieb:
Das wäre ja eigentlich auch kein Problem und ist sogar relativ genial, hat aber halt ein paar recht heftige Nachteile:
Man verbläst für die sparsamen Kerne noch einmal extra Die-Fläche, die SoCs werden also teurer, was die Fabs freuen, aber die Gerätehersteller ärgern dürfte.
Damit die Geräte beide Kerne ansprechen können ohne dass es zu Problemen kommt, müssen die beiden Kerne dieselben Befehlssätze unterstützen.

Die A7-Cores sind sehr klein und können alles, was ein A15 auch kann, nur viel langsamer und mit viel weniger Stromverbrauch.
Probleme gelöst :D
 
Zuletzt bearbeitet von einem Moderator:
Radde schrieb:
Das halte ich ja für ein Gerücht. Den meisten Strom verbraucht bei einem Smartphone/Tablett ja das Display. Man könnte die 70% also nichtmal erreichen, wenn die CPU gar keinen Strom verbrauchen würde.
....

Sie reden ja auch nur vom SOC, also wenn du ein identes Gerät hast mit selbem Display und NUR der SOC sich unterscheidet dann hast du bis zu 70% Einsparung. Das wird nicht viel sein in absoluten Zahlen da die SOC sowieso schon sehr sparsam sind aber die Aussage ist so korrekt von Samsung wie sie getätigt wurde.
 
smalM schrieb:
Tegra 3 hat zwei Cluster mit einmal vier und einmal einem Cortex-A9. Es ist jeweils ein Cluster aktiv. Was soll sich da überschneiden?
Vielleicht teilen die sich das "FrontEnd", also sowas wie InstructionQueue, InstructionDecoder, BranchPrediction etc.
 
dgschrei schrieb:
Das wäre ja eigentlich auch kein Problem und ist sogar relativ genial, hat aber halt ein paar recht heftige Nachteile:
Man verbläst für die sparsamen Kerne noch einmal extra Die-Fläche, die SoCs werden also teurer, was die Fabs freuen, aber die Gerätehersteller ärgern dürfte.
Damit die Geräte beide Kerne ansprechen können ohne dass es zu Problemen kommt, müssen die beiden Kerne dieselben Befehlssätze unterstützen. Soll heißen, wenn mal im ARM Bereich solche Erweiterungen wie AVX bei Intel und AMD Einzug halten, dann muss der sparsame Kern das entweder auch unterstützen, oder das Feature liegt im schnellen Kern brach. Liegt es brach -> negativ für die Leistung. Kann es der langsame Kern auch -> höherer Verbrauch.

Der langsame Core wird nicht gross sein (Auf der ARM Webseite steht 0.45mm2) und nicht vorhandene Befehle werden per Microcode abgebildet, die Kiste muss ja nicht schnell sein, oder die CPU schmeißt eine illegal opcode exeption und der Kernel schmeißt dann die große CPU an. Ach ja Software Emulation von nicht vorhanden Befehle ist auch ein alte Technik.
Ergänzung ()

dgschrei schrieb:
Daran ändert auch die Tatsache nichts, dass in Android die Apps in einer VM laufen und sich deshalb nicht um die Prozessorarchitektur kümmern müssen. (was in Android auch nur bedingt stimmt, da man auch ARM-spezifische Befehle für bestimmte Funktionen nutzen kann, um die grottige Performance der Dalvik-VM zu umgehen. Bei Winphone ist es aber z.B. eine echte VM. Die Apps haben absolut keinen Peil auf welcher Hardware sie laufen)

Definiere "echte VM".
 
Zuletzt bearbeitet:
krutoistudent schrieb:
alles was den verbrauch senkt ist gut, denn irgendwann ist auch mal schluss mit immer größeren akkus

wenn das zweite diagramm so der realität entspricht, dann ist der cortex a15 ein stück scheiße, exponentieller anstieg beim verbrauch zu kaum mehrleistung, mit augenmass siehts nach 6mal mehr verbrauch aus als der alte cortex a7, wobei nur die leistung verdoppelt wird? sorry aber das ist doch ein schlechter witz oder? da würde ja ein 2000mAh bei voller leistung nicht mal ne stunde halten

ich hoffe echt, dass das diagramm nicht der realität entspricht

Der A7 ist ein eigens entwickelter Low Power Core.
Und A15 ist eine Weiterentwicklung der stärkeren A8 und A9.

Dass der A15 deutlich mehr Saft braucht als der A7 ist anzunehmen, wenn der A7 extra dafür gebaut ist einem A15 bei Niedriglast zur Seite zu stehen. Dafür hat der Grosse sicher die doppelte Leistung.
 
Zurück
Oben