News Qualcomm: Qualität der Kerne wichtig, nicht die Anzahl

Endlich .. dachte schon der wahn nach immer mehr kernen und Ghz nimmt kein ende mehr.

Seien wir doch mal ehrlich, einen Quad-Core im Handy braucht kein mensch .. und wenn man mal wirklich iwann 4 kerne braucht sind die heutigen geräte sowieso schon wieder völlig veraltet, weil es wahrscheinlich schon 8 kerne gibt.

Schnelle effiziente Dual-Cores mit geringen strombedarf bzw. langer akkulaufzeit sind für mich viel wichtiger, als x-cores die eh keiner braucht und nur unnötig den akku und das konto belasten ..
 
@Johnsen

Mit "iwann" meinst du "sehr bald"?

http://www.ubuntu.com/devices/android
Man beachte dabei, dass es parallel mitläuft und nicht alleine gebootet wird.

Und wer sagt denn überhaupt dass alle Kerne dauernd mit Strom versorgt werden müssen (z.B im Standby oder für Apps die eh nur einen Kern unterstützen)?
 
Zuletzt bearbeitet:
@Johnsen
Wenn die Hersteller nach deiner Logik arbeiten würden, würden sie eben keine Quad Cores in ihre Geräte bauen. Damit hätten Entwickler keinen Anreiz etwas zu entwickeln was Quad Cores ausreizt.

Hätten sie die gleiche Logik vor zwei Jahren verfolgt, hätten wir heute alle Single Core Geräte.

Hätten sie diese Logik vor 10 Jahren verfolgt, würden wir heute mit Knochentelefonen herumlaufen.
 
@ Mike, für mich hat akku laufzeit beim Handy immer noch oberste priorität, wenn man ein aktuelles smartphone mobil entsprechend fordert ist der akku ja schon bei den DualCore CPU ruckzuck leergelutscht.

Wenn schon die leistung steigt, dann bitte auch die akku technologie aber eben dort scheint es schon ewig quasi einen stillstand zu geben.

Was bringt mir denn bitte so nen super smartphone, wenn ich bei intensiver nutzung ständig angst haben muss dass es den tag nicht durchhält. Deshalb bin ich eher für "kleine" effiziente Cpu´s .. auch wenn die kerne einzeln abgeschaltet werden können, die laufzeit scheint stetig weniger zu werden und das obwohl die akku kapazitäten immer größer werden.
 
Das liegt aber eher daran, dass die Displays auch immer größer werden und/oder immer höhere Auflösungen haben. Und im Vergleich zum Display ist der Stromverbrauch der CPU ein Witz.
 
Ich sehe da die Leistung Qualcomms nicht so wirklich.

Man lizenziert ein fremdes Design, bietet es in einem eigenen SOC an und redet dann von der Überlegenheit der eigenen Lösung?

Es ist ja nicht so dass sich die Konkurrenz den A9 Kernen verweigert. Sie haben sie nur nicht in die bisherigen (bereits lange kaufbaren) Produkte integrieren können.
Mit der nächsten Generation der Tegras etc. werden die auch kommen. Das, in Verbindung mit einer möglichst kleinen Fertigungsstruktur (deren Größe aber außerhalb des Unternehmens, nämlich bei TSMC (Ausnahme ist Samsung) liegt) und einer potenten GPU, macht den Erfolg aus. Und da hat Qualcomm halt überhaupt nichts eigenes zu bieten.
 
Zuletzt bearbeitet:
Augenringmann schrieb:
Wenn ich richtig informiert bin, sieht es doch folgendermaßen aus:
Der S4 (Dual von Qualcomm) setzt auf eine aufgebohrte ARM A9-Architektur. Wenn die Power nicht benötigt wird, werden die Mhz runtergefahren, um Strom zu sparen. Richtig?

Falsch. Die Krait-Architektur basiert zwar auf dem ARM v7 Befehlssatz, hat mit der ARM-eigenen A9 Architektur relativ wenig am Hut. Das mit den MHz stimmt allerdings, wobei Qualcomm hier die besseren Algorithmen besitzt. (Power-Gating für jeden Kern einzeln, Plug-out der CPU Kerne etc.)

Der Exynos 4412 (Quad von Samsung) setzt auf eine aufgebohrte ARM A9-Architektur. Wenn die Power nicht benötigt wird, werden nicht nur die Mhz runterfahren, sondern auch noch die nicht genutzten Kerne abgeschaltet. Richtig?

Normale Cortex-A9 Kerne mit Dual-Channel RAM Interface, wie auch beim Exynos 4210, nichts besonderes.

Wenn beides stimmt sehe ich kein Argument, das in Puncto Stromsparen oder Leistung für den S4 und gegen den Exynos 4412 spricht. Für mich sieht der Exynos 4412 quasi wie eine Quad-Version des S4 aus, nur eben mit der sinnvollen Stromsparfunktion, die Kerne abzuschalten.

Siehe oben.


edit:
Außerdem sollte man doch folgende Dinge nicht außer Acht lassen:
- Tegra 3 ist ein halbes Jahr vor dem S4 auf den Markt gekommen (Qualcomm hatte mehr Zeit, das beste aus der A9-Architektur rauszuholen pro Kern)
- Soweit ich weiss schlägt der Tegra 3 dank seiner 12 (?) Grafikkerne den S4 trotzdem in jeder Grafiklastigen App (Spiele).
Insofern wohl ein Gleichstand?


Der Tegra 3 konnte nur wegen des verwendeten 40nm Prozesses so schnell ausgerollt werden, anders wäre es wohl nicht möglich gewesen.
Die GPUs nehmen sich beide eigentlich relativ wenig. Mal ist der Adreno schneller, mal der GFULP.
 
Der Marketing-Mensch hat grundsätzlich ja recht, aber:
Krait's Pro-Kern-Leistung ist nur minimal über der vom Standard A9-Design. Wenn erstmal die QuadCore A9 SoCs auf 28nm kommen, interessiert sich niemand mehr für Krait.
 
epospecht schrieb:
Ich sehe da die Leistung Qualcomms nicht so wirklich.

Man lizenziert ein fremdes Design, bietet es in einem eigenen SOC an und redet dann von der Überlegenheit der eigenen Lösung?

Es ist ja nicht so dass sich die Konkurrenz den A9 Kernen verweigert. Sie haben sie nur nicht in die bisherigen (bereits lange kaufbaren) Produkte integrieren können.
Mit der nächsten Generation der Tegras etc. werden die auch kommen. Das, in Verbindung mit einer möglichst kleinen Fertigungsstruktur (deren Größe aber außerhalb des Unternehmens, nämlich bei TSMC (Ausnahme ist Samsung) liegt) und einer potenten GPU, macht den Erfolg aus. Und da hat Qualcomm halt überhaupt nichts eigenes zu bieten.

Dann lies noch mal zu diesem Thema etwas.

Alle Hersteller aktueller mobiler SoCs kaufen bei ARM ein.
Texas Instruments, Samsung, NVIDIA, Huawei und Qualcomm.

Alle aktuellen und einige der 2010 vorgestellten SoCs haben zwei oder vier Standard ARM Cortex A9 Kerne verbaut.
Tegra 2, Exynos 4210, Ti OMAP 4, Tegra 3, Apple A5, Apple A5X, Huaweis K3V2, Exynos 4412.
Sie alle haben identische CPU Kerne und unterscheiden sich lediglich in Strukturbreiten, Taktfrequenzen und Speicherbandbreiten.

Qualcomm ist der einzige unter diesen Herstellern, der KEINE ARM Designs verwendet, sondern bei ARM Lizenzen für die Befehlssätze der ARM CPUs kauft und eigene ARM kompatible CPUs in seine SoCs verbaut.

Ähnlich, wie AMD zu Intels x86 kompatible Prozessoren entwickelt und baut.

Der Snapdragon QSD 8250 (aus dem Nexus One) war ein SoC mit 1GHz Scorpion Kern als CPU.
Der Scorpion trat seinerzeit gegen den Cortex A8 und in späteren SoCs (z.B. MSM 8260 aus dem HTC Sensation) auch gegen Cortex A9 an.
Der Krait genannte neue Qualcomm Chip ist eine Eigenentwicklung, wie schon der Scorpion. Die dabei bekannt gewordenen Designmerkmale sind laut anandtech vielfach ähnlich zu den Designmerkmalen von ARMs eigener Cortex A15 Architektur, die jedoch noch nicht marktreif ist.

Athlon64 X2 musste gegen Pentium4, Pentium D und schließlich gegen den Core2Duo antreten, basierte aber auch auf keinem der Pentium oder Core2 Designs.
Der Phenom X4 konkurrierte mit dem Core2Quad basierte ebenfalls nicht auf dessen Design. usw.

Es steht absolut außer frage, daß Krait Kerne sehr viel schneller sind als Cortex A9 Kerne. Die Frage ist wie diese im Vergleich zu den ersten Cortex A15 Kernen abschneiden werden.
Diese werden aber nicht vor 2013 in den Läden stehen.
 
Zuletzt bearbeitet:
An sich stimme ich Qualcomm ja zu. Verbesserung in der Architektur bringen automatisch mehr Leistung während mehr Kerne angepasste Software benötigen.

Trotzdem wird es schwer gegen Intels Marketingmacht anzustinken die spätestens bei der nächsten Verkleinerung der Strukturen sich nicht weiter zu helfen wissen wird als diese in noch mehr Kerne umzusetzen.
 
terraconz schrieb:
CPU Leistung haben eh beide satt ob da der S4 mal paar % vorne ist oder mal % hinten ist völlig egal im Alltag aber die GPU unterscheiden sich schon deutlicher und das ist imho bei nem Smartphone atm der wichtigere Part bis Anwendungen kommen die diese massig CPU Power nutzten dann kann es sich wieder umdrehen.



Also vorweg mal es ist keine neue gen sondern immer noch ein Cortex A9 der einfach ein dualchannel Interface spendiert bekam.


Ich weiss ja nicht wo ihr alle kuckt, aber recht muss ich dir geben, das CPU Leistung mehr als genug da ist, auf die oder die Art.
Aber wo die GPU von Tegra 3 stark ist musst du mir erklähren? Kann mit der letzten Mali 400 MP4 im SGS 2 mithalten (266Mhz), mehr aber auch nicht.

Dann schon im Exynos 4210 im SGS 2 gabs ARM 9 Kerne mit Dualchannel Speicher.
Genauso bei TI Omap 4xxx im GNex z.B.

Qualcomms Krait ist eine Eigenentwicklung und hat mit ARM 9 wenig zu tun. Ist aber auch noch kein ARM15.


Aber IMHO ist der neue King of the Hill Samsungs Exynos 4412. Die GPU ist der Konkurrenz voraus (Mali 400MP4 400 Mhz) und der Quad hat auch genug wumms dazu noch Dualchannel und 32NM Fertigung.
http://www.anandtech.com/show/5810/samsung-galaxy-s-iii-performance-preview


Was hier immer über den Stromverbrauch lamentiert wird?
Sämtliche dieser SoC haben eine TDP von 2W.

Ob jetzt Tegra 3 unter Vollast mit aktivierten GPS, 3G Datenverbindung, WLAN etc. z.B. 1900mW nimmt, der neue Exynos 1700mW und Krait 1500mW macht den Kohl nicht fetter. Das ist für die Laufzeit ziemlich irrelevant wenn das Display in dem Moment angenommene 10W zieht!
 
Zuletzt bearbeitet:
Wenn ich mir bei beinahe gleicher Leistung 0,4 Watt sparen kann, sind das immerhin 4% der Leistung die das Display braucht. Die nehm ich doch gerne mit.
Im Allgemeinen verstehe ich den Multicore-Wahn bei ARM-Architekturen nicht. Bei x86 fing man mit der Schiene auch erst an als kaum noch große Leistungssprünge möglich waren mit einem Kern, das dürfte bei ARM noch nicht der Fall sein.
Andererseits haben die Programmierer so schonmal die Zeit sich einzugewöhnen auf Multicore-Programmen.
 
TrueAzrael schrieb:
Wenn ich mir bei beinahe gleicher Leistung 0,4 Watt sparen kann, sind das immerhin 4% der Leistung die das Display braucht. Die nehm ich doch gerne mit.

Was bringen mir diese 4% wenn ich einen Akku hab der 30% weniger Kapazität hat (One S)
oder 15% (One X) und das Display dann noch ca. 10% mehr Saft benötigt (LCD>AMOLED)?
Im Vergleich mit SGS III

Immer schön zuende denken! ;)
 
Genau immer schön zu Ende denken, hier gehts erstmal nur um die Prozessoren, wenn die Hersteller, dann um einen Dualcore andere Hardware verbauen als um einen Quadcore, liegt das erstmal nicht am Prozessorhersteller. Aber das haben die Hersteller eh noch nie geschafft, bspw. Sony beim Xperia P aus Aluminium und das Topmodel Xperia S aus Kunstoff (bin mir nicht sicher ob es die beiden Geräte waren). Da frag ich mich manchmal, wer da einige Entscheidungen trifft.
 
epospecht schrieb:
Ich sehe da die Leistung Qualcomms nicht so wirklich.

Man lizenziert ein fremdes Design, bietet es in einem eigenen SOC an und redet dann von der Überlegenheit der eigenen Lösung?
...
Wie Mike-o2 schon geschrieben hat hat Qualcomm, im gegensatz zu den meisten (oder gar allen) anderen Herstellern von ARM SoCs, nicht nur eine Lizenz die Fertigen Cortex Cores von ARM zu nutzen sondern eine Lizenz auf den ARM Befehlssatz die es ihnen erlaubt ihre eigenen Cores zu entwickeln was sie auch nutzen.
...
Es ist ja nicht so dass sich die Konkurrenz den A9 Kernen verweigert. Sie haben sie nur nicht in die bisherigen (bereits lange kaufbaren) Produkte integrieren können.
Mit der nächsten Generation der Tegras etc. werden die auch kommen. Das, in Verbindung mit einer möglichst kleinen Fertigungsstruktur (deren Größe aber außerhalb des Unternehmens, nämlich bei TSMC (Ausnahme ist Samsung) liegt) ...
Cortex-A9 Cores stecken mittlerweile in fast allen Aktuellen ARM SoCs welche in Smartphones verwendet werden und bald kommen wohl die Cortex-A15 Cores (zuerst wohl bei Texas Instruments) welche pro Takt in etwa doppelt so schnell sind und den Qualcomm Snapdragon S4 wohl locker abhängen.
... und einer potenten GPU, macht den Erfolg aus. Und da hat Qualcomm halt überhaupt nichts eigenes zu bieten.
Sagt dir Adreno was? Das sind die GPUs von Qualcomm und die sind garnicht einmal so schlecht, Samsung, Texas Instruments und Apple kaufen die GPUs ja von ARM (Mail) oder PowerVR (Imageon (Adreno) gehörte früher zu ATI/AMD wurde aber an Qualcoom verkauft).
http://www.qualcomm.com/solutions/multimedia/graphics

ps. Und TSMC ist nicht der einzige Auftrags Fertiger für Chips, Apple lässt ja bei bzw. von Samsung fertigen und Qualcomm will ein teil der Fertigung wohl zu GlobalFoundries (ehemalige AMD Fertigung) verlagern.
 
Zuletzt bearbeitet:
modena.ch schrieb:
Was hier immer über den Stromverbrauch lamentiert wird?
Sämtliche dieser SoC haben eine TDP von 2W.

Ob jetzt Tegra 3 unter Vollast mit aktivierten GPS, 3G Datenverbindung, WLAN etc. z.B. 1900mW nimmt, der neue Exynos 1700mW und Krait 1500mW macht den Kohl nicht fetter. Das ist für die Laufzeit ziemlich irrelevant wenn das Display in dem Moment angenommene 10W zieht!
Der Unterschied liegt oft darin, was in dem SoC integriert ist und was per separatem Chip realisiert werden muss. Soweit ich gelesen habe ist der Qualcomm S4 der einzige SoC der ein LTE Modem integriert hat.
Tegra 2 hat z.B. einen separaten Chip für 2G/3G, der auch erheblich zum Stromverbrauch beiträgt. Das auch bei Empfang und Senden wenn das Display aus ist.
 
modena.ch schrieb:
Ob jetzt Tegra 3 unter Vollast mit aktivierten GPS, 3G Datenverbindung, WLAN etc. z.B. 1900mW nimmt, der neue Exynos 1700mW und Krait 1500mW macht den Kohl nicht fetter. Das ist für die Laufzeit ziemlich irrelevant wenn das Display in dem Moment angenommene 10W zieht!
Das macht den Kohl sehr wohl fetter - ein typisches Smartphone-Display (die ganz großen Brummer mal ausgenommen) verbraucht bei höchster Helligkeit kein ganzes Watt. Der Stromverbrauch des SoC hat hier also schon einen gewaltigen Einfluss.

Der Mali kann genau wie der A9 bzw. A15 von ARM lizenziert werden - jedem Hersteller steht es frei, diese oder eine andere GPU zu lizenzieren. Texas Instruments ist zum Beispiel als SoC-Pionier irgendwie PowerVR verbunden, da diese Wegbereiter für mobile GPUs waren. Nur der Adreno ist nicht mehr lizenzierbar, seit dieser von Qualcomm gekauft wurde.
 
@Mike-o2
Dazu kommt auch noch das WLAN, Bluetooth und GPS mit integriert sind. Qualcomm bietet wirklich alles in einem Chip. Das ist schon kein schlechter Vorteil gegenüber der Konkurrenz.
 
Zurück
Oben