News 10-Core-SoC: MediaTek Helio X20 kommt mit High-End-GPU von ARM

aspro schrieb:
Andererseits muss bei den SoCs die Gewinnmarge ja riesig sein, wenn man einfach so mal 10 Cores auf einen Chip packt, von denen effektiv nur 2-4 nutzbar sind und dementsprechend auch nicht viel teurer sein darf, als normale Quadcores, aber deutlich mehr Chipfläche braucht.
Ein A53 ist etwa 1mm^2 groß (bzw klein).

Bagbag schrieb:
Warum nicht einfach die Kerne mit 2 GHz runtertakten?

Die Qualcomm Krait Kerne konnten das. In einem Cluster aus Cortex-Kernen haben die Kerne alle den gleichen Takt (oder sind ausgeschaltet - das geht auch einzeln). Die Kerne takten nur gemeinsam hoch und runter.
Daher das zusätzliche Cluster - für die weniger anspruchsvollen Aufgaben. Dann können Kerne im hochgetakteten Cluster abgeschaltet werden, anstatt ebenfalls auf hohem Takt zu laufen.
Zumindest theoretisch sollte das Energie sparen.
 
Die im Helio X20 verbaute GPU ist für eine kolpotierte "Highend"-Smartphone CPU alles andere als leistungsstark.
Rechnen wir mal vor (ich betone: ohne Gewähr, die Informationen zum T880 sind recht dünn und extreme Auslegungssache).

Laut Wikipedia hat ein T760 pro Kern etwa 23,8 GFLOPS Rohleistung, auf 700 MHz Takt gesehen. Laut dem Marketing-Blabla der Firma ARM ist die Performance des T880 etwa 1,8 höher als die des eben angeführten T760. Heißt also:

23,8 x 1,8 = 42,84 GFLOPS bei 700 MHz pro Kern.

Da der T880 des MediaTek Helio X20 vier "GPU-Kerne" besitzen soll (Kürzel MP4), kommt man also auf

42,84 x 4 = 171,4 GFLOPS (aufgerundet) bei 700 MHz.

Das ist natürlich nur ein theoretischer Wert und man kann verschiedene Architekturen bzw. Mobil-GPUs nicht unbedingt miteinander vergleichen. Und doch ist der Unterschied zu anderen etablierten GPUs (Adreno, PowerVR 6XT/7XT) auf jeden Fall auffällig, welcher sich - noch problematischer - auch im Alltag und der tatsächlichen Anwendungsleistung (vor allem Smartphone-Spiele) niederschlägt.

Zum Vergleich: Eine Adreno 320 (bspw. des Galaxy S4 - Erscheinungsdatum Mai 2013) hat lt. Wiki 97.2 GFLOPS, eine Adreno 430 (Snapdragon 810-basierte Geräte) hat sogar 330-380 GFLOPS. Das iPhone 6 mit seiner PowerVR GX6450 GPU hat lt. Wikipedia eine Rohleistung von 332 GFLOPS.

Und was die schiere Anzahl der CPU-Kerne angeht...

MediaTek versucht halt, die Anzahl der CPU-Kerne immer weiter zu erhöhen - klar, 10 Kerne klingen ja im Laden und auf dem Papier geil und so ultraschnell - aber dafür bleibt die GPU immer wieder deutlich auf der Strecke. So auch hier.
Nur leider muss bei diesem Prozessorkerne-Wahnsinn auch die Software mitspielen. Und das tut sie in aller Regel auch heutzutage nicht. Das war damals auch das "Problem" des AMD FX, der nur bei Multithreading-Software (Rendering, Benchmarks, einige wenige Spiele) wirklich schnell war.
Bei Singlethread-Anwendungen, dem Gros der Programme auch heute noch, sieht es anders aus. Einzelne Kerne sind verhältnismäßig langsam, erst im Verbund und bei ordentlicher Parallelisierung wird das ganze wirklich flott. Ich sehe in der Problematik der MediaTek-Mobil-CPUs viel Ähnlichkeit zu (bitte nicht hauen!) den AMD Bulldozer/Piledriver-Prozessoren.

Auch kommt zu der ohnehin schon recht langsamen Grafikleistung hinzu, dass der MediaTek-SoC erst gegen Ende des Jahres auf den Markt kommen soll, sodass die Wettbewerber vermutlich noch schnellere GPUs in ihren SoC haben werden und der Unterschied in Leistung und Benchmarks noch größer sein wird.

Und als sei das nicht schon genug, kommt noch immer (also gegen Ende 2015, wenn diese News stimmt) DDR3-RAM zum Einsatz! DDR4 ist schneller, vor allem durch die geringere Betriebsspannung stromsparender und einfach state-of-the-art, auch wenn letzteres natürlich kein wirkliches Argument für den Einsatz dieser Speichertechnologie ist.

Gruß, Köf3
 
an alle die fragen wieso man die 2ghz kerne nicht einfach untertaktet.

die kerne mit 1,4ghz benutzen sicherlich eigene Transistoren und Schaltungen die besonders energiesparend sind dafür sich aber kaum hoch takten lassen.

Frage ist eher wieso 2ghz A53 für Energiesparsachen reichen doch sicher auch die 1,4GHz
 
Lar337 schrieb:
In einem Cluster aus Cortex-Kernen haben die Kerne alle den gleichen Takt (oder sind ausgeschaltet - das geht auch einzeln). Die Kerne takten nur gemeinsam hoch und runter.
Das ist jetzt aber veraltete info oder?
Das trifft zwar auf mein Galaxy Note 10.1" mit Exynos 4412 und Pegasusq governor zu, aber ich bin doch stark der Überzeugung das ein SD810 oder ein Exynos 7420 nicht den gleichen bedingungen unterliegt. Fakten hab ich dazu leider keine.
 
Was lar337 sagt stimmt so nicht, die können in der tat verschiedene taktraten pro kern haben, nur eben nicht verschiedene spannungen, dass verschiedene taktraten auch sinn machen.

Qualcomms krait kerne können eben jedem kern einzelnt ne spannung zuweisen, da macht das runtertakten einzelner kerne sinn.
 
Köf3 schrieb:
[...] Auch kommt zu der ohnehin schon recht langsamen Grafikleistung hinzu, dass der MediaTek-SoC erst gegen Ende des Jahres auf den Markt kommen soll, sodass die Wettbewerber vermutlich noch schnellere GPUs in ihren SoC haben werden und der Unterschied in Leistung und Benchmarks noch größer sein wird. [...]

Das Wort 'langsam' ist halt immer relativ. Die Frage ist, was erreicht werden soll. Eine flotte Bedienung mit Aero-Glass-Oberfläche auf einem Office-PC braucht ja auch nicht gerade brachiale GPU-Power :D

Bestimmt gibt es doch für alle einigermaßen moderne Smartphones (tolle, coole, hippe) Grafikbenchmarks à la Unigine Valley, Heaven, usw.? Kennt da jemand was und hat einen Link parat? Ich würde das gerne mal auf meinem Moto G sehen.
 
So wie ich das sehe, muss softwaremäßig alles stimmen, damit die 10Kerne auf dem Papier im reellen Gebrauch zum Energie sparen kommen.

Ich bin zwar nicht mit der Theory des O(1)scheduler Vertraut, auch nicht mit mit dem Hardwaredesign einer solchen Big.little.tiny Architectur und auch nicht mit der Processverwaltung von Android, dennoch kommen mir zwei Sachen in den Sinn:

  1. Hoher Verbrauch des CPU BUS (Ring?), da schließlich je nach Active und Visible Process entschieden wird, welche Kerne (oder nur eine Clustereinheit?) zum Einsatz kommen.
  2. Und natürlich wird der Scheduler mehr gefordert = mehr Overhead = mehr Stromverbrauch

Aber so wie das aussieht arbeitet der Scheduler nach CPU Last. Unabhängig welche Priorität der Process hat.

Bin gespannt ob deren Vorhaben tatsächlich auch Strom spart.
 
bensen schrieb:
Der asiatische Markt verlangt eben massig Kerne.

Nein der Westliche Durchschnittskunde verlangt danach,
ist eben nach mehr Megapixel und immer mehr Displayauflösung der neue Trend
 
Haldi schrieb:
Das ist jetzt aber veraltete info oder?

TheDarkness schrieb:
Was lar337 sagt stimmt so nicht, die können in der tat verschiedene taktraten pro kern haben

Erinnert ihr euch was das besondere am QSD800 war?
Es war der erste SoC der in der Lage war alle Kerne unabhängig voneinander zu takten. Und das war keine arm Technologie sondern von Qualcomm. Könnte mir durchaus vorstellen das Mediatek sowas nicht drin hat.
 
2 Kerne runtertakten jaja. Aber hast du mal den Verbrauch vom Core M und i7 4970k(Desktop CPU) im Leerlauf angeschaut. Der Core M dürfte bei 0,2W liegen die schnelle i7 bei 4-8W. Das ist auch der Grund, warum es dort mehrere Dualcores verbaut sind. Mmn würde aber auch ein 1*1,5Ghz Kern und 2*2,5Ghz Kerne reichen. Quasi ein Tri-Core. Einer für low Power Anwendungen, für Videoplayer, Musikplayer, Texte lesen. Die schnellen zum Laden und zocken.

MedieTek beschreibt es wie eine Gangschaltung beim PKW. Der Gedanke ist nice, aber es ist 1. teuer und 2. wird die Software die Stufen nicht intelligent nutzen. PC hat 1 und 0 an und aus. Dans Handy ackert und schmeißt alles an oder es tut Nichts und ein low Power Kern läuft. Mir ist es rille. Hauptsache bezahlbar, schnell und kühl /Stromsparend.
 
Shurkien schrieb:
Erinnert ihr euch was das besondere am QSD800 war?
Es war der erste SoC der in der Lage war alle Kerne unabhängig voneinander zu takten.
Eben nicht, das habe ich aber auch nur extra erklärt. Die ganzen anderen Arms können genau so die Taktrate ändern, ebenso wie normale x86. Nur bringt es, wie gesagt, eher nichts wenn die Spannung gleich bleibt.
Die anderen Socs tun das daher im Praxiseinsatz einfach nicht.

Qualcomm hat es sinnvoll gemacht, da sie jeweils eine Spannung pro Kern und nicht pro Cluster haben.
 
crackett schrieb:
Das muß softwareseitig auch entsprechend unterstützt werden, damit das ordentlich funzt oder nicht? Wie weit ist da der Stand der Technik?

Quadcores werden doch schon von allen Systemen unterstützt so weit ich weiß und die Software hat auf mobile Systemen sowieso wenig Einfluss auf die Hardware da das OS das steuert. Einzig bei Apple bin ich mir nicht sicher ob IOS mit Quads umgehen kann.
Und mehr als ein Quad auf einmal wird auch bei dem Chip hier nicht aktiv sein.
 
Faust2011 schrieb:
Eine flotte Bedienung mit Aero-Glass-Oberfläche auf einem Office-PC braucht ja auch nicht gerade brachiale GPU-Power :D
Klar, allerdings sollte hier nicht vergessen werden, dass der Helio X20 als "Highend-SoC" bezeichnet und vermutlich dann auch so vermarktet werden wird. Er wird vermutlich - habe dazu noch keine Infos gefunden - in "Highend-Smartphones" verbaut, und dann sollte die Grafikleistung schon der der Konkurrenz enstprechen.
Was aber nicht der Fall ist, im Gegenteil. Qualcomm wird dagegen irgendwann 2015 den Snapdragon 820 vorstellen, mit Adreno 530. Zu dieser GPU gibt es keine gesicherten Informationen, aber schneller als die 430er wird diese garantiert sein. Und der Snapdragon 820 soll angeblich in 14nm FinFET gefertigt sein, wohingegen MediaTek noch immer bei 20 nm rumgurken wird.

Was solls, für die Samsung Exynos und Qualcomm Snapdragon-Prozessoren war MediaTek noch nie ein ernster Konkurrent, wenn es um Leistung geht. MediaTek definiert sich halt über den möglichst geringen Preis und das scheinbar auch recht erfolgreich.

Dementsprechend ist allerdings auch das Image zumindest in der technikaffinen Öffentlichkeit. Die Vorurteile "Langsame GPU" und "Viele-Kerne-Wahnsinn" sowie "Technik-Rückstand" werden leider auch hier wieder bestätigt.

Gruß, Köf3
 
nlr schrieb:
Interface war unglücklich ausgedrückt.
Die Information zu dem Bus stammt von einer MT-Folie aus einer älteren Präsentation.
http://victor8481.tistory.com/528
Ja könnt ihr da nochmal nachhaken? Denn das passt ja mit der kleinen Speicherbandbreite nicht zusammen.
Köf3 schrieb:
Und als sei das nicht schon genug, kommt noch immer (also gegen Ende 2015, wenn diese News stimmt) DDR3-RAM zum Einsatz! DDR4 ist schneller, vor allem durch die geringere Betriebsspannung stromsparender und einfach state-of-the-art, auch wenn letzteres natürlich kein wirkliches Argument für den Einsatz dieser Speichertechnologie ist.
Viel stromsparender stimmt schon, aber nicht in erster Linie durch ne geringere Spannung. Die hat sich nämlich kaum verringert beim mobile DRAM.

WC_Ente schrieb:
Nein der Westliche Durchschnittskunde verlangt danach,
ist eben nach mehr Megapixel und immer mehr Displayauflösung der neue Trend
Das ist ja Quatsch. Klar, verkaufen sich auch hier mehr Kerne besser.
Aber im asiatischen Markt ist das viel extremer.
Hatte nen Qualcomm-Verantwortlicher selber gesagt (wenn auch inoffiziell). Da hat er gesagt, dass der Octacore mit A7 Kerne eigentlich unsinnig sei, aber der asiatische Markt danach verlangt. Mit ihren Dualcore Kraits hatten die dort keine Chance. Da liefen A7-Quads besser, obwohl sie langsamer sind.
 
-Glaubst wohl auch nur du,
Das meiste was in Asien Abgesetzt wird sind Dual und Quadcores :freak:
 
High End ist ein undefinierbarer Begriff, der in der Regel inflationär verwendet wird
und meißt deplaziert ist und nur in Ermangelung passender Begrifflichkeiten stell-
vertretend verwendet wird. Ich erbitte die zeitnahe Unterlassung dieses Handelns!
 
Haldi schrieb:
Das ist jetzt aber veraltete info oder?
Das trifft zwar auf mein Galaxy Note 10.1" mit Exynos 4412 und Pegasusq governor zu, aber ich bin doch stark der Überzeugung das ein SD810 oder ein Exynos 7420 nicht den gleichen bedingungen unterliegt. Fakten hab ich dazu leider keine.
Zumindest nutzt Qualcomm bei den 600ern auch die 2 Cluster Variante. Spricht dafür, dass noch immer keine unabhängige Taktung (oder von mir aus auch nur Spannungsversorgung) in Cortex Clustern möglich ist.
 
Die Cortex-A53 mit 1,4GHz sind Standardmodelle von ARM, die 2GHz-Versionen sind speziell von MediaTek aufgebohrte Eigengewächse.

Ein A57 so weit runtergetaktet, daß er so schnell wie einer dieser 2Ghz-Teile ist, verbraucht 2-3 Mal so viel Strom. Viel stromsparender dürfte ein A72 auch nicht werden, sind doch beide schlicht nicht darauf ausgelegt.

Von ARMs Cortex-A CPUs können maximal vier zusammen ein Cluster bilden, außer beim A7, dort sind es 8.

Irgendwas hat MediaTek wohl richtig gemacht, der SoC-Absatz stieg letztes Jahr von 250 Mio. auf 350 Mio. Stück.
Sie sind damit an Apple vorbei auf den zweiten Platz hinter Qualcomm vorgerückt.
 
Zuletzt bearbeitet von einem Moderator:
Für das gewohnt günstige Geld wird der neue Chip ein super Angebot sein. Schlechtmacher hin oder her.
Warum das vielfache für Smartphones/Tablets mit anderen Chips zahlen, wenn man bessere, als die schon praxistaugliche Leistung der aktuellsten Mediatek-Chips bekommt?
 
Oromis schrieb:
Also ich finde ein big.little System hat ja einen guten Ansatz, und würde einen einzelnen kleinen Zusatzkern im x86 Bereich durchaus als Innovation und Bereicherung empfinden, aber 3 Abstufungen sind dann schon etwas krampfig.
Für diese Mehrzahl an Transistoren hätte man wohl auch größere Kerne mit niedrigerem Takt bauen können^^

Wozu Intel hat das mit dem stromsparen offenbar viel besser im Griff wenn man sich mal die Verbrauchsspanne anschaut in der Bay bzw Cherrytrail arbeiten.
 
Zurück
Oben