News Qualcomm: Qualität der Kerne wichtig, nicht die Anzahl

Oracle schrieb:
Da es kaum Multicore Unterstützung im Smartphone Bereich gibt, sollte der S4 trotzdem dem Exynos überlegen sein, wenngleich man nicht von "er wischt den Boden" sprechen kann.

Aber eben genau das ist doch das Argument :rolleyes:
S4 = 2 Kerne. Keine Stromverschwendung
Exynos = 4 Kerne. Stromverschwendung, weil Software nur 2 ausnutzt -> Kerne werden abgeschaltet. Keine Stromverschwendung.

In dem Moment, wo eine App mehr als 2 Kerne nutzen kann, hat der Exynos die Nase vorn.
In dem Moment, wo eine App höchstens 2 Kerne nutzen kann, schaltet der Exynos die übrigen ab.

Insofern ist es höchstens noch ein Kampf der Megahertz bzw. Gigahertz zahlen. Und ich glaube nicht, dass die 100 Mhz vom S4 soviel mehr ausmachen, vorallem, da man den Exynos bestimmt noch übertakten kann...
 
Mike-o2 schrieb:
Dass derartige Quad-Core-Modelle auf Cortex-A9-Basis dennoch je nach Test besser abschneiden, führt der Manager auf fehlende Software-Anpassungen zurück. Noch immer können nicht alle Programme und Betriebssysteme alle Vorteile von Mehrkernsystemen ausreizen. Ab einem gewissen Punkt würde die Effizienz aber immer abnehmen, wenn man mehr und mehr Kerne verbaut.
Dieser Satz macht keinen Sinn.
Entweder hat er sich da um Kopf und Kragen argumentiert, oder es ist ein Übersetzungsfehler.

Mir kommt die Aussage auch seeehr seltsam vor. Wenn die Software nicht richtig mit Mehrkernarchitekturen umgehen kann - in diesem Fall 2 Kerne - dann wohl doch erst recht nicht mit 4 Kernen (die alleine für sich in der Regel auch noch niedriger getaktet sind).

Über den Stromverbrauch mache ich mir außerdem überhaupt keine Sorgen, solange das Display einen Anteil von >80% daran trägt.
 
Zuletzt bearbeitet:
Ach das weiss man doch schon spätestens seit Tower Defense, Qualität statt Quantität :-)
...nasses Wasser
 
mein nächstes handy wird dann ein A15 quad core sein :D (in nem jahr oder so.. hoffentlich werden spätestens auf dem nächsten MWC entsrpechende modelle vorgestellt)

bis dahin muss dann mein htc sensation noch herhalten
 
@ mike-o2: genau das habe ich auch gedacht.
 
naja für aktuelle Anwendungen finde ich ein Quadcore noch nicht sinnvoll, aber es werden sicher bald Anwendungen kommen, die einen solchen Prozessor auch ausnützen können.

zb kommt vielleicht schon dieses Jahr das erste Handy mit Android raus, dass beim anstecken an einen ext. Monitor ein vollwertiges Ubuntu Betriebssystem dazulädt, inkl. Webrowser, Office Programmen usw.
 
Pyroplan schrieb:
@bambule1986 mag für uns normale User stimmen, aber bei professionellen Anwendungen oder im Serverbereich sieht es wieder ganz anders aus.

Und ich glaube AMD kann (finanziell) und will auch nicht 2 komplett verschiedene Designs entwickeln damit wirklich alle zufrieden sind. Zumal die Bulli Archi gar nicht soo schlecht. und mit Piledriver wird es eh nochmal besser, was die effizienz angeht.
aber ideal ist sie nicht, muss ich zugeben.
bambule1986 schrieb:
Ist so ähnlich wie bei AMD:Viele schlechte Kerne bringen einem auch nicht viel.



Komisch hab sogar meinen FX6100 auf 2,4 GHz runtergetaktet weil ich die Leistung mit Standardtakt (3,3 GHz) extrem selten (höchstens für Videoenkonvertierung) benötige^^. Aber vielleicht habt ihr ja alle so anspruchsvolle Anwendungen die mir nicht geläufig sind. Bin mal gespannt ob mir jemand eine nennen kann (für Privathaushalte).
 
Zuletzt bearbeitet:
legan710 schrieb:
Was bringen viele Kerne für Multitasking wenn das OS kein Multitasking hergibt?
...oder die meisten Apps Single-Threaded programmiert sind, dann laufen diese durch mehr Kerne nicht schneller.
Eine höhere Rechenleistung pro Kern beschleunigt solche Apps allerdings.
 
Leute ist doch egal wieviel Prozessorleistung der S4 oder der Tegra hat. Fakt ist beide haben mehr als genug Leistung für alle Anwendungen die auf Smartphones gefahren werden. Im Serversegnment sieht es da mit Sicherheit ganz anders aus.
Der andere Punkt ist aber die Leistung abseits der CPU, nämlich der, der GPU, da immer mehr Smartphones eher zu einer Art Handheld-Konsole wird und da ist nVidias Tegra Chip in der 3D-Leistung einfach ganz oben.
 
Gorby schrieb:
Der andere Punkt ist aber die Leistung abseits der CPU, nämlich der, der GPU, da immer mehr Smartphones eher zu einer Art Handheld-Konsole wird und da ist nVidias Tegra Chip in der 3D-Leistung einfach ganz oben.

Das wäre mir neu oO.
PowerVR SGX 543MP2 ist über 1 Jahr (z.B. iPhone 4, iPad 2) vor dem Tegra 3 da gewesen und schneller...
 
Zuletzt bearbeitet:
Da hat der gute Mann wohl grundsätzlich Recht. Das heißt aber nicht, dass es am Markt auch so angenommen wird. Gerade weil die Entwicklungszyklen bei diesen Mobil-CPUs so schnell sind, wird es schnell unübersichtlich. Und so bricht der "Berater" im "Fachhandel" schnell auf greifbare Größen zurück, wie beispielsweise Taktfrequenz und Anzahl Kerne. Mit dem Ergebnis, dass der Kunde am Ende vielleicht mit einem Quadcore anstelle eines sinnvolleren Dualcores nach Hause geht.
Zu finden sind diese Vereinfachungen z.B. auch bei Digitalkameras, wo viele Menschen denken, dass mehr MPixel = höhere Qualität.
 
Der S4 ist schon ein Stück mehr als ein minimal erweiterter Cortex A9 - der Core ist dem A15 deutlich näher als dem A9. Beim Tegra 3 stimmt leider fast gar nichts, 40nm sind von gestern und auch bei der so hoch gelobten GPU-Leistung lässt man sich häufig von Qualcomm's Notlösung Adreno 225 ganz schön unter Druck setzen. Trotz abgespeckten Core scheint auch die Energieeffizienz nicht wirklich gut zu sein, zumindest bei den beiden HTC One hat Qualcomm bei der Akkulaufzeit die Nase klar vorne (ich weiß, die beiden Geräte sind nicht 100% vergleichbar, aber es ist zumindest ein Anhaltspunkt).

Ein zusätzliches Problem der Konkurrenz ist die Baseband-Integration: ein Baseband-Chip benötigt immer zusätzliche Fläche und Energie - und genau hier kann die Konkurrenz mit den integrierten Lösungen von Qualcomm einfach nicht mithalten. Und wenn man mal irgendwo hinten dran ist, dann kauf man einfach den entsprechenden Hersteller ein: mit Atheros haben sie sich wohl einen der größten WLAN-Hersteller einverleibt.
 
Frommi32 schrieb:
naja für aktuelle Anwendungen finde ich ein Quadcore noch nicht sinnvoll, aber es werden sicher bald Anwendungen kommen, die einen solchen Prozessor auch ausnützen können.
Telefonieren und SMS schreiben wird es wohl nicht sein, daher wird es allen Nutzern, die ihr Handy nicht zum prollen haben herzlich egal sein, was da für ein Chip drin ist.
Kann mich auch nicht erinnern, dass früher mal angegeben wurde, das dieses Nokia 30Mhz hat und das Sony Erricson 33Mhz...

Irgendwo läuft doch die Smartphone Entwicklung aus dem Ruder. Alles was nichts mit längeren Akkulaufzeiten zu tun hat, ist durchweg verschwendete Energie.
 
SavageSkull schrieb:
Telefonieren und SMS schreiben wird es wohl nicht sein, daher wird es allen Nutzern, die ihr Handy nicht zum prollen haben herzlich egal sein, was da für ein Chip drin ist.
Kann mich auch nicht erinnern, dass früher mal angegeben wurde, das dieses Nokia 30Mhz hat und das Sony Erricson 33Mhz...

Irgendwo läuft doch die Smartphone Entwicklung aus dem Ruder. Alles was nichts mit längeren Akkulaufzeiten zu tun hat, ist durchweg verschwendete Energie.


Der Unterschied ist jedoch, dass man damals höchstens ein paar Spiele hatte, wo vorher angegeben war, für welches Modell diese entwickelt wurden. Damals BRAUCHTE man keine Angeben zu der Hardware im Gerät.

Bei Android hat man jedoch einen Market, wo SÄMTLICHE apps drinnen sind (in der theorie, du weisst, was ich meine).
Außerdem gibt gewisse Apps, die mindestens X Megaherz (oder Auflösung) brauchen, und später wird es Apps geben, die mindestens 2 Kerne brauchen.
Insofern muss man vorher wissen (bzw. damit rechnen können) welche Apps auf dem Gerät laufen - daher muss ein Kunde auch wissen, welche Technik in seinem Gerät steckt.
 
Was ich mich gerade frage: Wie gut ist eigentlich der Thread-Scheduler in Ice Cream Sandwich? Skaliert das System gut auf vier CPU-Kerne?
Hat damit jemand Erfahrungen? Ich habe bislang noch keinen Vierkerner mit ICS laufen sehen.
 
Android ist das eine, die Apps das andere: das Betriebssystem hat wohl keine großen Probleme die Aufgaben auf mehrere Kerne zu verteilen, bei den Anwendungen sieht es aber anders aus. Kaum eine App kann sinnvoll und mit erträglichem Aufwand mehr als maximal 2 Kerne beschäftigen, über 90% der Programme würde ich mal sagen kommen mit einem potenten Single-Core viel besser zurecht als mit hoher Multiprozessorleistung.
 
Scheinbar sieht da Qualcomm sich zu genötigt zu einer solchen Aussage. Macht sich ja auch nicht gut im Marketing so ein DualCore gegen einen QuadCore. Das es zur Zeit wenig Unterschiede in der Leistung gibt bis hin zu wirklich viel mehr Leistung in einigen wichtigen Test können wir mal außen vor lassen. Quad ist in der Werbung besser als DualCore.
 
Hätte das mal einer vor 10 Jahren zu mir gesagt... Handy mit 4Kern CPU a 1200MHz :-D
Wahnsinn... frag mich echt wozu man das braucht.
Gelobt sei mein Nokia 6303 Classic *g*
_________________
Die Leistung ist ja echt Wahnsinn, was die neuen Smartphones haben, Manko ist halt der Akku...
Ich hab keine Lust mein Telefon(PC) jeden Tag zu laden.
Hoffentlich kommt bald so ne Nuklear-Energiezelle wie beim X-Phone raus...
(mit einer Betriebsdauer von über 80 Jahren :D )
 
Ich denke da werden schon ein paar Marketingprobleme auf manche Hersteller zukommen.
Wie will Samsung dem Kunden in Zukunft verklickern das 2 A15 besser sind als die 4 A9 die sie jetzt im Galaxy S3 verwenden.
Ich glaube nicht das so schnell Quad A15 in die Smartphones wandern. (Bei Nvidia bin ich mir nicht ganz sicher^^)
Aber Qualcomm hat die Quad-Krait ohne Mobilfunkchip auf dem Plan. Die sollen wahrscheinlich mehr in Tablets und Netbooks rein. Samsung hat auch bisher nur nen Dual A5 angekündigt. Und TI geht eh immer konervativ an die Sache ran. Haben ja selbst nur Dual A9 SoCs mit vergleichbar schwacher GPU. (Co-Prozessoren mal nicht mitgerechnet)

Der A15-Kern nimmt ja erheblich mehr Platz in Anspruch als nen A9. Wobei das am Gesamtdie nicht grad so sehr viel ausdmacht.
 
Augenringmann schrieb:
Wenn ich richtig informiert bin, sieht es doch folgendermaßen aus:
Der S4 (Dual von Qualcomm) setzt auf eine aufgebohrte ARM A9-Architektur. Wenn die Power nicht benötigt wird, werden die Mhz runtergefahren, um Strom zu sparen. Richtig?
Soweit stimmt das für den Snapdragon S4 (MSM8260A) im HTC One S bzw. in Asus Padfone.
Da die Snapdragon S4 Cores wohl in etwa zwischen dem Cortex A9 und dem A25 liegen dürften kann man sie sicher als "aufgebohrte ARM A9-Architektur" bezeichnen.
Der Exynos 4412 (Quad von Samsung) setzt auf eine aufgebohrte ARM A9-Architektur. Wenn die Power nicht benötigt wird, werden nicht nur die Mhz runterfahren, sondern auch noch die nicht genutzten Kerne abgeschaltet. Richtig?
Das stimmt so nicht ganz, der Exynos 4412 hat ein Cortex A9 Kern und anders als Qualcomm hat Samsung (wenn ich mich nicht irre) keine Lizenz eigene Cores zu designen deshalb ist es auch kein"aufgebohrter" Cortex A9, erst der Exynos 5250 (Dualcore mit A15
Wenn beides stimmt sehe ich kein Argument, das in Puncto Stromsparen oder Leistung für den S4 und gegen den Exynos 4412 spricht. Für mich sieht der Exynos 4412 quasi wie eine Quad-Version des S4 aus, nur eben mit der sinnvollen Stromsparfunktion, die Kerne abzuschalten.
Und eben mit "Schlechteren" Kerne.
edit:
Außerdem sollte man doch folgende Dinge nicht außer Acht lassen:
- Tegra 3 ist ein halbes Jahr vor dem S4 auf den Markt gekommen (Qualcomm hatte mehr Zeit, das beste aus der A9-Architektur rauszuholen pro Kern)
...
Auch Nvidia hat keine Lizenz die Cores anzupassen deshalb hätte ihnen die Zeit gar-nichts gebracht und wie es aussieht fokussiert sich Nvidia zukünftig (zumindest vorerst) vor-allem auf Tablets da nur ein Quacore A15 geplant ist was für Smartphones wohl einen zu hohen Stromverbrauch und eine zu hohe Hitzeentwicklung (Laut dem c't Test hat ja sogar schon das One X mit Tegra 3 Probleme damit) bedeuten dürfte. Zur Architektur zum "Companion-Core" konnte ich auf die Schnelle nichts finden, da ARM dies aber offiziell erst ab Cortex-A15 vorsieht gehe ich davon aus das es einfach ein runter getakteter (und abgespeckter) Cortex-A9 ohne Anpassungen am eigentlichen Core Desing (was Nvidia ja eigentlich nicht darf) ist.
 
Zurück
Oben