"Iphone 8 schneller als Core i5 Macbook Pro" - möglich?

nighteeeeey

Captain
Registriert
Jan. 2007
Beiträge
4.027
Grade wurde mir dies in die Timeline gespült.

Kann das tatsächlich wahr sein? Ich finds ehrlich gesagt schwer zu glauben.

Dass jetzt keine Quellen dazu angegeben sind (Juchei, Internet 2017) machts jetzt nicht grade glaubwürdiger.

Gibts da irgendwelche Anhaltspunkte oder Benchmarks zu? Ich bin absolut kein Apple Fan aber dass eine Smartphone CPU einen ausgewachsenen 15/28W Prozessor schlagen soll halte ich irgendwie für Humbug.

Bitte um professionelle Meinungen.
 

Anhänge

  • 21762831_2024514491159595_3586089670131528918_o.jpg
    21762831_2024514491159595_3586089670131528918_o.jpg
    111,5 KB · Aufrufe: 492
Apple knallt bei den SoCs gerade richtig. Und du kannst dir sicher sein, dass irgendwann ein Macbook mit A-SoC kommt.
 
Schon, nur sagt der Wert im alltäglichen leben nicht viel aus. Desktop Prozessoren sind nicht umsonst so groß oder benötigen so viel Strom. (will aber nicht die Leistung der Smartphone-CPU schmälern)
1. welcher i5 und wie lange kann die Leistung bis zum Drosseln gehalten werden? 1 Min?
 
Zuletzt bearbeitet:
ist auch eine sache der softwareanpassungen.. ein macbook pro rendert auch mit final cut pro x auch um einiges schneller als mit jeder anderer software..
 
Und was sagt das aus? Nix. Außer, dass der eine HW-Encoder für die Spezialaufgabe ein bisschen schneller ist als der andere. Lass das ganze mit nem Software-Encoder durchlaufen ohne dass das iPhone nach 10 Sekunden wegen überhitzung drosselt, dann sprechen wir noch mal.
 
Dass das iPhone 8 irgendwo schneller ist als Core i5 MacBook Pro bedeutet für mich jetzt was? Solange das iPhone 8 keinen X86 Code ausführen kann ist mir das ziemlich egal. Wenn er in meinen Anwendungen schneller ist als der Core i5 da dann ist das interessant...
 
Naja interessant wäre ja jetzt mal zu wissen, wie lange ein i5 Macbook Pro (oder irgendein anderes Notebook mit der gleicher CPU) zum rendern für 2 Minuten 4k Material benötigt.

Und ja ich weiß auch das sagt wenig aus, die Bitrate könnte ja sonst wie sein, aber es wäre zumindest mal ein Anhaltspunkt.
 
Das sagt gar nix aus, dann ist ein in einem iPhone-SoC integrierter Hardware-Encoder vielleicht bei einem 1-pass mit irgendwelchen Einstellungen schneller. Toll.

Ohne hinterher einen Qualitätsvergleich des Materials zu machen bleibt das auch komplett schwachsinnig, außer dass sich Fans und Hater gleichermaßen vor dem Monitor einen auf die Zahlen wedeln.
 
Den Versuch musst wohl du durchführen oder wird vlt. sicher mal bei Youtube geben. Einfach so ist die Aussage absolut nichts wert.
 
Das Beispiel ist uninteressant, weil Hardwareencoding qualitativ deutlich schlechter ist als Software Encoding und nur in Ausnahmefällen benutzt werden sollte. Die CPU von Apple ist aber durchaus sehr leistungsfähig. Besonders bei single Core Anwendungen. Dazu kann man sich den sunspider oder google octane Benchmark ansehen. Da ist eine Intel CPU kaum schneller.

Da aber ein i7-6700k kaum größer ist als ein a10x, ist das auch nicht sonderlich verwunderlich.
 
Zuletzt bearbeitet:
es wird ja gerne von vielen Leuten behauptet, dass ARM Prozessoren aufgrund ihres RISC Designs effizienter seine, als x86 CPUs welche nach außen hin immer noch als CISC erscheinen.

Intel wird vieles daran setzten sehr effiziente CPUs zu bauen, gerade weil sie eine überstarke Konkurrenz aus dem ARM Lager haben.
Wenn apple nun so viel effizienter sein sollte, obwohl sie die gleichen oder gar primitivere Fertigungsverfahren haben, dann hätten sie den heiligen Gral der CPUs gefunden.
Haben sie aber nicht, genau so wenig wie Samsung oder Nvidia.

Aber natürlich gibt es Unterschiede was heute "Geschwindigkeit" eig. ausmacht.
Damals war es die Leistung der ALU, welche durch möglich viel Berechnungen die Arbeitsgeschwindigkeit bestimmt hat.
Seit Mitte der 90er werden immer mehr Befehlssätze verwendet, dadurch können in hardware gebrannte Instruktionen direkt angesprochen werden um die ALU nicht damit zu belasten sich das mühselig zu errechnen.

Ähnlich nun auch bei dem De- und Encodieren von Videos.
Es ist heute möglich Videos in Hardware zu erstellen - in der praxis ist leider eine geringere Qualität verbunden, aber es geht.
Die neue CPU vom Apple muss nicht unbedingt mehr Rechenleistung als ein i5 oder als ein exynos von Samsung haben, sondern eine Videoeinheit welche schneller arbeitet.
Und hier verschwimmen die grenzen ...
Eine CPU muss nicht unbedingt die höchste Rechenleistung haben, sondern sie muss auf die potentiellen Anwendungsfälle sehr gut optimiert sein - und es benötigt optimierte Software, welche diese Einheiten der CPU auch nutzt - das gelingt apple besser als keinem anderen, weil sie alles selber bauen.

Der große Umbruch im denken hat Intel 2006 mit dem Core2Duo auf den Markt gebracht.
Man schaute sich die Software an, die von 90% der Menschen so verwendet wird, und hat dann eine Architektur drumherum entwickelt. AMD hat zwei Architektursprünge gebraucht um das einzuholen.

FinalCut z.B. kann sehr schnell rendern, weil es das Framework "GrandCentralDispatch" verwendet, damit kann die Rechenleistung der GPU angesprochen werden.

Hier findet aber auch bei der OS Entwicklung ein umdenken statt - statt auf eine homogene CPU Archtiktur in einem System könnte man auch heterogene verwenden.
Beispiele wären, dass man einen Leistungsschwache ARM CPU hat, welche verwendet wird, wenn der Rechner im Idle ist und die Leistungsstarke X86 wenn man sie braucht.
Das gleiche bei GPUs, auch diese könnte man dafür verwenden, oder beschleunigerkarten von Intel oder oder oder ... es geht viel und wird auch irgendwann kommen
 
Zuletzt bearbeitet:
Danke Rony.
 
Zurück
Oben