News Ohne PowerVR: SoC für iPhone und iPad in Zukunft mit GPU von Apple

Thane schrieb:
Mit einem ARM-Krüppel machst du Intel/AMD keine Angst ^^
Oder man schraubt die Erwartungen an die Rechenleistung eines MacBooks halt herunter.

Man könnte durch aus eine CPU mit ARM Befehlssatz bauen die den großen CPUs von AMD und Intel durch aus ebenbürtig ist. Aber dann wäre man auch beim Energiebedarf und Effizienz ebenbürtig.
 
YforU schrieb:
Aktienunternehmen sind zu solchen Mitteilungen gegenüber den Aktionären verpflichtet.
Schon klar, aber "möglicherweise in 15-24 Monaten". Ist es denn ein Fakt? Für mich liest sich das eher sehr hypothetisch mit wenig handfesten. Apple behauptet zwar, aber gesichert ist nichts.

Oder es dient dem Zweck das Apple sich die restlichen 90% möglichst günstig einverleibt?
 
Thane schrieb:
Dann müsste Apple ja ins x86 Geschäft einsteigen. Mit einem ARM-Krüppel machst du Intel/AMD keine Angst ^^
Oder man schraubt die Erwartungen an die Rechenleistung eines MacBooks halt herunter.

https://www.computerbase.de/2017-03...n/#diagramm-geekbench-4-cpu-total-single-core
Wo genau ist jetzt der Grund, weshalb die Leistung viel schlechter sein sollte? Der A10 ist ein Smartphone Chip. Im MacBook kann man mehr Verbrauch + Wärme zulassen und damit nochmal die Leistung steigern. Vielleicht erreicht man nicht direkt Intels High-End Ableger, aber fürs MacBook (non-pro) bekommt man sicher auch mit einem ARM genug Leistung. Das größte Problem wäre eher, von x86 weg zu gehen, weil dann quasi alles an Software neu gemacht (zumindest neu kompiliert) werden muss - oder man findet eine extrem effiziente Emulation.
 
Volkimann schrieb:
Schon klar, aber "möglicherweise in 15-24 Monaten". Ist es denn ein Fakt? Für mich liest sich das eher sehr hypothetisch mit wenig handfesten. Apple behauptet zwar, aber gesichert ist nichts.

Oder es dient dem Zweck das Apple sich die restlichen 90% möglichst günstig einverleibt?

Imagination Technologies Group plc (LSE: IMG, “Imagination”, “the Group”) a leading multimedia, processor and communications technology company, has been notified by Apple Inc. (“Apple”), its largest customer, that Apple is of a view that it will no longer use the Group’s intellectual property in its new products in 15 months to two years time, and as such will not be eligible for royalty payments under the current license and royalty agreement.

Das ist die Formulierung von IMG und nicht Apple. Relevant ist folgender Satz:
"will not be eligible for royalty payments under the current license and royalty agreement"

Entspricht einer Kündigung durch Apple. Das IMG sich durch die Formulierung der Mitteilung Hintertüren aufhält ist nachvollziehbar.
 
Zuletzt bearbeitet:
getexact schrieb:
Hmm sehr aggressiver Ton, der da von Seiten des Zulieferers kommt. Solche Töne helfen nicht unbedingt in gute Verhandlungen für die Zukunft zu gehen. Zumal ich mich frage. was es dem Zulieferer angeht, was Apple da macht. Natürlich kann so ein Unternehmen wie Apple nicht einfach Patente klauen oder übergehen. Und wenn doch, dann muss eben teuer bezahlt werden.

Wenn der "Partner" schon sagt man will nicht mehr Kunde sein, wieso sollte man da noch Samthandschuhe anziehen?
Zudem hat Apple eine lange Geschichte, grade im Mobilfunk, Patente zu ignorieren. Trotzdem zahlen sie eben nicht.
Ergänzung ()

Autokiller677 schrieb:
Wo genau ist jetzt der Grund, weshalb die Leistung viel schlechter sein sollte? Der A10 ist ein Smartphone Chip. Im MacBook kann man mehr Verbrauch + Wärme zulassen und damit nochmal die Leistung steigern.

Die Leistung ist nicht schlechter, die Leistung ist ca. gleich pro Kern wie ein aktueller i5 U, bei ca. gleicher Die Größe. Die Leistung ist kein Problem, das Problem ist der Befehlssatz: ARM.
Apple ist von PowerPC erst abgerückt als man 50-100% mehr Leistung durch Intel x86 bekam, vorher waren die Probleme die man sich mit einem Wechsel einhandelt es nicht wert. Und das ist hier gleich. Bis aber die ARM CPU doppelt so gut ist wie x86 vergeht noch eine sehr lange Zeit falls das überhaupt jemals eintritt. Einen Wechsel vollzieht man bei einer eingeführten Plattform erst dann wenn die Nachteile riesig sind.
 
Zuletzt bearbeitet:
ist das vielleicht auch das erste indiz, das auch andere vielleicht mal folgen werden, wenn das erfolgreich wird, also die GPU inhouse zu entwerfen? ich meine, im moment ist es ja so, das es immer heißt, sowas kann man auch vergeben und bekommt es günstiger und besser, als wenn man es selbst entwickelt. das ist bei autos so, das ist bei elektronik so usw.

wäre doch mal interessant, das firmen wieder auf die idee kommen, selber dinge zu entwickeln. eine firma lebt doch vom know how der mitarbeiter und nicht davon, das man es nur einkauft und sein logo drauf klebt.

es bleibt zu hoffen, das das auch andere kapieren und sich das know how wieder reinholen, anstatt es out zusourcen, wie man so schön sagt. damit wären dann auch werkverträge usw obsolet.

naja gucken wir mal. hab jedenfalls nichts dagegen. es muss sich eine firma nur mal trauen eine neue architektur aufzuziehen und es auch durchzuziehen, möglichst mit viel kapital dahinter, das es nicht schon vorm beginnen scheitert, vielleicht werden wir dann auch mal die x86 hilfarchitektur los, bzw die gesamte "moderne" computerarchitektur, die ja auch nur aus einer not heraus entstanden ist und dann auch irgendwann in geraumer zeit an ihre (physikalischen) grenzen stoßen wird.
 
LOL, den Geekbench könnt ihr getrost in die Tonne kloppen, der verzerrt das Bild nämlich total.
Ich wollte CB beim letzten Benchmark schon darauf hinweisen, dass das manche Leute dazu bewegen könnte, anzunehmen, dass eine ARM CPU in die Nähe einer x86 CPU kommen könnte.
 
Laggy.NET schrieb:
Siehe Apple SoCs der letzten Jahre. Bei erscheinen immer die höchste Rechenleistung, obwohl nur zwei Kerne gebraucht werden.

Das ist nicht so einfach.
Im Singlecore sind die aufgrund von nur 2 Kernen schneller.
Aber nicht im Multicore sind sie langsamer.
Entweder, oder.
Qualcomm, Samsung etc. setzen mehr auf Multicore.
 
Thane schrieb:
LOL, den Geekbench könnt ihr getrost in die Tonne kloppen, der verzerrt das Bild nämlich total.
Ich wollte CB beim letzten Benchmark schon darauf hinweisen, dass das manche Leute dazu bewegen könnte, anzunehmen, dass eine ARM CPU in die Nähe einer x86 CPU kommen könnte.

Dann Teile dein Wissen doch mit uns oder verlinkte zumindest eine Erklärung warum man das nicht vergleichen kann.
 
Thane schrieb:
LOL, den Geekbench könnt ihr getrost in die Tonne kloppen, der verzerrt das Bild nämlich total.
Ich wollte CB beim letzten Benchmark schon darauf hinweisen, dass das manche Leute dazu bewegen könnte, anzunehmen, dass eine ARM CPU in die Nähe einer x86 CPU kommen könnte.

Klar, und die 4k Videos, die man auf einem iPad Pro bequem bearbeiten kann sind auch nur imaginär oder was? Die Leistung der Mobil CPU's ist heute nach an den x86 Pendants dran. Da gibt es nicht mehr viel zu diskutieren.
 
Popey900 schrieb:
Das ist nicht so einfach.
Im Singlecore sind die aufgrund von nur 2 Kernen schneller.
Aber nicht im Multicore sind sie langsamer.
Entweder, oder.
Qualcomm, Samsung etc. setzen mehr auf Multicore.


Das stimmt nicht. Ja, im Multicore Score können sie sich nicht wirklich absetzen, erreichen aber zum Release so gut wie immer leicht höhere Performance, als die Konkurrenz mit 4 oder 8 Kernen.

Aber gut, so unglaublich ist das dann trotzdem nicht, da die Einzelnen Kerne bei Apple eben sehr viel größer sind, als die der Konkurrenz. Zwei Große gegen vier oder acht kleine. Das Ergebnis ist in Benchmarks quasi das Selbe.
 
Zuletzt bearbeitet von einem Moderator:
Autokiller677 schrieb:
Klar, und die 4k Videos, die man auf einem iPad Pro bequem bearbeiten kann sind auch nur imaginär oder was? Die Leistung der Mobil CPU's ist heute nach an den x86 Pendants dran. Da gibt es nicht mehr viel zu diskutieren.

Ja genau, vermutlich ist die Apple CPU auch noch nahe an einem i7 dran :evillol:
4K Videos schauen und bearbeiten kannst du auch mit dem lahmsten Atom mit halbwegs aktueller Intel HD GPU.
Vergleiche mal die Rechenleistung einer ARM CPU mit einer aktuellen x86 CPU.
Geekbench bevorteilt massiv die ARM CPUs, das wurde hier auch schon mal bei einem der Tests angemerkt.
 
Thane schrieb:
4K Videos schauen und bearbeiten kannst du auch mit dem lahmsten Atom mit halbwegs aktueller Intel HD GPU.

Ähm wat? Also anschauen klar. Aber bearbeiten? Viel Spaß dabei, die Dateien nur in Premiere zu laden auf deinem Atom...
 
Autokiller677 schrieb:
Ähm wat? Also anschauen klar. Aber bearbeiten? Viel Spaß dabei, die Dateien nur in Premiere zu laden auf deinem Atom...

Das hängt von dem Tool ab. Auf dem iPad wird dasfür der De und Encoder für Videos genutzt. Damit ist das kein Hexenwerk das schneller hinzubekommen. Aber die Qualität ist das ein andere andere Sache.
 
nille02 schrieb:
Der Beste in was? Was die Pflege der Software angeht finde ich Nvidia charmant. Qualcomm kommt für mich an nächster stelle und PowerVR und Mali sind für mich Dreck.



Dafür gibt es ja APIs. Als Kunde und Entwickler kann es dir im Grunde egal sein.

Der Beste in sachen Leistung.
 
Wenn man Wikipedia glauben darf, ist ein Apple Kern von Transistoren und Fläche vergleichbar groß wie ein Kern von Intel's core i CPUs oder AMD's Ryzen:
https://en.wikipedia.org/wiki/Transistor_count

Aber ob sich Apple's ARM-Chips hoch takten lassen um von der Leistung mit einer CPU zu konkurrieren, die nicht Intel's Energiesparsegment angehört?
Ansonsten hat Apple besser an extrem gutem Multithreading zu arbeiten.


Aber das Apple ihr Desktop-Betriebssystem völlig auf ARM umstellen wird kann ich nicht wirklich glauben. Im Vergleich zum letzten Umstieg wird sich die Menge Code die man umschreiben müsste um mindestens eine Zehnerpotenz erhöht haben. Da müsste ARM schon gewaltige Vorteile bieten bevor die sich das antun.
Eher gehen die den Weg von Microsoft und arbeiten an einer extrem effizienten Emulation.
 
Zuletzt bearbeitet:
Tolle Nachricht, die es hier gibt.
Es tat schon alleine gut, dass Apple die SoCs selbst baut. Nun noch die GPUs, und das ist nach dieser Meldung definitiv von auszugehen, ist für die Innovationskraft nur förderlich.


Apple baut sich da zudem ein verdammt sicheres Standbeim. Der auch den Aktienkurs ehrlicher und sicherer machen lässt. Vor einigen Jahren sah ich hier MS & Google deutlich stabiler mit ihren jeweiligen Quasi-Monopolen.
 
mackenzie83 schrieb:
ist das vielleicht auch das erste indiz, das auch andere vielleicht mal folgen werden, wenn das erfolgreich wird, also die GPU inhouse zu entwerfen? ich meine, im moment ist es ja so, das es immer heißt, sowas kann man auch vergeben und bekommt es günstiger und besser, als wenn man es selbst entwickelt. das ist bei autos so, das ist bei elektronik so usw.

Praktisch gibt es neben Apple nur noch einen weiteren Kandidaten mit den notwendigen Ressourcen sowie Absatzmengen und das ist Samsung. Allerdings sind deren Anstrengungen eine eigene GPU Architektur auf die Beine zu stellen bis dato im Sand verlaufen. Vermutlich inzwischen nicht nur einmal. Abschreiben würde ich Samsung trotzdem nicht.

Hinzu kommt das im Bereich der GPU IP nahezu alles mehrfach patentiert ist. Nichtmal Intel kann ohne Lizenzabkommen mit AMD oder Nvidia integrierte GPUs produzieren. Aus dem Grund ist IMG (ebenfalls ein Urgestein mit grundlegenden GPU Patenten) regelmäßig in den Schlagzeilen bezüglich einer Übernahme.

Interessant wird es deshalb in Zukunft auch bei ARM (Mali) und mittelfristig Qualcomm. Patente (GPU IP) sind im Gegensatz zu AMD und Nvidia Mangelware. AMD hat deshalb bereits bei diversen SoC Herstellern (mit ARM Mali GPUs) wegen Lizenzgebühren angeklopft: http://www.anandtech.com/show/11101/amd-files-patent-complaint-against-mediatek-lg-vizio

Einer der Hauptgründe dafür das es an offiziellen und kompletten Open Source GPU Treibern für Android/Linux mangelt sind Patente. Solange der Treiber eine Blackbox ist sind Patentverletzungen nur mit sehr viel Aufwand (Reverse-Engineering) nachweisbar.
 
Zuletzt bearbeitet:
Ich glaube auch nicht, dass Apple hier ohne Lizenzverletzungen eine eigene GPU bastelt. Wenn das so easy wäre, müsste Intel nicht bei Nvidia / AMD anklopfen. Bei Apples Gebahren gegenüber der Konkurrenz, kann ich mir hier durchaus vorstellen, einfach mal IPs genommen zu haben und alles so gut unter Verschluss zu halten, dass Niemand sowas nachvollziehen kann und Apple es auf einen Rechtsstreit anlegt.
Soll PowerVR seine IP mal anderen Herstellern schmackhaft machen, ich warte schon lange auf einen Dritten Player im GPU-Markt, die damaligen PowerVR Karten in Form der Kyro von STM waren schon ansehnlich :3
 
Zurück
Oben