News Apple Silicon: Thunderbolt darf bleiben, AMD und Nvidia fliegen raus

Ich wage einfach mal zu behaupten, daß Apple in Sachen 3D-Leistung gar nicht mit Nvidia und AMD konkurrieren will. Für die ganz normalen Kisten wird keine großartige 3D-Leistung gebraucht und für den Mac Pro traue ich es Apple durchaus zu ihren vorhandenen Afterburner so auszubauen, daß er (abseits der Grafikausgabe) eben generell für Aufgaben genutzt werden kann die man bis dahin auf der GPU erledigt hat.

Okay, das ganze wird wahrscheinlich nicht so leistungsfähig werden wie die Spitzenmodelle der x86-Welt, aber für die Übergangszeit wird es ausreichen. Ich gehe aber ohnehin davon aus, daß Apple den Mac Pro auf lange Sicht sterben lassen wird. Meiner Ansicht nach geht der Weg der Apple-Welt (plakativ ausgedrückt) in Richtung eines aufgebohrten iPads mit Maus, Tastatur und großem Bildschirm. Genug Rechenleistung für die sogenannten Creator wird dabei schon herausspringen. Wie man sieht sind die Grafikkerne in gewissen Grenzen sogar spieletauglich. Ich glaube aber, daß man sich nicht zu weit aus dem Fenster lehnt wenn man sagt, daß in der Zukunft große 3D-Leistung fressende AAA-Spiele eher nicht für das Apple-Ökosystem kommen werden. Apple Arcade dürfte da ein deutlicher Fingerzeig sein.

Was ich mir auch gut vorstellen kann ist, daß Apple den Mac Pro in Form eines Rack-Servers weiterführt in den dann eben ein paar Afterburner-Karten gesteckt werden. Die große Rechenleistung gibt es dann halt in der Cloud.
 
Herdware schrieb:
Wie gesagt, Intel versucht das immer wieder seit Jahrzehnten. Bisher erfolglos.

Ich glaube, genau hier irren sich viele! Intel ist erfolglos, weil sie 10nm und drunter nihct hinbekommen, und nicht, weil sie keine GPU bauen können. Da ist Apple viel weiter: TSMC muss das machen ;-)

Herdware schrieb:
Das erscheint mir wie gesagt extrem ehrgeizig und unwahrscheinlich.

Ich denke, auch hier werden wir positiv überascht: die Altlasten muss man nicht mehr mitschleppen, Hardware zu bauen ist das kleinere Übel, als treiber dafür zu machen und auch hier ist Apple einfach weiter -- die haben dann eigene Hardware.

Ich bin der Meinung, Apple hat sehr gute Chancen in der GPU und CPU Entwicklung ganz vorne mit dabei zu sein.
 
Faust2011 schrieb:
... aber ihre Technik selbst lizenzierbar machen werden.

Eher umgekehrt, die müssen von AMD, nvidia und Imagination Dinge lizenzsieren.

Z.B. - Grafikfunktionen
  • x64
  • von intel x86, AVX
etc.
 
  • Gefällt mir
Reaktionen: Gortha
nlr schrieb:
Apple wird auch nach dem Wechsel zum eigenen Apple Silicon Thunderbolt auf dem Mac unterstützen. Das hat der Konzern gegenüber mehreren US-Medien bestätigt. Die dafür benötigten PCIe-Lanes bietet die neue Plattform an. Im Bereich der GPU wird Apple hingegen vollständig auf eigene Lösungen ohne AMD, Nvidia oder Intel setzen.

Zur News: Apple Silicon: Thunderbolt darf bleiben, AMD und Nvidia fliegen raus
Aus der Fehlinterpretation der Präsentation fliegt AMD raus.
 
SoDaTierchen schrieb:
Dass ein Mac Pro aber auf Apple Silicon wechselt, glaube ich nicht. Das wäre schon eine große Überraschung, wenn Apple dieses Leistungsniveau mit eigener Hardware stemmen könnte.
Genau das haben sie ja eigentlich angekündigt. Das gesamte Line-Up nur noch mit Apple Silicon, bedeutet eben das gesamte Line-Up nur noch mit Apple Silicon inlusive dem Mac Pro.

Herdware schrieb:
Wie gesagt, Intel versucht das immer wieder seit Jahrzehnten. Bisher erfolglos.
Nicht wirklich. Sie haben es vor Jahrzehnten mal versucht, danach nichts mehr unternommen (also auch nichts versucht) und jetzt versuchen sie es noch mal. Da kann man jetzt weniger von "die versuchen seit Jahrzehnten GPUs zu bauen" reden. Warum macht man es ausgerechnet jetzt? Weil intel gesehen hat, dass die Gewinnmargen bei GPUs gestiegen sind und die eben mitverdienen wollen. Da geht es dann nicht mal darum besonders viel vom Markt zu übernehmen, weil eben auch ein kleiner Marktanteil schon gute Gewinne einfahren dürfte, welche die Entwicklungskosten abdecken und damit das Risiko eines Quereinsteigs in den Markt geringer ist. In den Jahrzehnten hat intel also eher den richtigen Moment abgewartet wieder einzusteigen und saß nicht die ganze Zeit dabei verzweifelt GPUs zu entwickeln, die keine Marktreife erlangt haben, weil die zu schlecht waren. Aus dem gleichen Grund wird sich auch Apple von AMD verabschiedet haben. Die verlangen bei GPUs einfach zu hohe Margen gegenüber den Produktionskosten, sodass Apple auch gleich selber entwickeln und produzieren lassen kann.

Herdware schrieb:
Das erscheint mir wie gesagt extrem ehrgeizig und unwahrscheinlich.
Apple hat überzeugend gezeigt, was der aktuelle A12Z GPU-mäßig kann. Die GPU-Cores eines A12Z auf einen gesamten Chip auszuweiten mit entsprechender Anbindung an schnellen VRAM, würde ja schonreichen um Desktop-Performance zu bringen. In 2 Jahren ist der Chip dann ggf. noch ein bisschen weiter und da halte ich es durchaus für realistisch, dass man aktuell verbaute GPUs in iMac-Pro/Mac Pro übertrumpfen kann. Man muss ja nur sich selbst übertrumpfen.
 
Zuletzt bearbeitet:
A) Thunderbolt setzt keinen USB-C-Anschluss voraus, die beiden Anschlüsse sind lediglich zueinander technisch und softwareseitig kompatibel. Ähnlich bei HDMI und DVI, das macht es aber nicht zum "gleichen Anschluss".

B) (und das finde ich viel spannender) Dieser ganze Umstieg, bedeutet doch, dass alle Software von dem Zeitpunkt an komplett für Apple geschrieben sein muss oder vertue ich mich da?
Wenn sich die ganze Architektur ändert, dann hat man zwar den Vorteil, dass man präzise dafür programmieren und Fähigkeiten ausnutzen kann, aber es heißt auch, dass die Portabilität gegen 0 geht.
Soweit ich weiß gab es bisher Programmteile, die speziell Apple/Windows waren, welche die speziell Unix und Derivate waren und (ein relativ großer Teil), der portabel war (oder zumindest leicht anzupassen), da die APIs der CPU und GPU eben nicht groß unterschieden.

Das ändert sich jetzt...

Daher denke ich auch, dass so etwas wie "Hackindows" (oder wie das genannt wurde) nicht funktionieren wird und mindestens emuliert werden muss, was die Performance drastisch in den Keller drückt.
 
  • Gefällt mir
Reaktionen: nciht
Klar will Apple nicht mit Grafik-Renderleistung-Monstern konkurrieren. Aber Apple will hier seine eigene 4-Vega-II-Workstation und deren auch in der PC-Welt kaum erreichte GPGPU-Leistung beerben. Das ist deshalb sportlich, weil es bisher keine einzige GPU im PowerVR-Umfeld gibt, die mit AMD FireGL oder Nvidia Quadro konkurrieren wollen würde. Apple macht damit also zum ARM-Umstieg gleichzeitig etwas, das mindestens genausoviel Anstrengung bedarf, obwohl es nicht nötig gewesen wäre, wenn man noch eine Dekade AMD oder Nvidia zugelassen hätte. Aber vielleicht haben AMD und Nvidia auch einfach ausgesprochen keine Lust auf eine Metal-Only-Welt.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Rome1981 schrieb:
A) Thunderbolt setzt keinen USB-C-Anschluss voraus, die beiden Anschlüsse sind lediglich zueinander technisch und softwareseitig kompatibel.

Thunderbolt 3 und 4 haben immer USB-C in maximaler Konfiguration mit drin, ergo setzt Thunderbolt durchaus USB-C als Anschluss voraus. Würde auch sonst keinen Sinn machen.
 
  • Gefällt mir
Reaktionen: Schorsch92
Es bleibt sehr sehr spannend. Mir fehlen leider noch die Erfahrungen mit macOS. Vielleicht wird ein günstiger MacMini dann mal mein MacOS einstiegt.
Privat und Beruflich war bisher immer Windows "mein" Betriebssystem. Mobil bin ich schon länger bei Apple.
 
kest schrieb:
Intel ist erfolglos, weil sie 10nm und drunter nihct hinbekommen, und nicht, weil sie keine GPU bauen können.
Nein, Intel ist hier tatsächlich erfolglos, weil sie keine GPUs bauen können. Wenn 10nm das Problem gewesen wäre, hätten sie keine GPU-Spezialisten, sondern mehr Architekten angeheuert. Aber Intel hat in KEINER Fertigung je eine brauchbare GPU auf den Markt geworfen, Xe könnte da das erste Produkt werden.
 
kest schrieb:
Wieso denken viele, dass Apple es nicht hinbekommt, eine konkurenzfähige GPU herzustellen?
Ist mir auch nicht klar.

Apple betreibt inzwischen sogar zwei "GPU Design Center":
  • seit 2012 in Melbourne, Florida (Ex-AMD-Mitarbeiter)
  • seit 2017 in St Albans, Hertfordshire, UK (Ex-Imagination-Mitarbeiter)
Bei der "Power pro Watt" sind sie bereits jetzt hervorragend aufgestellt (wenn nicht sogar führend), weswegen ich immer wieder gern das iPad meiner Partnerin stibitze. ;)

Bin aber natürlich auch auf die absolute Performance gespannt, die wir in zwei Jahren bestaunen dürfen.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
kest schrieb:
Ich glaube, genau hier irren sich viele! Intel ist erfolglos, weil sie 10nm und drunter nihct hinbekommen, und nicht, weil sie keine GPU bauen können. Da ist Apple viel weiter: TSMC muss das machen ;-)

Intels Fehlschläge in Sachen dedizierter GPUs waren lange vor den 10nm-Problemen und haben damit nichts zu tun.

Es ist alles andere als einfach, eine konkurrenzfähige High-End-GPU zu entwickeln. Daran ist Intel immer wieder gescheitert und viele andere, ehemalige GPU-Schmieden sind im Laufe der Jahre zurückgeblieben und letztlich verschwunden. Zuletzt musste sich z.B. Matrox davon verabschieden, eigene GPUs zu entwickeln, nachdem sie schon lange nur noch in speziellen Nischen überleben konnten.

Wenn es so einfach wäre, schnellere und effektivere GPUs zu entwickeln als die, die AMD und Nvidia derzeit anbieten, dann hätten AMD und Nvidia (und Intel) diese Optimierungen auch schon längst übernommen, bzw. tun sie das ständig.
Da wartet niemand auf einen Neueinsteiger, der allen plötzlich zeigt wo es lang geht.

Wobei es natürlich toll wäre, wieder mehr Konkurrenz im GPU-Geschäft zu haben. Allein schon um die Preise unter Kontrolle zu halten. Aber Apple ist dafür leider komplett ungeeinget, da die nur in ihren eigenen, kleinen Nische operieren. (Es wird sicher nie Apple-Grafikkarten für Windows- oder Linux-PCs zu kaufen geben.) Die werden also nie in direkte Konkurrenz zu AMD, Nvidia oder Intel treten.

Aphelon schrieb:
Nicht wirklich. Sie haben es vor Jahrzehnten mal versucht, danach nichts mehr unternommen (also auch nichts versucht) und jetzt versuchen sie es noch mal. Da kann man jetzt weniger von "die versuchen seit Jahrzehnten GPUs zu bauen" reden.

Es gab in den letzten ca. 25 Jahren zumindest zwei konkrete Anläufe (i740 und Larrabee), die gescheitert sind, und jetzt einen dritten Versuch (Xe), dessen Ergebnis noch abzuwarten ist.
 
  • Gefällt mir
Reaktionen: Gucky10 und akuma84
Ich glaube hier wurde einiges falsch verstanden. Dass die im GPU Bereich in Sachen Computing und Funktionen auf die aktuellen iGPUs in zwei Jahren aufschließen können glaub ich denen sogar. Aber ich denke dass sie nur für ihre Produkte diese Dinge anbieten werden und man im Low Power Bereich für ihre speziellen Anwendungen optimiert gute Produkte bauen lassen. Sollte man jetzt nicht mit AMD oder Nvidia vergleichen die völlig andere Dimensionen anstreben. Ich glaube nicht dass Apple hier Hardwaretechnisch überlegen ist. Sie bauen lediglich für ihre Produkte und Kunden ( hoffentlich) passende Dinge. Die anderen hersteller bleiben dort auch nicht stehen.
 
  • Gefällt mir
Reaktionen: petepow und Herdware
Apple Silicon kommt mit einem neuen Design für die I/O Memory Management Units (IOMMU), das eine IOMMU pro PCIe-Gerät nutzt, während Intel-basierte Macs eine IOMMU für alle PCIe-Geräte verwenden. Diese Maßnahme soll dafür sorgen, dass diese Geräte nur auf den Speicher zugreifen können, der für das Gerät vorgesehen war.

Damit wäre der Chip für ARM-basierte Server tauglich, wenn damit unterbunden werden kann, dass Netzwerk, oder Fibre-Channel Karten sich gegenseitig abhören. Oder auch in Open Cloud KI-Clustern, um größeren Datenschutz zu gewährleisten, falls sich mehrere Kunden den Server, aber nicht die Grafikkarten teilen.
 
Damit hier mal keine Missverständnisse aufkommen. Der Zug von Apple ist voll nachvollziehbar, sie bekommen damit noch mehr Kontrolle über das eigene Produkt-Ökosystem und über den Nutzer.
 
Könnte auch sein dass sie sich in zwei Jahren hinstellen, den state of the Art bei den anderen Herstellern ausblenden, und nur mit ihren alten Geräten in speziellen Aufgaben vergleichen und sagen "ha! Seht ihr? Schneller!" oder wenn das nicht reicht zumindest sparsamer. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Caradhras
@Tommy Hewitt
Das stimmt so nicht. Thunderbolt 3 und 4 unterstützen die USB-Spezifikationen, das macht sie aber noch nicht zu USB-Anschlüssen.

Um zu verdeutlichen was ich meine (entschuldige, leider fällt mir kein besseres Bild ein):
Es ist wie bei der PS3 (1st Gen) und der Xbox.
So wie du es beschreibst, entspräche es der PS3. Diese beinhaltete ja tatsächlich die Hardware der PS2 und konnte daher auch die alten Spiele spielen.

Thunderbolt ist aber tatsächlich eher wie die Xbox One X. Sie erfüllt die Spezifikationen und ist kompatibel zu den Vorgängern, bis hin zur ersten Xbox, beinhaltet diese aber nicht.

Für das Endergebnis und aus Benutzer-Sicht macht es aber letztlich nur einen geringen Unterschied.
 
Eigentlich ist der Schritt doch nur halbgar. ARM ist doch schon gar nicht mehr der heiße Schei**. Warum haben sie sich nicht gleich eine eigene Architektur auf Basis z.B. RISC-V aufbaut?

Auf jeden Fall koppelt sich das Apple-Ökosystem damit noch einen Schritt mehr vom Rest der Welt ab. Wer glaubt, AMD oder NVIDIA würden damit einen Konkurrenten gewinnen, hat den Schuss nicht gehört. AMD, Apple und NVIDIA werden nach diesem Schritt fürs erste (!) keine Produkte mehr für dieselbe Plattform anbieten.
 
  • Gefällt mir
Reaktionen: Gortha
Da Apple die eigenen Kisten nicht im Gamingbereich sieht, dürfte das alles machbar sein. Für ausreichende Beschleunigung ihrer Anwendungsszenarien dürften auch eigene GPUs sorgen können.
 
Zurück
Oben