News Apple Silicon: Thunderbolt darf bleiben, AMD und Nvidia fliegen raus

kest schrieb:
Ich denke, eben nicht. Was interessiert Apple irgendein (unbedeutender) Hersteller, der es nicht schafft, seine treiber zu aktuallisieren? Die Gerätehersteller (Soundkarten und alles andere) wollen so viele Plattformen unterstützen, wie möglich...
Du darfst nicht in deinem reinen Consumer-Produkte Blick verhaftet bleiben.
Es gibt im Professionellen Bereich viel Spartenhardware und Spezialanwendungen, die eben vergleichsweise zu Consumer-Produkten nur in homäopatischen Stückzahlen verkauft werden. Diese Hersteller stellt das oft vor ein Problem und viele dieser werden dann eben Mac aus ihrer Plattformlsite streichen.
 
  • Gefällt mir
Reaktionen: Gerry18
Das ist nur konsequent, warum soll Apple die Abhängigkeit zu AMD oder Nvidia aufrecht erhalten, die ja mindestens so bescheiden ist wie die bei Intel. AMD und Nvidia haben sich die letzten 4 Jahre ziemlich ausgeruht am GPU Markt und schön abgeschröpft (vor allem Nvidia), dass könnte sich nun ändern.

Ich traue Apple zu das Sie eine hoch-spezialisierte GPU entwickeln die insbesondere bei Bild- und Videobearbeitung besonders performant arbeitet. Für Spiele glaube ich eher an die Performance einer RTX 2060 - was aber für die meisten Gamer völlig ok wäre. Wenn es Apple allerdings schafft an die NextGen Konsolen heran zu kommen, dann werden das apflige Zeiten,...
 
Gortha schrieb:
Du darfst nicht in deinem reinen Consumer-Produkte Blick verhaftet bleiben.
Es gibt im Professionellen Bereich viel Spartenhardware und Spezialanwendungen

Ich bin nicht nur Konsumer, sondern zufällig auch der Entwickler und Hersteller diverser Hardware.
Wir sind doch der gleichen Meinung, dass wenn ein Hersteller den Mac aus der Plattformliste streicht, dann wird Apple da nicht dem nachweinen ;-)
Und das ist der Punkt, der wichtig ist: mit der Macht, die Apple gerade hat, müssen nicht sie was tun, um mit anderen spielen zu dürfen, sondern die anderen, die Hersteller von Spezielhardware, um mit Apple spielen zu dürfen.
Ja, die kleinen werden leiden, schimpfen. Aber, wenn sie überleben möchten, werden sie es akkzeptieren. Wenn einer zu mir kommt und sagt, dass sein Gerät, welches ich für ihn entwickelt und produziert habe, mit ARM-Mac funktionieren soll, dann nenne ich ihm nur wie teuer es sein wird. Er wird dann entscheiden.
 
  • Gefällt mir
Reaktionen: smalM und AlphaKaninchen
So Freunde der Nacht, hier ist erstmal Feierabend. Nach einer leider sehr großen Putzaktion wird hier wieder geöffnet. Wer es dann nicht schafft beim Thema zu bleiben, erhält von dem Thema ein One-Way Ticket!

So ein 2. Versuch
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: MHumann und Zensai
Demnach sind Apples eigene GPU-Designs leistungsfähig genug, um bis Ende 2022 alle bisher eingesetzten Grafikkarten zu ersetzen. Laut Apple sind sie sogar schneller und energieeffizienter.

Warten wir erst einmal ab, was Apples neue A12 Bionics GPUs dann wirklich (auch treiberseitig) werden leisten können und ob es nicht nur mehr Marketing ist und man sich mit der Marktmacht/viel Geld und Hilfe der Apple-Fans versucht durchzusetzen ;).

An Intels Tiger Lake bzw. Xe LP Grafik sollen diese integrierten Apple GPUs angeblich nicht heran kommen können und wie sie sich gegenüber der damm schon vergleichsweise alten Vega Grafik in den Renoir APUs schlagen werden?
 
Bezüglich der GPU sollte man nicht vergessen, dass Apple quasi keinen Ballast hinsichtlich OpenGL und Direct3D mit sich herumschleppt. Sie haben ihr Metal als API (was Vulkan sehr ähnlich ist) und starten sogesehen auf der grünen Wiese.

So als Außenstehender kann ich mir sehr gut vorstellen, dass gerade die Rückwärtskompatibilität zu Direct3D und OpenGL noch immer einen Großteil der Komplexität bei der heutigen GPU-Entwicklung ausmacht. Insbesondere bei den Treibern, wobei es sicher auch auf der Hardware noch einige Legacy-Leichen gibt, damit "alte" D3D 9/10/11-Spiele performant laufen. Andernfalls steht man ja bei Benchmarks mies da.
 
Ich mein, ich lasse mir gerne überraschen, aber selbst dem großen Apple traue ich in keinster Weise zu aus dem Stehgreif eigens entwickelte Lösungen auf dem Performanceniveau aktueller Nvidiakarten bringen zu können.

Wenn sie das schaffen, dann Respekt. Der Markt hätte vmtl. allerdings trotzdem nichts davon, weil sie wohl kaum dedizierte Grafikkarten frei verkaufen würden, wie es Intel wohl bald tun will.
 
Beitrag schrieb:
Der Markt hätte vmtl. allerdings trotzdem nichts von, weil sie wohl kaum dedizierte Grafikkarten frei verkaufen würden, wie es Intel wohl bald tun will.
Eine indirekte Auswirkung auf den Markt würde ich nicht ausschließen, auch wenn die ggf. nicht sofort eintritt. Apple ist jetzt halt ein Unternehmen, dass die hohen Margen von GPUs nicht mehr mitgehen will und dann lieber selber was entwickelt.

Gerade AMD könnte auch noch die Konsolen an ARM-APUs verlieren. Wäre jetzt imho zumindest nicht mehr unvorstellbar. So ne PlayStation verkauft sich ja nicht gerade deutlich schlechter als nen Mac und wenn es sich für Apple lohnt, warum nicht auch für Sony, oder ggf. auch Microsoft.

Apple könnte da auch gute Vorarbeit leisten, was APUs/GPUs angeht. Bleibt abzuwarten, wie sich das entwickelt und was die GPUs dann wirklich können.

Indirekt könnte sich das dann auch irgendwie auf die Preise von Desktop-GPUs auswirken.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
don.redhorse schrieb:
Aber eine SoC kann niemals Leistung bringen, die ein 500 Watt GPU Gespann bringt. Also entweder setzen die in ihrem ARM nMP nur auf das eigene SoC mit Afterburner, oder die bauen reine Beschleuniger Karten ein, also ohne Grafikausgang, Tesla und Nachnachfolger.
Durchaus im Bereich des Möglichen, daß sie auf Beschleuniger setzen, die nur dem System zugänglich sind, während dem Userland eine Apple-GPU vor die Nase gesetzt wird.
Ihre AMX-Unit bekommt auch nur das System zu sehen, es gibt keinerlei Zugriff für Dritte darauf.

don.redhorse schrieb:
Frage ist ja auch, wie sie die ganze SIMD Recheneinheiten der X86er ersetzen wollen. Vektorrecheneinheiten bietet ARM doch gar nicht, bzw, nicht in dem Maße oder nutzt macOS AVX gar nicht? CPUs laufen auf jeden Fall erst ab bestimmten SSE Versionen, deswegen war es auch schwierig aus älteren AMD Systemen Hackis zu machen, die Unterstützen ja nicht alle Derivate von SSE4.x
Programme müssen SSE4.2 unterstützen.
Jemand hat ja schon den Cortex-X1 erwähnt mit seinen 4 NEON-Units und daß Apple ebenfalls auf 4 Units gehen könnte. Manche erwarten/erhoffen allerdings, daß Apple dieses Jahr auf SVE2 wechseln wird. SVE2 würde es Apple ermöglichen seine Cores bei nahtloser Kompatibilität mit sehr unterschiedlich starken SIMD-Units auszustatten.
Das wäre ein schöner Startpunkt für den Mac.
Arm soll den Nachfolger des Cortex-A78 mit SVE2 versehen, vorzustellen 2021, was Anfang 2022 in SoCs bedeuten würde.

HOT schrieb:
Apple hat eine jahrelange Lizenz für PowerVR-Technik, daher auch die TBDR-Technik. Das werden sicherlich GPUs werden, die Series8-basiert sind und damit kann man sogar High-End und Profi-GPUs bauen, wenn Apple da genug Arbeit reinsteckt.
Manche glauben ja fest daran, daß die Apple GPUs ganz ganz heimlich von Imagination designed werden. :D

Chismon schrieb:
An Intels Tiger Lake bzw. Xe LP Grafik sollen diese integrierten Apple GPUs angeblich nicht heran kommen können und wie sie sich gegenüber der damm schon vergleichsweise alten Vega Grafik in den Renoir APUs schlagen werden?
Zum einen darf man nicht vergessen, GPGPU-Leistung ist Apples erste Priorität. Zum anderen ist da bereits der A12Z auf derselben Höhe wie Ice Lake G7 und die iGPU-Leistung von Tiger Lake dürfte Apple bereits im iPad-Soc A14X schaffen, wenn man den üblichen Zuwachs über zwei Generationen ansetzt.
 
Zuletzt bearbeitet von einem Moderator:
Spannende Sache. Es ist ja nicht so, dass Apple jetzt mal anfängt eine GPU zu bauen, damit sie in zwei Jahren fertig ist. Wir wissen schlicht nicht, was Apple in seinen Laboren schon alles für Prototypen am laufen hat und wie lange die schon daran werkeln. Wie hoch ist noch mal Apples R&D Budget? Von dem meisten was dort gemacht wird hat man doch keine Ahnung.
 
  • Gefällt mir
Reaktionen: smalM
Suchtbolzen schrieb:
ich finde, dass im professionellen Bereich genau das Gegenteil passieren kann. Wenn ich Content Creator bin und bspw. die Adobe Suite nutze und durch die neue Apple Architektur alles schneller (oder energiesparender) läuft als unter Windows - warum nicht auf Apple umsteigen?
Um nicht zu vergessen: Jetzt schon kann ich auf einem „potenten“ iPad (Pro) Bild und Grafikbearbeitung praktisch in real-time mit Apps von Profisoftware Herstellern umsetzten. Das ist JETZT schon sehr eindrücklich, das wird dann in Zukunft noch besser und vor allen Dingen nahtloser funktionieren. Adobe und Co. haben bis dahin, durch die jetzt schon bestehende Entwicklung der Apps genug Zeit das noch mehr auszubauen und zu verfeinern.

Nicht zu vergessen, dass das Energiebudget eines MacMini, MacBook Pro, iMac um ein Vielfaches höher liegt, da können die richtig schön „Klotzen“ wie hier einige schrieben.

Wer hier also schwarz malt hat entweder nie den Macintosh besessen oder Apples Philosophie verstanden und baut auf alte Hören-Sagen Geschichten auf.

Mal abgesehen, von anderen technischen Fortschritten, die sie immer schon Jahre vorher umgesetzt haben und alle aufgeschrieen haben wie man das nur machen konnte ... wie lange hat’s gedauert mal vernünftiges Thunderbolt im PC zu haben? (Nur als Beispiel genannt).

Also ganz ruhig -> lieber freuen das kluge Köpfe an interessanten Dingen arbeiten, investiert wird und schlussendlich wir alle etwas - und in manchen Bereichen dann wie gewöhnlich etwas später - davon haben!

Meine 50 Cents.
 
Zuletzt bearbeitet von einem Moderator: (Text wurde via Smartphone verfasst, jetzt am Computerbildschirm gelesen und korrigiert. Sorry Guys!)
  • Gefällt mir
Reaktionen: Suchtbolzen, JamesCarter und AlphaKaninchen
Thunderbolt? USB! Das war so gut wie tot, bevor Apple darauf gesetzt hat. Win NT4 hatte noch nicht einmal einen verdammten Treiber dafür...
tidus1979 schrieb:
Wie hoch ist noch mal Apples R&D Budget? Von dem meisten was dort gemacht wird hat man doch keine Ahnung.
16,22 Mrd.$ im letzten Geschäftsjahr, 14,67 Mr.$ mehr als AMD ;)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Sammy2k8, AlphaKaninchen, tidus1979 und eine weitere Person
tidus1979 schrieb:
Wir wissen schlicht nicht, was Apple in seinen Laboren schon alles für Prototypen am laufen hat und wie lange die schon daran werkeln.

Genau das ist der springende Punkt. Apple kündigt ja keinen großen Umbruch an und denkt sich dann erst: "Lalala, jetzt fangen wir mal an was zu entwickeln dafür". Nur weil das Dev-Kit einen zwei Jahre alten SoC drin hat, heißt das ja nicht, dass sich im Hintergrund nichts weiter getan hat.
 
  • Gefällt mir
Reaktionen: smalM und nciht
Zu dieser Unified Memory Architektur. Wie muss man sich den vorstellen? Ist das eine Softwaresache oder müssen da aufwändig die Datenleitungen ganz anders verlegt werden.
Ist schon bekannt ob auch die SSD mit drinnen ist wie bei den Konsolen?
 
Ob das gut geht?

So einfach würde ich nicht sagen die Marktmacht Apple wird es schon machen.

Ich weiß nicht ob ich es schon erzählt habe ihr. Cousin von mir hat jetzt in einer Firmer angefangen. Alles Apple bis jetzt. Er hat jetzt einen Windows Rechner mit 3950X.

Der springende Punkt sind nicht die Entwickler sondern die Kunden und wenn die da keinen Bock mehr drauf haben das ist es mit der Marktmacht schnell vorbei.

Genau das muss man jetzt sehen, wie weit Apple mit den eigenen Entwicklungen hinter her kann. Gut stromsparend ist auch ein Argument. Nur halt oft auch Leistung.
Apple hin oder her. Weder bei de Roten, Blauen oder den Grünen arbeiten lauter Deppen.
Man sieht wie schwer sich gerade INTEL tut mit AMD und AMD mit Nvidia. Da muss Apple nun jetzt auch mit halten, auch wenn sie man Ende nur mit Wasser kochen.

Ich sag mal zuerst muss man da sehen was sie im Sack haben.
 
  • Gefällt mir
Reaktionen: Imaginaer
Tommy Hewitt schrieb:
Nur weil das Dev-Kit einen zwei Jahre alten SoC drin hat, heißt das ja nicht, dass sich im Hintergrund nichts weiter getan hat.
Man hat die Entwicklung sehr schön sehen können vom A10 über den A11 zum A12, wie die Modularisierung auf dem Die immer mehr zugenommen hat. Weg von den schiefen und krummen Funktionsblöcken, hauptsache möglichst viel auf die Fläche geknetscht, hin zu einfachen Strukturen, leicht zu kopieren, zu verpflanzen, zu vervielfältigen.

@Marius68
GPU und CPU greifen auf dasselbe RAM zu, das ist alles.
Wahrscheinlich LPDDR5 128bit mit 88GB/s Bandbreite. Sie könnten aber im Prinzip deutlich breiter gehen, wg. LPDDR5 immer in 16bit-Schritten, wie's gerade gebraucht wird, kommt eh alles auf ein Package.
Ich nehme an, in 2 Jahren werden die Dickschiffe für iMac Pro und Mac Pro dann DDR5 in DIMMs ansprechen.
Die A12Z-GPU im DTK greift sich anscheinend 2GB, wenn man den GB5-Angaben trauen darf.

Die Macs werden keine SSD im üblichen Sinne haben. Der Controller wird im Die integriert sein, auf dem Motherboard wird nur NAND aufgelötet oder es gibt proprietäre Träger. Der Mac Pro wird PCIe-Anschlüsse haben, also wird man da M.2-SSDs drin unterbringen können. Bei allen anderen wird man auf ThunderBolt zurückgreifen müssen.
 
Zuletzt bearbeitet von einem Moderator:
Summerbreeze schrieb:
Die müssen nur die Software wieder effizienter bauen, dann klappt das.

Effizienz bedingt enge Kopplung an die Hardware. Der Umstieg ist aber überhaupt erst nur möglich weil jahr[zehnt]elang wo immer halbwegs möglich die Software durch eine Zwischenschicht von der Hardware getrennt wurde.

"Wasch mich - aber mach mich nicht nass" ruft da der kleine Prinz und wischt sich wütend eine Träne aus den Augen...
 
Marius68 schrieb:
Zu dieser Unified Memory Architektur. Wie muss man sich den vorstellen? ...
Danke für den Hinweis. Das hatte ich bisher in den News immer überlesen. Ein ähnliches Konzept hat AMD Fusion bei Steamroller- und Excavator-APUs von 2014-2017 gebotet, wo es Heterogenous System Architecture (deutsch) heißt. Dabei können GPU und CPU den selben Adressraum im RAM teilen. Bei reinen SoC entfällt dabei die Pflicht, vom "Haupt-RAM" einen fest definierten Bereich für die GPU fest definiert abzuknipsen. Richtig interessant wird es aber in Stufe zwei, bei der ich nicht weiß, ob AMD das bis heute jemals umgesetzt hat. Stufe 2 von HSA wäre, wenn die Speicherbereiche von Erweiterungskarten mit eigenem RAM und der Mainboard-RAM zusammengelegt werden können.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Sun_set_1 schrieb:
Naja, wenn Apple nicht die Grenzen der Physik verschoben hat, dann ja. Die Leistung einer RTX 2080 ist derzeit kaum in einem SoC unterzubringen.

Ja schon aber die machen eine eigen dGPU das nötige Know-how haben sie dafür sie machen seit Jahren eigne Mobile GPUs und mal sehen wird auf jeden fall spannend.

Vielleicht kommt auch bald eine dGPU von Apple für Win und Linux, vier Hersteller hätte was.
 
Mcr-King schrieb:
Vielleicht kommt auch bald eine dGPU von Apple für Win und Linux, vier Hersteller hätte was.
Du glaubst doch nicht ernsthaft, dass Apple eine dGPU anbieten würde, die neben MacOS auch unter Linux und Windows läuft?!
 
  • Gefällt mir
Reaktionen: Gerry18
Zurück
Oben