News Apple Silicon: Thunderbolt darf bleiben, AMD und Nvidia fliegen raus

Rome1981 schrieb:
Für das Endergebnis und aus Benutzer-Sicht macht es aber letztlich nur einen geringen Unterschied.
Macht es überhaupt einen Unterschied? Denn Stecker und Buchse sind USB-C-konform, ergo ist es egal ob es jetzt "echte" USB-Anschlüsse sind oder Thunderbolt-Anschlüsse, die alle USB-C-Spezifikationen erfüllen. Rauskommen tut immer das gleiche.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
Das Ganze ist durchaus risikobehaftet. Es lohnt nur, wenn man auch entsprechende Stückzahlen absetzen kann. Ansonsten werden die Entwicklungskosten zu riesig. Gerade bei der GPU, die wird ja nur in wenigen Geräte Einzug erhalten. Viele MacBook werden ja weiterhin ohne kommen.
Gut, die Architektur entwickeln sie eh, muss jetzt aber deutlich breiter aufgestellt sein um auch High Performance abzudecken. Da wird man unter Umständen auch Kompromisse eingehen müssen.
Die werden aber die Implementierung-Teams erheblich aufstocken müssen. Bisher sind es nur 2 mobile SoC die recht ähnlich sind. Jetzt kommen noch ein SoC im Bereich 28W dazu und dann noch irgendwas mit massig Kerne für den Mac Pro. Dann noch eine GPU.
Wenn die dann Produktzyklen von 1-2 Jahren realisieren wollen, sind die gut beschäftigt. Das sind schon immense Kosten. Das wird definitiv teurer als wenn sie bei x86 bleiben. Aber sie bekommen alles maßgeschneidert, wie sie es brauchen. Ist die Frage ob die damit auch erfolgreicher werden.
 
  • Gefällt mir
Reaktionen: Herdware
Tommy Hewitt schrieb:
Macht es überhaupt einen Unterschied?
Die Frage ist ja nicht welcher Stecker genutzt wird, sondern welches Übertragungsprotokoll. Nehmen wir mal XLR-Stecker und -Buchsen. Nur weil ich darüber in der Theorie problemlos ein Stereo-Audiosignal schicken kann bedeutet das ja nicht, daß jedes Gerät in das ich einen XLR-Stecker packen kann damit auch zurecht kommt.

USB-C ist einfach nur die Spezifikation für ein System von Steckern und Buchsen. Was für Signale am Ende darüber geschickt werden ist eine ganz andere Angelegenheit.
 
Serana schrieb:
USB-C ist einfach nur die Spezifikation für ein System von Steckern und Buchsen. Was für Signale am Ende darüber geschickt werden ist eine ganz andere Angelegenheit.
Es ging ja ursprünglich sowieso nur ums Laden von den Geräten, weil sich mal wieder einer unnötigerweise aufgeregt hat, dass sich Apple nicht an Standards hält. Und ein MacBook, welches Thunderbolt 3/4 drin hat kannst du auch mit jedem USB-C-Kabel laden, weil Thunderbolt 3/4 nunmal die passende Buchse hat.

Also ist es für den User ziemlich egal, welches Protokoll. Hab ich Thunderbolt 3/4, kann ich auch jedes USB-Gerät dranhängen.
 
  • Gefällt mir
Reaktionen: Serana
Aha, ok und Adobe und Co? Wie läuft es da mit der der SW und div. Optimierungen bezüglich der GPU ab?
 
  • Gefällt mir
Reaktionen: mcasd
Ich möchte nur mal so anmerken, dass Apple in der Vergangenheit nicht nur gute Hardware vorgestellt hat, sondern auch diverse Flops in der Firmengeschichte verzapft hat, die niemand kaufen wollte.
Apple nimmt sich ziemlich viel vor und wird vermutlich nicht die gesteckten Ziele erreichen können.
So einen Truthahn erleben wir ja auch derzeit als Präsident in Amerika, der sich selber alles glaubt.
Es ist halt ziemlich unwahrscheinlich, so viele Sachen als das Maß aller Dinge aus dem Nichts aus dem Hut zu zaubern.
Software und Hardware komplett neu inkl. kompletter Abschottung von der restlichen Welt, na ob das gut geht? Eher nicht.
Ein Arbeitskollege hat schon gesagt, dann landen seine Apple-Geräte auf den Schrott und er geht zurück zu Windows.
Und wie ich bei einigen anderen in Foren gehört habe, sind die auch nicht sehr begeistert.
Die gewissheit, dass demnächst auch viel weniger Software auf dem MAc laufen wird, wird sicherlich auch keinen Haufen neuer Kunden als Gegenausgleich rekrutieren können.
An wen soll das also verkauft werden?
 
Sun_set_1 schrieb:
Naja, wenn Apple nicht die Grenzen der Physik verschoben hat, dann ja. Die Leistung einer RTX 2080 ist derzeit kaum in einem SoC unterzubringen.
Welcher Mac hat den eine GPU in der Klasse einer GTX2080? Keiner. Damit macht die Afterburner Karte für den nMP auch mehr Sinn. Die GPUs fliegen auch da raus. Aber eine SoC kann niemals Leistung bringen, die ein 500 Watt GPU Gespann bringt. Also entweder setzen die in ihrem ARM nMP nur auf das eigene SoC mit Afterburner, oder die bauen reine Beschleuniger Karten ein, also ohne Grafikausgang, Tesla und Nachnachfolger. Frage ist ja auch, wie sie die ganze SIMD Recheneinheiten der X86er ersetzen wollen. Vektorrecheneinheiten bietet ARM doch gar nicht, bzw, nicht in dem Maße oder nutzt macOS AVX gar nicht? CPUs laufen auf jeden Fall erst ab bestimmten SSE Versionen, deswegen war es auch schwierig aus älteren AMD Systemen Hackis zu machen, die Unterstützen ja nicht alle Derivate von SSE4.x
 
Klar will Apple jetzt bessere Produkte liefern als AMD, NVIDIA und Intel in Ihren jeweiligen Bereichen.
Sorry, das glaube ich erst wenn ich die (GPU)-Benchmarks sehe.

Scheinbar will Apple keine Content Creator mehr als Kunden?
Intel versucht seit 15 Jahren Grafik hinzubekommen, aber klar Apple macht das in 2-5 Jahren^^
Smartphone Grafik und High-Power sind 2 paar Schuhe. wenn man für unendlich Geld immer einen Fullnode vor den anderen kauft kann man natürlich denken man hätte bessere Designs. AMD mit 5nm im Jahr 2022 ist halt 1-2 Jahre zu spät. Da hat Apple dann 3nm von TSMC gekauft.

Ich vermute man wird es einfach unvergleichbar mit x86 und AMD / NVIDIA machen, schlicht weil MACOS dann komplett geschlossen sein wird, wie China eben.
 
  • Gefällt mir
Reaktionen: Foggle
don.redhorse schrieb:
Welcher Mac hat den eine GPU in der Klasse einer GTX2080?

Den aktuellen MacPro gibt es mit bis zu zwei "AMD Radeon Pro Vega II Duo". Das ist eine Dual-GPU-Grafikkarte mit zwei großen Vega-Chips und bis zu 64GB HBM-Grafikspeicher.
In Spielen mag eine 2080 trotzdem etwas schneller sein, aber in diversen Profi-Anwendungen dürften bis zu 4 voll ausgebaute Vega-GPUs mit so viel schnellem Speicher klar vorn liegen.

Das ist die selbstgesteckte Marke, die Apple mit ihren eigenen GPUs bis 2022 überflügeln müsste.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hayda Ministral, Sammy2k8, AlphaKaninchen und 3 andere
Apple hat eine jahrelange Lizenz für PowerVR-Technik, daher auch die TBDR-Technik. Das werden sicherlich GPUs werden, die Series8-basiert sind und damit kann man sogar High-End und Profi-GPUs bauen, wenn Apple da genug Arbeit reinsteckt.

Apple sollte die Dinger auch für PC anbieten, das wär ne echte Bereicherung :D.
 
don.redhorse schrieb:
Welcher Mac hat den eine GPU in der Klasse einer GTX2080? Keiner. ...
Der Mac Pro hat in seiner Maximalkonfiguration vier Vega-II-GPUs. Mehr GPU-Leistung hat keine Workstation.
 
@Herdware richtig. Da können sie wahrscheinlich wieder so eine afterburner ähnliche Karte bauen die bestimmte Sachen gut kann und im besten Fall in diesem Szenarien gleichauf/ schneller ist.

Problem dabei: 2022 ist der Ampere Nachfolger wohl nicht mehr weit weg, RDNA3, Genoa (Zen 4) mit DDR5 und die XEONs bekommen neben AVX noch AVE (?) Einheiten zur vektorberechnung eingebaut.

Das sind die Gegner mit denen sie sich dann messen müssen. Sowohl im GPU als auch im CPU Bereich. Und dann zu sagen "Wir sind schneller als bestenfalls zwei bis drei Jahre alte Hardware.. Also ich weiß ja nicht
 
StiFler91 schrieb:
Ich bin echt gespannt was das wird. Also ja, sie machen hervorragende Mobile CPU‘s, aber ob man da so schnell an Intel und AMD vorbei zieht?

Auch im Thema Grafikkarten bin ich sehr gespannt. Wofür die beiden großen Player Jahre lange Entwicklungszeit gebraucht haben, schießt Apple in ein paar Jahren raus.

Ich lasse mich aber gerne positiv überraschen!:)
Die müssen nur die Software wieder effizienter bauen, dann klappt das.
Wenn Hard und Software aus einer Hand kommen, brauchst lange nicht so viel Rechenpower.

Entweder stellen sie den MacPro ein oder die haben nur von den Mobiles gesprochen.
Irgendwie kann ich mir das bei bestem Willen nicht vorstellen, das Apple aus dem Stand mit den Grafik Platzhirschen mithalten können soll.
Oder hat AMD in den schlechten Jahren Teile des Geistigen Eigentums an Apple verscherbelt?
 
  • Gefällt mir
Reaktionen: Herdware und PS828
Und ein integrierter GPU Soc soll ne dez. GPU im Profi Bereich ablösen können so das auch dessen Performance stimmt? Hmmmm bin skeptisch was das betrifft.
 
Warum sollte jede Apple-GPU integriert sein?
 
don.redhorse schrieb:
Frage ist ja auch, wie sie die ganze SIMD Recheneinheiten der X86er ersetzen wollen. Vektorrecheneinheiten bietet ARM doch gar nicht, bzw, nicht in dem Maße oder nutzt macOS AVX gar nicht?
ARM NEON?

Ansonsten werden die vielleicht dedizierte Einheiten nutzen. Die NPU macht ja auch ncihts großartig anderes.
 
  • Gefällt mir
Reaktionen: yummycandy und AlphaKaninchen
Gortha schrieb:
hahahah, danke selten so gut gelacht.
Ich sage dir, es wird mit sehr großer wahrscheinlichekt anders herum sein.

Ich denke, eben nicht. Was interessiert Apple irgendein (unbedeutender) Hersteller, der es nicht schafft, seine treiber zu aktuallisieren? Die Gerätehersteller (Soundkarten und alles andere) wollen so viele Plattformen unterstützen, wie möglich, mit geringem Aufwand. Beim ARM-Mac werden dazu in der Lage sein. Wenn sie es aber nicht schaffen oder nicht wollen, dann verlieren sie ein Teil der User. Wenn sie darauf verzichten können -- gut für sie.
 
Zurück
Oben