News Apple Silicon: Thunderbolt darf bleiben, AMD und Nvidia fliegen raus

Chillaholic schrieb:
Seit wann nutzt Apple denn USB-C?
Der Thunderbolt 3 ist auch gleichzeitig ein USB-C Anschluss. Den haben die macOS Geräte schon seit Jahren.
 
  • Gefällt mir
Reaktionen: LamaTux und Schorsch92
kaxi-85 schrieb:
außer in den iPhones
Da ist ja die Krux und genau das war die Kritik.
Sekorhex sprach explizit von "Ladekabeln".
 
  • Gefällt mir
Reaktionen: nosound und cr4zym4th
Wundertüte Apple Silicon. Mal im Ernst, wer sich dermaßen weit aus dem Fenster lehnt was Performance und Zeitplan angeht, hat entweder Wahrnehmungsschwierigkeiten oder ein so heißes Eisen im Feuer, dass uns allen schwindlig wird.

Ein MacBook Pro 13" mit ARM Plattform würde ich definitiv in Betracht ziehen, wenn es denn Power auf i7 Niveau verspricht.
 
  • Gefällt mir
Reaktionen: LamaTux, JamesCarter, Hayda Ministral und eine weitere Person
surogat schrieb:
Die Patentfrage mal völlig außen vor gelassen, dürfte es schwer werden die Leistung der aktuellen Flaggschiffe wie RX 5700 XT und entsprechendes von Nvidia in Apple-Silizium zu bannen.
Ich glaube Gaming-Karten werden auch weiterhin bei Apple keine große Rolle spielen. Auch ein bisschen ironisch, dass du eine Mid-Range-Karte als Flagschiff bezeichnest, wenn das eigentliche Flagschiff von AMD noch aussteht.

Ähnlich wie AMD den Chip designed und dann bei TSMC fertigen lässt und Apple mWn ja auch Apple Silicon bei TSMC fertigen lässt, werden die wohl auch einen eigenen Grafikchip entwerfen und dort fertigen lassen. Die Lieferkette wird einfach um ein weiteres Produkt erweitert und die Erfahrung bei der Chipherstellung hat man ja eigentlich schon. Da rechne ich gute Chancen aus, dass Apple in 2 Jahren eigene Workstation-GPUs bauen lässt, die dann dem entsprechen, was sie bisher in den Pro-Geräten eingebaut haben (also inkl. der zu erwartenden Leistungssteigerung).

Wenn man aus deren Ankündigung schließt, dass die in 2 Jahren einen Nachfolger des Mac Pro/iMac Pro mit entsprechender GPU-Leistung bringen wollen und das auch so stimmen sollte, dann wird Apple inzwischen ungefähr wissen, was sie da liefern können, bzw. dann sind die mit dem Chip-Design ggf. schon so weit, dass sie die Leistung recht gut abschätzen können.

Herdware schrieb:
Aber ich nehme an, Apple schaut da überhaupt nur auf kleine Mobil-SoCs. Da mag es zutreffen, dass die integrierten GPUs besser oder zumindest ungefähr gleichwertig sind, gegenüber Intels bisherigen iGPUs. (Ein Vergleich mit AMDs APUs sähe eventuell schon wieder schlechter aus, aber die nutzt Apple ja nicht.)
Es wurde ja schon gezeigt, dass man "Shadow of the Tomb Raider" auf einem A12Z emuliert in nativen 1080p spielen kann. Da halte ich es jetzt nicht für schwierig einen Nachfolger zu bieten, der es ohne Emulation mit einer AMD-APU aufnehmen kann. Und wenn man die Technik der iGPU auf einen vollen Chip ausbaut, so wie es intel mit Xe jetzt ja auch macht, dann wird man wohl auch in der Desktop-Klasse hoch genug mitspielen können. Apple wird sich eher nicht in 2 Jahren da hin stellen und einen iMac Pro, oder Mac Pro mit weniger GPU-Leistung anbieten, als die Vorgänger hatten.
 
  • Gefällt mir
Reaktionen: LamaTux, AlphaKaninchen und He4db4nger
Chillaholic schrieb:
Seit wann nutzt Apple denn USB-C?
Chillaholic schrieb:
Da ist ja die Krux und genau das war die Kritik.

So hat sich das aber nicht angehört :D

Ich denke die iPhones werden auch kein USB-C mehr bekommen das hätte schon beim 11er passieren müssen. Ich denke Apple wird alles auf Wireless auslegen.
 
Cool Master schrieb:
So hat sich das aber nicht angehört :D
Dann solltest du das gesamte Gespräch von Anfang an verfolgen.
 
Aphelon schrieb:
Ich glaube Gaming-Karten werden auch weiterhin bei Apple keine große Rolle spielen.

Da sagt meine 5700 XT an meinem Mac Mini etwas anderes :D
Ergänzung ()

@Chillaholic

Habe ich ;)
 
Kann mich noch erinnern bevor Apple, intel-Cpus hatte, da kam nicht viel.
Gut sie hatten ihr OS auch gut zugeschnitten, das es vernünftig lief.

Aber mit Intel und AMD konnten die nicht mithalten.

Jetzt noch Nvidia raus, viel Spaß sag ich da nur.

Aber, vlt hat Apple da schon was ausgebrütet, sonst würden die sowas nicht machen.

Bin gespannt was da kommt.
 
  • Gefällt mir
Reaktionen: nosound
Kobura schrieb:
Bei den Treiberlatenzen die du dadurch erhältst kannst du sämtliche Audio-Interfaces wegwerfen.

Sag das nicht, wenn die Treiber Audio Class Compliant sind, dann wirds sich dabei absolut nichts ändern. Die Großen -- "MOTU Und Konsorten" -- werden die Treiber aktualisieren. Es ist ja auch nicht so schwer, wenn man Apple glauben darf
 
heißt das jetzt, dass einfach keine mac mit amd gpu kommen oder dass generell auch keine externen amd karten mehr via thunderbolt gehen? letzteres wäre natürlich "hart", andererseits haben sie das mit den egpus eh verdaddelt, zumindest in der aktuellen fcpx version. so lange wie das schon nicht gefixt ist kann man ohnehin davon ausgehen, dass Apple das Interesse daran verloren hat.

aber vll. ist das mit den neuen apple chips auch gar nicht mehr nötig :)
 
Chillaholic schrieb:
Da ist ja die Krux und genau das war die Kritik.
Sekorhex sprach explizit von "Ladekabeln".
iPad (Pro), Macbook, Mac Mini - wird alles über USB-C geladen/versorgt. Verstehe die Aufregung nicht - wenn man sich ein iPhone anschafft, dann weiß man das Apple hier sein eigenes Süppchen kocht, warum auch immer.
 
  • Gefällt mir
Reaktionen: Renegade334 und Helge01
Sekorhex schrieb:
Schon wieder ein anschluss exklusiv für Apple.. Wollte Europa allgemein nicht mit Ladekabeln anfangen, das zu standartisieren?
Chillaholic schrieb:
Seit wann nutzt Apple denn USB-C?

Einfach mal 2s Googlen.... Apple nutzt bei PCs (um die es hier mit Thunderbolt ja geht) genau wie jeder andere Hersteller seit Thunderbolt 3 USB-C als Anschluss.

Apple geht sogar noch weiter: Seit dem MacBook 2016 ist USB-C der einzige(!) Anschluss am Gerät neben einem Klinkenstecker.

Chillaholic schrieb:
Ja wollte man, war am Ende aber nur freiwillig und ne Nullnummer.
Nullnummer?
Es ging es nie ernsthaft um den Anschluss direkt am Gerät, sondern um den am Netzteil, damit weniger Elektromüll durch Netzteile produziert wird, die man nicht weiterverwenden kann. Wenn ich meine Netzteilsammlung so anschaue, hat das ganz gut geklappt, das ist alles USB-A

Apple sagt übrigens das Vorhaben sei ne Innovationsbremse. :)
Ist es - vor allem, wenn man den Anschluss am Gerät fixen will - auch.
Als die EU mit der Idee um die Ecke kam, war außer beim iPhone micro-USB der heiße Scheiß. Stell dir mal vor, die EU hätte mUSB als Standard-Schittstelle für Mobilgeräte vorgeschrieben. Und müsste dann in üblicher EU-Geschwindigkeit diese Verordnung alle paar Jahre anpassen, und dann haben alle Mitgliedsstaaten wieder paar Jahre Zeit, dass in nationales Recht umzusetzen usw.

Da hätten wir heute sicher nicht sowas wie Samsung Dex. Oder QuickCharge. Oder auch nur ordentlichen HDMI-Output von Smartphones. Über mUSB hatte ich mit diversen Geräten in diversen Autos häufig sogar Probleme mit simpler Musik-Wiedergabe. Mit USB-C oder Lightning nie.

So toll das "ein Anschluss für alles" Ding auch ist, Innovation wird dadurch auf jeden Fall behindert. Aktuell sieht es so aus, dass USB-C uns noch einige Jahre erhalten bleibt und darüber auch in Zukunft fast alles gehen wird. Dennoch würde ich nicht ausschließen, dass irgendwann ein Technologiesprung kommt, der wieder einen neuen Stecker nötig macht. Und da will ich dann nicht warten, bis irgendwelche Regierungen, die sonst auch nicht gerade durch technisches Know-How glänzen, mal den neuen Standard vorschreiben.

surogat schrieb:
Vermutlich orientiert sich Apple beim Leistungsvergleich ihrer eigenen GPUs eher an die integrierten GPUs von Intel. Die Patentfrage mal völlig außen vor gelassen, dürfte es schwer werden die Leistung der aktuellen Flaggschiffe wie RX 5700 XT und entsprechendes von Nvidia in Apple-Silizium zu bannen.
Da sie sagen, sie werden "alle eingesetzten GPUs ersetzen" und im MacPro keine Intel iGPUs laufen, werden sie wohl auch GPUs entwickeln, die dedizierte Karten ersetzen sollen.
 
  • Gefällt mir
Reaktionen: LamaTux, JamesCarter, Porty47 und 7 andere
Chillaholic schrieb:
Seit wann nutzt Apple denn USB-C?
Seit 2015 bei allen Macs?
Chillaholic schrieb:
Da ist ja die Krux und genau das war die Kritik.
Sekorhex sprach explizit von "Ladekabeln".
Und einen Mac lädt man nicht mit "Ladekabeln"? Es geht hier in der News rein um den Mac. Er spricht von exklusiven Anschlüssen und dazugehörige Ladenkabel, was absoluter Quatsch ist. Denn alle MacBooks nutzen USB-C-Ladekabel.
Cool Master schrieb:
Ich denke die iPhones werden auch kein USB-C mehr bekommen das hätte schon beim 11er passieren müssen. Ich denke Apple wird alles auf Wireless auslegen.
Denke ich auch, Lightning ist bei iPhone-Besitzern einfach zu weit verbreitet, um jetzt noch einen Bruch zu machen. Zumal Lightning für mobile Geräte, die häufig geladen werden und in Hosentaschen sind, einfach der bessere Anschluss ist.
kaxi-85 schrieb:
wenn man sich ein iPhone anschafft, dann weiß man das Apple hier sein eigenes Süppchen kocht, warum auch immer.
Weil damals noch kein USB-C existierte und Micro-USB einfach absoluter Schrott ist. Das hat Apple erkannt und mit Lightning eine Alternative entwickelt, welche eigentlich bis heute in meinen Augen der Maßstab eines guten Steckers ist.
 
  • Gefällt mir
Reaktionen: LamaTux, Porty47, iSight2TheBlind und 3 andere
Wenn Apple jetzt alles selbst baut und entwickelt, dann können sie sich endlich von lästigen Standards der Industrie verabschieden und komplett eigene Standards verwenden. Das ist ja ohnehin Apples Markenzeichen, das eigene Ökosystem so inkompatibel wie möglich zu machen. Außerdem entfällt komplett die Vergleichbarkeit mit anderer Hardware, Apple wird sich damit im Wettbewerb nicht mehr preislich rechtfertigen müssen - es gibt ja keine Konkurrenz.

Ein marktwirtschaftlich guter Schritt, man entledigt sich hier vieler Zwänge. Dass ein Mac Pro aber auf Apple Silicon wechselt, glaube ich nicht. Das wäre schon eine große Überraschung, wenn Apple dieses Leistungsniveau mit eigener Hardware stemmen könnte. Sollten sie es dennoch erfolgreich schaffen, Hut ab, das wäre eine mehr als beachtliche Leistung.

Was sich dort technisch ergibt, verfolge ich jedenfalls mit Spannung. Nicht, dass ich auch nur das leiseste Interesse an einem Apple-Produkt hätte, aber die Technologie weckt wissenschaftliche Neugier.
 
kaxi-85 schrieb:
Verstehe die Aufregung nicht - wenn man sich ein iPhone anschafft, dann weiß man das Apple hier sein eigenes Süppchen kocht, warum auch immer.
Gibt keine Aufregung, ihr versucht das Thema nur immer runterzuspielen und zu relativieren.
Die EU wollte alle Elektonikhersteller zu einem Standard zwingen und ist dran gescheitert.

Tommy Hewitt schrieb:
Und einen Mac lädt man nicht mit "Ladekabeln"?
Einen iMac zumindest nicht, nein.
Wenn du von Macbooks redest ist das was anderes.
 
  • Gefällt mir
Reaktionen: nosound
Nachdem auch jetzt schon viele wichtige Programme, mehr oder weniger gut, auf IOS/IpadOS ARM laufen wird Apple den Übergang schon hinbekommen. Gamer bleiben auf der Strecke, die können auch Ipad Games zocken. Für "Creative Professionals" muss die Arm Struktur eben nach oben skaliert werden. Volumen und Kühlung ist ja in Macs/Macbooks eindeutig vorhanden. Da am Mac eh alles GPU basierte am besten über Metal läuft wird Apple das auch sicherlich gut auf die eigene Hardware portieren können.
 
Chillaholic schrieb:
Die EU wollte alle Elektonikhersteller zu einem Standard zwingen und ist dran gescheitert.
Ja, Gott sei Dank.
Chillaholic schrieb:
Wenn du von Macbooks redest ist das was anderes.
Mac + Ladekabel......von was wird man wohl reden? Aber auch der iMac hat keine exklusiven Anschlüsse.
 
kest schrieb:
Wieso denken viele, dass Apple es nicht hinbekommt, eine konkurenzfähige GPU herzustellen? Sie haben genug Manpower, Geld und eine "kleine" GPU zu skalieren werden sie wohl hinbekommen.

Wie gesagt, Intel versucht das immer wieder seit Jahrzehnten. Bisher erfolglos.

Und wenn man Apples Behauptung, ihre eigenen GPUs seien ab 2022 schneller als alles, was sie bisher von AMD/Intel hatten, für bare Münze nimmt und nicht weiter einschränkt, schließt das zumindest AMDs große Vega-GPUs ein.
Um sowas zu übertrumpfen, müsste Apple durchaus eine GPU in der Leistungsklasse einer 2080(Ti) raushauen.

Das erscheint mir wie gesagt extrem ehrgeizig und unwahrscheinlich.

Ich tippe darauf, dass sie das nur in Bezug auf kleine Mobil-SoCs gemeint haben. Und/oder sie denken bei "schneller" an ganz spezielle Anwendungsfälle. Z.B. wenn die integrierte GPU spezialisierte Funktionseinheiten für KI-Anwendungen oder Video-Encoding usw. hat, die besser sind als die der Konkurrenz.
 
  • Gefällt mir
Reaktionen: nyster, KLH, schneeland und 4 andere
Mit Rosetta 2 soll der Wechsel nicht so schrecklich ausfallen.
 
kest schrieb:
Sag das nicht, wenn die Treiber Audio Class Compliant sind, dann wirds sich dabei absolut nichts ändern. Die Großen -- "MOTU Und Konsorten" -- werden die Treiber aktualisieren. Es ist ja auch nicht so schwer, wenn man Apple glauben darf
Meine Antwort bezog sich auf emulierte Treiber. Angepasste Treiber haben das Problem natürlich nicht. Für Altgeräte kann dies oft nicht wirtschaftlich genug sein (Entwicklungsaufwand, proprietäre Dependencies/Libraries) und da darf man die jeweiligen Interfaces dann halt ersetzen.
 
Zurück
Oben