News Apple Silicon: Thunderbolt darf bleiben, AMD und Nvidia fliegen raus

An diese GPU Performance glaube ich noch nicht, das wäre schon ein starkes Stück, wie ich finde. Ich bin aber mehr als gespannt wie sich das entwickelt und kann es kaum abwarten bis die ersten Benchmarks da sind bzw. man die ersten Geräte kaufen kann.
 
Aus meiner Sicht werden Macs somit noch uninteresanter, insbesondere für den professionellen Bereich.
 
  • Gefällt mir
Reaktionen: Foggle
Suchtbolzen schrieb:
...Ich bin aber mehr als gespannt wie sich das entwickelt und kann es kaum abwarten bis die ersten Benchmarks da sind ...

Ja. Ich finde das auch außerordentlich spannend.

Ich fand und finde PCs- und Workstations mit etwas anderem als x86 schon immer faszinierend. Früher habe ich mit Silicon Graphics- und HP-UX-Workstations zu tun gehabt. Aber da hat sich schon lange alles auf x86 eingeschossen, wie halt auch bei Apple, als die PowerPC den Rücken gekehrt haben.

Dass sich das man wieder umkehren könnte, damit ahbe ich gar nicht mehr gerechnet.
Und jetzt will Apple sogar eigene High-End-GPUs entwickeln. Da stehen uns spannende Zeiten bevor. 🙂
 
  • Gefällt mir
Reaktionen: mcasd, AlphaKaninchen, tidus1979 und eine weitere Person
Herdware schrieb:
Das erscheint mir wie gesagt extrem ehrgeizig und unwahrscheinlich.

Die schnellsten CPU Kerne auf Basis der ARM ISA hat heute Apple (Eigenentwicklung). Gleichzeitig ist man der Premiumkunde mit dem dicksten Geldbeutel von allen bei TSMC. Die ersten Designs in Leading Edge Prozessen welche in hohen Stückzahlen am Markt ankommen sind seit Jahren immer von Apple. Hinzu kommt der Software Stack welcher über APIs, Treiber, OS und in Teilen sogar Anwendungen nahezu komplett in eigener Hand ist.

Das Apple heute derart potente ARM Kerne hat ist die Folge einer seit mehr als 10 Jahre laufenden Entwicklung. Ausgehend von der Implementierung fertiger Designs (ARM Cortex) über Anpassungen bis hin zur vollständigen Eigenentwicklungen. Bei GPUs verfolgt Apple den gleichen Ansatz. Von fertigen Designs (imgtec, PowerVR) über Anpassungen zur Eigenentwicklung welche auf dem gesammelten Know How aufbaut. Den Zugriff auf notwendige Patente bekommt Apple weiterhin über das mit IMG neu geschlossene Lizenzabkommen.

Mit der wichtigste Punkt ist aber das man es bei Apple wirklich will und konsequent massiv weiter investiert. Sowohl Samsung als auch Qualcomm hätten auch das nötige Kleingeld gehabt. Sind aber beide (CPU und GPU bzw. CPU R&D) inzwischen aus Kostengründen ausgestiegen. Mit den Budgets war halt nicht mehr möglich als das was es sowieso bei ARM als fertige Designs zu kaufen gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sammy2k8, smalM, Herdware und eine weitere Person
Rassnahr schrieb:
Aus meiner Sicht werden Macs somit noch uninteresanter, insbesondere für den professionellen Bereich.

ich finde, dass im professionellen Bereich genau das Gegenteil passieren kann. Wenn ich Content Creator bin und bspw. die Adobe Suite nutze und durch die neue Apple Architektur alles schneller (oder energiesparender) läuft als unter Windows - warum nicht auf Apple umsteigen?
 
Konsequent. Finde es schon nicht schlecht was Apple da gerade macht, der Unix Unterbau macht es möglich. Hat Microsoft auch mit Intel probiert aber können bis heute nicht die passende Hardware liefern. Nur ist MS da nicht so flexibel mit ihrem OS wie Apple.
 
Würde es ja ganz spannend finden, wenn Intel, AMD und nVidia jetzt vielleicht noch mal an so vielen schrauben drehen, dass Apple diesen Wechsel am Ende womöglich noch bereut.
Tendenziell wird es hier eigentlich nur ein Opfer geben und dass ist Windows und Bootcamp und somit wohl alle, die auf ihrem iMac auch hin und wieder zocken(so wie ich) oder Windows Apps benötigen.
Alle anderen Programme könnte man über Compiler schon über jede mögliche GPU jagen und je nachdem, ob Apple Wert auf gewisse "Prosumer" Programme legt und deren effektive Nutzung wird es wohl auch kaum Unteschiede zu AMD oder nVidia geben.
Ist also natürlich ein sehr kleines Feld welches davon schaden nimmt, wenn auch für mich persönlich ein wichtiges, so muss man halt einsehen, dass AMD oder nVidia halt auch wenig bieten, was Apple in einer GPU einbauen könnte um mitzuhalten bei Sachen wie Rendering.

Für Apple allgemein ist es ziemlich naiv zu glauben, dass man nur durch Skalierung mit der Konkurrenz mithalten kann, so einfach skalieren sich GPUs und CPUs eben nicht, hat man ja schon allen "Multisocket" Sachen gemerkt, dass die Kommunikation untereinander zum Problem werden kann und alles was größer wird, wird nicht effektiver.

Ich hoffe ja irgendwie, dass sie scheitern, ich möchte halt schon ein (neuen randlosen) iMac mit Intel und AMD um auch nebenbei mal zu zocken.
Aber es wird eher darauf hinaus laufen, dass man wohl auf Windows wechselt, weil 90% der Produktivitätstool auch da laufen und das UI nervig ist aber eben auch nur ein UI.

Noch ist aber alles nur Spekulation, wer weiß was Apple in 1 1/2 Jahren bereit stellt, spätestens wenn sie irgendwas "Pro" nennen erwarte ich mehr als Oceanhorn Grafik und dem schnellen "wechsel" zwischen Vorschauen.
Weil echte Renderszenarien mit aktiven Rendern haben sie trotz Maya Demo nicht gezeigt.
 
don.redhorse schrieb:
Welcher Mac hat den eine GPU in der Klasse einer GTX2080? Keiner. Damit macht die Afterburner Karte für den nMP auch mehr Sinn. Die GPUs fliegen auch da raus. Aber eine SoC kann niemals Leistung bringen, die ein 500 Watt GPU Gespann bringt. Also entweder setzen die in ihrem ARM nMP nur auf das eigene SoC mit Afterburner, oder die bauen reine Beschleuniger Karten ein, also ohne Grafikausgang, Tesla und Nachnachfolger. Frage ist ja auch, wie sie die ganze SIMD Recheneinheiten der X86er ersetzen wollen. Vektorrecheneinheiten bietet ARM doch gar nicht, bzw, nicht in dem Maße oder nutzt macOS AVX gar nicht? CPUs laufen auf jeden Fall erst ab bestimmten SSE Versionen, deswegen war es auch schwierig aus älteren AMD Systemen Hackis zu machen, die Unterstützen ja nicht alle Derivate von SSE4.x

Der Mac Pro hat je nach Ausstattung enorme GPUGPU Leistung.

SIMD Einheiten sind auch bei ARM Standard. Die aktuellen HP Kerne von Apple haben 3x 128bit Pipelines (wohlgemerkt dediziert und nicht anstelle einer Int Berechnung in der selben pipeline) und der Cortex X 4x 128bit (wo Apple vermutlich mitziehen wird). Ansonsten gibt es noch proprietäre Erweiterungen, die breitere Vektor Pipelines ermöglichen.

Bei den GPUs wird man wohl nicht in allen Bereichen ein APU Konzept durchziehen.
Ansonsten gibt es ja durchaus wirklich große APUs (Xbox Series X zum Beispiel).
 
SoDaTierchen schrieb:
Wenn Apple jetzt alles selbst baut und entwickelt, dann können sie sich endlich von lästigen Standards der Industrie verabschieden und komplett eigene Standards verwenden. Das ist ja ohnehin Apples Markenzeichen, das eigene Ökosystem so inkompatibel wie möglich zu machen.

So ein Schwachsinn. Du verstehst Apples Strategie genau 0.
Apple hatte immer und wird auch weiter verschiedene industrieweite Standards unterstützen. Und zwar genau so viele, wie nötig sind, damit die Kunden weiter die Produkte nutzen. Wenn Apple plötzlich USB rauswirft und dafür "ASB" oder sonstwas erfindet, und man keinen USB-Stick mehr anstecken kann und sonstwas, gehen die Kunden laufen. Also wird sowas wie USB bleiben.

Auf Softwareseite das gleiche. Ja, am liebsten wollen die natürlich, dass du iCloud als Mail nutzt. Denen ist aber auch klar, dass das nie passieren wird, also wird Exchange, IMAP und alles unterstützt. iOS unterstützt auch nativ CalDav und CardDav, wo man bei Android erstmal irgendwelche Zusatzprogramme für braucht(e? vielleicht hat es sich endlich geändert), die solange ich ein Android hatte, nie ordentlich gelaufen sind.


Außerdem entfällt komplett die Vergleichbarkeit mit anderer Hardware, Apple wird sich damit im Wettbewerb nicht mehr preislich rechtfertigen müssen - es gibt ja keine Konkurrenz.
Was?! Ja, du kannst vielleicht keine synthetischen "wer hat den längeren Balken" Benchmarks mehr machen. Exportzeiten von Videos u.ä. (also Sachen, die im Arbeitsalltag tatsächlich eine Rolle spielen) kannst du natürlich weiterhin wunderbar vergleichen.

Ein marktwirtschaftlich guter Schritt, man entledigt sich hier vieler Zwänge. Dass ein Mac Pro aber auf Apple Silicon wechselt, glaube ich nicht. Das wäre schon eine große Überraschung, wenn Apple dieses Leistungsniveau mit eigener Hardware stemmen könnte. Sollten sie es dennoch erfolgreich schaffen, Hut ab, das wäre eine mehr als beachtliche Leistung.
Für Apple ist dieser Schritt in vielerlei hinsicht sehr sinnvoll, auch marktwirtschaftlich, stimmt.
Und sie haben explizit angekündigt, dass alle PCs auf Apple Silicon wechseln. Alles andere wäre auch der totale Albtraum, dann muss ja jede Software für 2 Architekturen entwickelt werden - ARM @ Macbooks, und Intel @ Mac Pro - sicher nicht. Der Mac Pro bekommt auch Apple Silicon. Wie die Leistung am Ende dann wirklich ist, bleibt abzuwarten. Der neue MacPro ist ja gerade erst rausgekommen, man hat also noch ein paar Jährchen Zeit, bis da ein ARM Modell her muss.

Chillaholic schrieb:
Gibt keine Aufregung, ihr versucht das Thema nur immer runterzuspielen und zu relativieren.
Die EU wollte alle Elektonikhersteller zu einem Standard zwingen und ist dran gescheitert.
Egal was du da träumst, der Plan ging immer nur um die Ladegeräte, und das hat funktioniert.


Einen iMac zumindest nicht, nein.
Wenn du von Macbooks redest ist das was anderes.
Ja, ein iMac verwendet - halt dich fest - ein KALTGERÄTESTECKER! Den gibt es sonst nirgendwo! Oh, wait. Außer am Drucker, Monitor, jedem PC-Netzteil...

Mithos schrieb:
Geht es bei der Debatte aber nicht eigentlich nur um die Netzteile? Zumindest klingt es hier so (Chargers).
Dort nutzt auch Apple USB. Sicher, dass Europa auch die Buchse am Gerät selber meint und nicht nur an den Chargern?
Ging es, @Chillaholic erzählt da Schwachsinn.

JSXShadow schrieb:
Der Markt für Macs ist und bleibt eine Nische. Selbst wenn alle Mac-Besitzer sofort auf die neue Architektur wechseln würden, selbst dann hätte es negative wirtschaftliche Folgen für Apple.
Die Firma, die es seit Jahren perfektioniert hat, maximalen Gewinn aus jedem Produkt zu holen und eine traumhafte Gewinnmarge im Bereich Consumer-Elektronik Jahr auf Jahr hinlegt, hat sich bei so einer riesigen Entscheidung mal kurz verrechnet und du konntest das in ein paar Minuten nachprüfen?

Ah ja. Und morgen ist Weihnachten. Dieses Jahr zusammen mit Ostern.

Mal ganz davon abgesehen, dass sich, mit voranschreitender Performance, der Mehrwert von Apples Betriebssystem immer mehr und mehr in Rauch auflöst. Die Unterschiede zu Windows liegen schon seit längerer Zeit nur in der Bedienung. Wirkliche, spürbare Vorteile gibt es nicht, daher machen Apple-Produkte nach wie vor keinen Sinn, haben sie fast noch nie.
Und wenn die Bedienung das ist, was die Leute wollen? Zusammen mit dem super ineinandergreifendem Ökosystem? Oder für manche Leute auch einfach das Design einen sehr hohen Stellenwert hat?

Performance ist nicht alles.

Vor allem was jetzt für Trouble auf die Software-Provider für Mac zukommt.
Welcher denn? Bist du Mac Softwareentwickler?

Das wird ne Menge Probleme geben in der Übergangszeit. Bis das alles optimiert ist...naja, mit Logik hat es Apple nicht so, das ganze Geschäftsmodell baut auf der Dummheit der Konsumenten auf, von daher...
Apple hat so eine Umstellung schon zwei Mal gemacht. Ja, völlig problemlos war es nicht. Insgesamt war es beide Male trotzdem ein großer Vorteil für Apple.

OldZocKerGuy schrieb:
Aha, ok und Adobe und Co? Wie läuft es da mit der der SW und div. Optimierungen bezüglich der GPU ab?
Photoshop wurde in der Keynote schon nativ laufend gezeigt und die Entwickler sind dran.

Insgesamt gilt eh: Wenn man vorher eine halbwegs aktuelle Mac-App hatte und die vorgesehenen APIs wie Metal genutzt hat, wird sich fast nichts ändern.

Draco Nobilis schrieb:
Wenn man für unendlich Geld immer einen Fullnode vor den anderen kauft kann man natürlich denken man hätte bessere Designs. AMD mit 5nm im Jahr 2022 ist halt 1-2 Jahre zu spät. Da hat Apple dann 3nm von TSMC gekauft.
Ein Node reißt nicht so viel raus. Intel holt aus ihrem 14nm++++ immer noch ähnlich viel Single-Core Performance raus wie AMD mit 10 und 7. Und in der Ecke Grafik ist AMD auch einen Node vor Nvidia, aber leistungsmäßig reißt das da nix raus.
Ein Node Vorsprung gleicht kein schlechtes Design aus.

Ich mein, ich werde mir voraussichtlich nie einen Mac kaufen, halte die für überteuert und ich will meinen PC upgraden können. Aber man muss das ganze auch mal ein bisschen logisch angucken und wird dann sehen, dass bei Apple nicht nur Idioten sitzen (dann wäre der Laden nicht so erfolgreich), und die Umstellung für ihre Firma, ihre Produkte und ihre Strategie ein sinnvoller Schritt ist.
 
  • Gefällt mir
Reaktionen: mcasd, Berry2k, smalM und 7 andere
Ein weiterer Vorteil für Apple wird halt auch sein das die ganzen Intel Hackintosh Clone ebenfalls dann aussterben..
 
nlr schrieb:
Warum sollte jede Apple-GPU integriert sein?
Meine Prophezeiung: Sie wird integriert sein.

"Tiled Rendering", von dem im Artikel die Rede ist, wurde ja von PowerVR / Imagination - mehr oder weniger - "erfunden" / erfolgreich implementiert.
Die Technik reduziert Speicherverbrauch und Speicherbandbreitenbedarf - also optimal für SoCs!

Auch für Real-Time Ray Tracing hat(te) Imagination eine sehr vielversprechende Lösung in der Pipeline.
Nachdem Apple Imagination 2017 fast platt gemacht hatte, einigte man sich vor kurzem wieder gütlich. Apple hat damit jetzt auch Zugriff auf Ray-Tracing-Technologie (für SoCs!), die bereits mindestens solange entwickelt wird wie Nvidia RTX.

Das löst gleich meine nächste Prophezeiung aus:
Bei Apple entsteht gerade auch eine hervorragende (vielleicht sogar überlegene?) Gaming-Plattform.

Auf jeden Fall beflügelt Apple zur Zeit meine Phantasie und Hoffnungen mehr als jedes andere Tech-Unternehmen.
Schade, dass Steve Jobs das nicht mehr miterleben kann.
 
  • Gefällt mir
Reaktionen: mcasd und AlphaKaninchen
An keiner Stelle des WWDC-Videos wird gesagt, dass Macs mit Apple-SoC keine dedizierte Grafikkarte von AMD/Nvidia haben wird, sondern dass Apple silicon eben eine (integrierte) Apple GPU haben wird, also keine Kombi aus Apple-CPU und AMD-GPU. Wie kann man aus einem einzelnen Bildchen irgendwas erfinden, was so nicht gesagt worden ist?
 
  • Gefällt mir
Reaktionen: Foggle und nciht
lanse schrieb:
Apple hat damit jetzt auch Zugriff auf Ray-Tracing-Technologie (für SoCs!), die bereits mindestens solange entwickelt wird wie Nvidia RTX.

Das löst gleich meine nächste Prophezeiung aus:
Bei Apple entsteht gerade auch eine hervorragende (vielleicht sogar überlegene?) Gaming-Plattform.

Zur WWDC hat Apple für Entwickler auch massive Optimierungen für Raytracing über die Metal-API angekündigt. Nicht unwahrscheinlich, dass Apple in Zukunft vermehrt auf RT setzen wird.
Ergänzung ()

deekey777 schrieb:
Wie kann man aus einem einzelnen Bildchen irgendwas erfinden, was so nicht gesagt worden ist?

Auf dem Bild steht doch eindeutig, dass ein Apple Silicon Mac nur eine Apple GPU nutzen wird.
Während beim Intel Mac auch AMD, Intel und Nvidia GPUs zur Verfügung stehen/standen.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Autokiller677 schrieb:
Was?! Ja, du kannst vielleicht keine synthetischen "wer hat den längeren Balken" Benchmarks mehr machen. Exportzeiten von Videos u.ä. (also Sachen, die im Arbeitsalltag tatsächlich eine Rolle spielen) kannst du natürlich weiterhin wunderbar vergleichen.
Wobei du die Exportzeiten o.Ä. natürlich wunderbar wieder in Balken nebeneinander darstellen kannst.

lanse schrieb:
Das löst gleich meine nächste Prophezeiung aus:
Bei Apple entsteht gerade auch eine hervorragende (vielleicht sogar überlegene?) Gaming-Plattform.
Und dann kommt wohl noch die Apple Gaming-Konsole. :D

HanneloreHorst schrieb:
Würde es ja ganz spannend finden, wenn Intel, AMD und nVidia jetzt vielleicht noch mal an so vielen schrauben drehen, dass Apple diesen Wechsel am Ende womöglich noch bereut.
Ich glaube Apple geht es da gerade nicht nur um Leistung, sondern sicherlich auch um Kostenoptimierung. Gerade GPUs haben so hohe Margen, dass man da als größerer Abnehmer wie Apple womöglich gleich selber entwickeln und produzieren kann, weswegen die es auch jetzt wohl machen.

Apple muss leistungsmäßig auch nicht mithalten. Die kommen ja jetzt schon lange ohne nVidia zurecht, obwohl nVidia die letzten Jahre immer die Leistungskrone behalten hat (auch im Workstation-Bereich). Apple muss nur bei jeder Generation ein bisschen/genug Leistung drauf legen, damit sich für den Kunden ggf. ein Upgrade lohnt.

JSXShadow schrieb:
Naja, du stellst das so auf, als wäre das etwas positives, etwas worauf Apple stolz sein kann. Was ist denn absolute Gewinnmaximierung, wenn nicht absolutes Ausnutzen der Menschen und/oder deren Dummheit. Das ist keine Leistung. Das ist widerlichster Kapitalismus in seiner schlimmsten Form.
Ah, Unternehmen sollen zur Wohltätigkeit arbeiten? Warum darf ein Unternehmen nicht stolz auf wirtschaftlichen Erfolg sein? :freak: Du stellst das fast schon wie ne Menschenrechtsverletzung dar, was einfach nur realitätsfern ist.

1. Niemand ist gezwungen ein Apple-Produkt zu kaufen
2. Diejenigen, die es machen sind nicht zwingend "dumm". Wenn du deren Gründe, warum sie Apple kaufen, nicht nachvollziehen kannst, dann fehlen bei dir die entsprechenden Kompetenzen. Derart vielen Menschen einfach Dummheit vorzuwerfen, nach dem Motto "Die wissen nicht, was sie tun", entsteht i.d.R. einfach durch mangelnde Informiertheit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JamesCarter, Foggle, smalM und eine weitere Person
Helge01 schrieb:
Der Thunderbolt 3 ist auch gleichzeitig ein USB-C Anschluss. Den haben die macOS Geräte schon seit Jahren.

Und sie haben damals als erste komplett auf USB-C gesetzt und dafür viel Kritik eingesteckt.

Chillaholic schrieb:
Da ist ja die Krux und genau das war die Kritik.
Sekorhex sprach explizit von "Ladekabeln".

Sekorhex hat aber einfach etwas in dieses Thema hineingekotzt was hier überhaupt nichts zu suchen hat.
Thunderbolt war immer offen und nicht Apple-exklusiv und Thunderbolt 4 wird es natürlich auch wieder sein.
Die ganze USB-C <-> Lightning-Thematik existiert allein bei den iPhones und mit denen hat diese Meldung absolut gar nichts zu tun.

bensen schrieb:
Das Ganze ist durchaus risikobehaftet. Es lohnt nur, wenn man auch entsprechende Stückzahlen absetzen kann. Ansonsten werden die Entwicklungskosten zu riesig. Gerade bei der GPU, die wird ja nur in wenigen Geräte Einzug erhalten. Viele MacBook werden ja weiterhin ohne kommen.
Gut, die Architektur entwickeln sie eh, muss jetzt aber deutlich breiter aufgestellt sein um auch High Performance abzudecken.

Apple entwickelt eh eigene CPUs und GPUs und die dann etwas breiter aufzustellen ist ein vergleichsweise kleines Problem.

Draco Nobilis schrieb:
Scheinbar will Apple keine Content Creator mehr als Kunden?
Intel versucht seit 15 Jahren Grafik hinzubekommen, aber klar Apple macht das in 2-5 Jahren^^

Seit den A-SoCs designt Apple eigene SoCs und benötigt dafür natürlich eine gewisse Kompetenz im Grafikbereich und nutzt jetzt schon seit einigen Jahren eigene GPUs. (Deren Entwicklung natürlich Jahre vorher begann)
D.h. wenn ein Mac Pro im Jahr 2022 eine Apple-GPU bekommt hat Apple zu dem Zeitpunkt nicht 2 oder 5 Jahre Erfahrung mit GPUs sondern fast ein Jahrzehnt.

Herdware schrieb:
Den aktuellen MacPro gibt es mit bis zu zwei "AMD Radeon Pro Vega II Duo". Das ist eine Dual-GPU-Grafikkarte mit zwei großen Vega-Chips und bis zu 64GB HBM-Grafikspeicher.
In Spielen mag eine 2080 trotzdem etwas schneller sein, aber in diversen Profi-Anwendungen dürften bis zu 4 voll ausgebaute Vega-GPUs mit so viel schnellem Speicher klar vorn liegen.

Und wer sagt, dass Apple dann die Leistung von vier Grafikchips in einem einzelnen Chip zusammenfassen muss?

MacBooks und evtl. auch der iMac bekommen eine Apple-GPU als Teil eines SoCs, der Mac Pro als Steckkarte.

lanse schrieb:
Das löst gleich meine nächste Prophezeiung aus:
Bei Apple entsteht gerade auch eine hervorragende (vielleicht sogar überlegene?) Gaming-Plattform.

Apple arbeitet gerade sowohl an einer AR-Brille als auch an einer VR-Brille - beide benötigen natürlich einiges an Grafikleistung.
Die AR-Brille ist übrigens auch der Grund für den LIDAR-Scanner im neuen iPad Pro - er wird erstmal dort erprobt und Entwickler können erste LIDAR-basierte AR-Anwendungen entwickeln, bevor der Scanner dann im iPhone und später in der Apple AR-Brille landet.
Wo er übrigens auch den großen Nachteil von Google Glass vermeidet, denn dort hatte man eine potentiell ständig filmende Kamera, während die Brille von Apple wohl nur LIDAR bieten wird und sich damit auch ein Bild von der Welt machen kann, ohne aber wirklich ein "Bild" zu erstellen.
 
  • Gefällt mir
Reaktionen: lanse, nciht und AlphaKaninchen
MountWalker schrieb:
Der Mac Pro hat in seiner Maximalkonfiguration vier Vega-II-GPUs. Mehr GPU-Leistung hat keine Workstation.

Wie definieren wir denn nun GPU Leistung? Gibt genug Workstations mit mindestens 4 GPUs und da kannst du auch die dicksten Nvidia Karten unterbringen.

HanneloreHorst schrieb:
Tendenziell wird es hier eigentlich nur ein Opfer geben und dass ist Windows und Bootcamp und somit wohl alle, die auf ihrem iMac auch hin und wieder zocken(so wie ich) oder Windows Apps benötigen.

Müsste kein opfer sein, wenn Microsoft endlich mal Windows on Arm wirklich auf die Beine gestellt bekommt und mit ähnlichem Ehrgeiz die Sache angeht. Das Projekt dümpelt aber seit Ewigkeiten vor sich hin. Wenn Microsoft das in absehbarer Zeit auf die Reihe bekommt und auch zur eigenen installation bereitstellt, dann spricht nichts gegen ein ARM basiertes Windows auf einem ARM Mac.

HanneloreHorst schrieb:
Für Apple allgemein ist es ziemlich naiv zu glauben, dass man nur durch Skalierung mit der Konkurrenz mithalten kann, so einfach skalieren sich GPUs und CPUs eben nicht, hat man ja schon allen "Multisocket" Sachen gemerkt, dass die Kommunikation untereinander zum Problem werden kann und alles was größer wird, wird nicht effektiver.

Ich weiß nicht, ich glaube bei ihrem Budget und dem knowhow haben die sich da ein paar Gedanken gemacht und Sie werden da sicher Leute sitzen haben, die deutlich mehr Ahnung von der Thematik, als wir hier alle im Forum, die dass nur von außen betrachten.

Es gibt gut skalierbare Architekturen und es gibt schlecht skalierende Architekturen. Nvidia schafft es z.B. wunderbar ihre GPU Architekturen vom ARM Soc bis hin zum High End Grafikbeschleuniger zu skalieren. Intel hat das mit den letzten Generationen der iGPU Architektur hingegen nicht geschafft, diese skaliert sich sehr schlecht. Ich denke Apple hat sich da einige Gedanken gemacht.
 
  • Gefällt mir
Reaktionen: smalM und iSight2TheBlind
Autokiller677 schrieb:
So ein Schwachsinn. Du verstehst Apples Strategie genau 0.
Naja, Schwachsinn ist eigentlich nur deine Aussage. Wenn du glaubst, dass ich mit einem kleinen Einzeiler (bzw. Dreizeiler bei der Forenschriftgröße in FullHD) die gesamte Strategie von Apple wiedergeben kann, bist du entweder blöd, oder du hältst mich für blöd. Ersteres glaube ich nicht, dafür ist dein Geschreibsel doch etwas zu hinterfragt, also danke für diese Beleidigung.

Apple hat übrigens noch NIE implementiert, was für Kunden nötig ist, sondern immer, was den Kunden am meisten Geld abnehmen kann. Das macht nicht nur Apple so, sondern fast jede Firma. Im Gegensatz zu anderen Firmen kann Apple dank ihres geschlossenen Ökosystems dabei aber durchaus auch mit der Brechstange Erfolg haben.
Autokiller677 schrieb:
Exportzeiten von Videos u.ä. (also Sachen, die im Arbeitsalltag tatsächlich eine Rolle spielen) kannst du natürlich weiterhin wunderbar vergleichen.
Du meinst, dass die "ARM-Software xy" für ein Video in gewählten Einstellungen Zeit z1 braucht, "x86-Software ab" für ein Video mit denselben Einstellungen aber Zeit z2? Klar, kann man das vergleichen, aber wozu? Ist ja nicht portierbar. Die Differenz an Rendering-Zeit kann man super mit abstrakten Begriffen wie "Zeitersparnis bei der Projekterstellung" oder "Qualitätsunterschieden" rechtfertigen. Kann ja keiner nachprüfen, das sind Argumente, die sich nicht in objektive Skalen drücken lassen.
Das ist so wie ein Benchmark zwischen Samsung Galaxy und Apple iPhone. Die Benchmark-Hersteller geben sich alle Mühe, die Benches vergleichbar zu machen, aber keine andere App legt darauf wert - teils haben die Apps mit denselben Namen ja sogar Funktionsunterschiede je nach Plattform. Du kannst die Rohleistung vergleichen, aber keine Konsequenzen ziehen. Du kriegst ja die Android-App trotzdem nicht aufs iPhone. Genau so läuft es dann mit jeder Software. Du kriegst eine ARM-Software nicht unter x86 (Windows, Linux) zum laufen, daher ist es egal, wer mehr Rohleistung bietet.

Dass Apple den ARM-Schritt über alle Geräteklassen plant, hatte ich dann auch aus anderen Kommentaren schon erkennen können. Mutig. Ich bleibe aber bei meiner Meinung: Wenn sie es schaffen, verdienen sie dafür Respekt gezollt, egal, was man von der Firma halten mag.
 
  • Gefällt mir
Reaktionen: mcasd und Foggle
iSight2TheBlind schrieb:
Und wer sagt, dass Apple dann die Leistung von vier Grafikchips in einem einzelnen Chip zusammenfassen muss?

Natürlich niemand. Nur sollte Apple halt irgendeine Lösung anbieten, die am Ende eine ähnliche Leistung bietet, wenn sie schon ankündigen, dass ihre eigenen GPUs schneller sein werden, als die bisherigen.

Naheliegenderweise würde das eine GPU mit mindestens der Leistung einer einzelnen Vega(20)-GPU bedeuten, mit der Option, mehrere davon zu koppeln, so dass das auch ein vollwertiger/besserer Ersatz für die bisher mögliche Vollausstattung des MacPro ist.

Das ist schon keine ganz kleine Hürde. Damit würde Apple auf einem Schlag in der Spitzenliga der GPU-Entwickler mitspielen. (Selbst wenn die Vega-Architektur in 2 Jahren wahrscheinlich schon nicht mehr ganz State of the Art ist.)

Ergänzung:
Ich kann mir aber wie schon gesagt auch vorstellen, dass Apple mit der Aussage "schneller und energieeffizienter" nicht pauschal jeden Fall meint, sondern vielleicht nur bestimmte Mobil-SoCs im Vergleich mit Intel-iGPUs, oder vielleicht auch besondere Anwendungsfälle, wo es nicht um "GPU-Rohleistung" geht, sondern um die Leistung von speziellen, zusätzlichen Funktionseinheiten.

Ähnliches erwarte ich auch bei den CPUs von Apple. Ich kann mir nur schwer vorstellen, dass Apple CPU-Cores aus dem Hut zaubert, die wesentlich leistungsfähiger sind, als die bisher verwendeten x86er. Aber dadurch, dass sie die ganzen SoCs selbst entwickeln, haben sie die Möglichkeit, zusätzliche, spezialisierte Funktionseinheiten zu integrieren, die die SoCs in bestimmten Anwendungsfällen schneller/besser machen könnten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tidus1979 und Foggle
Zurück
Oben