News ARM an die Börse: Nvidias ARM-Übernahme ist offiziell Geschichte

Apples CPUs sind effizienter, weil sie die beste Fertigung komplett für sich gebuch haben und über viel (teuren) Cache verfügen.
Die beste Fertigung ist sehr teuer. Apple Produkte sind sehr teuer und für Gaming unbrauchbar und dazu eine geschlossene Apple-Insel Ökosystem.
Relevanz also daher für uns fast 0.

Wenn man in Plattform mit Intel etc. konkurrieren will, müsste man das auch im Preis, genau hier würde Apple versagen. Das ist aber auch nie Ihr Ziel gewesen.

Leid tun mir die Hersteller die Versuchen ein x86 Macbook mit Intel zu bauen, aber das Ziel verfehlen und genauso viel Geld dafür verlangen.
 
  • Gefällt mir
Reaktionen: TechFA
foo_1337 schrieb:
Denn deine Zahlen gelten für die weltweite Bevölkerung. Relevant für den Support diverser Unternehmen sind jedoch zahlungswillige Kunden. Und da ist der Anteil bei macOS und dessen Ökosystem eben signifikant höher.
Behaupten kann man viel, wenn der Tag lang ist, gerade bei Unternehmen ist mcOS und Apple noch mehr in der Minderzahl wie Windows und x86 Produkte, als bei Privatkunden. Ich kenne höchst wenig Leute, die ein Apple Notebook, Unternehmensseitig besitzen.
Also untermauer mal deine Behauptung mit irgendwelchen nachvollziehbaren Fakten.
 
PHuV schrieb:
Während alle andere noch rumschwafelten, hatte Nvidia bereits eine super funktionierende Lösung in Form von G-Sync.
Ja, sehr gutes Beispiel. Denn G-Sync wär schön propritär und vernagelt und funktionierte nur wenn man nen teuren Hardwaredongle fürs Vendor-LockIn im Monitor mitkauft... dass die Leute auf sowas bei ARM keine Lust haben kann ich vollends nachvollziehen.

Allgemein hat NV auch sehr wenig für Open Source übrig und ihre GPU Treiber für Linux sind ein enstrprechender K(r)ampf. Wer weiß wie das mit den Weiterentwicklungen der ARM Plattform gelaufen wäre...
 
  • Gefällt mir
Reaktionen: Kassandra_89 und fLo547
DonL_ schrieb:
Also untermauer mal deine Behauptung mit irgendwelchen nachvollziehbaren Fakten.
Ich habe meine "Behauptung" bereits untermauert und du kannst es auf https://isapplesiliconready.com/de selbst nachvollziehen, wie schnell nach Launch z.B. Adobe oder Microsoft ihre Key Produkte auf ARM portiert haben.

DonL_ schrieb:
Ich kenne höchst wenig Leute, die ein Apple Notebook, Unternehmensseitig besitzen.
Tja, das liegt dann wohl an deiner Branche. In der Tech Branche (Cloud, DevOps & Co) ist das sehr gängig. Berühmtestes Beispiel ist wohl IBM, aber das ist dir ja sicher bekannt, oder? Falls nicht, bitteschön: https://appleinsider.com/articles/1...7000-macs-and-ios-devices-issued-to-employees
In meinen beruflichen Bereichen nutzt fast niemand Windows. Gängig sind macOS und Linux. Behaupte ich nun, dass das anderswo genauso ist? Nein, natürlich nicht.
Alternativ kannst du auch auf den üblichen Jobportalen nach "macbook" suchen. Viele moderne Unternehmen lassen ihren Mitarbeitern die Wahl, welches OS und welchen Hersteller (meist hat man in meinem Bereich die Wahl zwischen Macbook, Dell XPS oder Thinkad) man nutzen möchte. Aber allein die Tatsache, dass man das Keyword "Macbook" immer mehr in den Stellenausschreibungen sieht, spricht eine eindeutige Sprache.

DonL_ schrieb:
Behaupten kann man viel, wenn der Tag lang ist, gerade bei Unternehmen ist mcOS und Apple noch mehr in der Minderzahl wie Windows und x86 Produkte, als bei Privatkunden.
Nun, auch wenn das realistisch ist, für diese Behauptung hätte ich tatsächlich gerne einen Nachweis ;)
A propos: Ich habe vorher nie etwas von macOS in Unternehmen geschrieben. Ich vom macOS Support von Unternehmen geschrieben.
Draco Nobilis schrieb:
Apple Produkte sind sehr teuer und für Gaming unbrauchbar und dazu eine geschlossene Apple-Insel Ökosystem.
Relevanz also daher für uns fast 0.
Ja sorry, ich habe ganz vergessen, dass das hier auf GamingBase bin 🤡 Und die Behauptung, dass macOS ein geschlossenes System ist, zeigt eindeutig wieviel Erfahrung du gemacht hast. Aber Gamer, dir sei verziehen. Man kann nicht alles wissen. Aber dann sollte man halt auch einfach still sein. Nimm's nicht persönlich, aber die Verbreitung von Unwissenheit nervt einfach.

Ansonsten: Sorry für das massive Off-Topic. Ich wollte nur dem FUD, der hier mal wieder gespreaded wird. widersprechen. Falls der Beitrag im Aquarium landet, habe ich dafür vollstes Verständnis :)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Nizakh, trendliner, tidus1979 und 2 andere
Jesterfox schrieb:
Ja, sehr gutes Beispiel. Denn G-Sync wär schön propritär und vernagelt und funktionierte nur wenn man nen teuren Hardwaredongle fürs Vendor-LockIn im Monitor mitkauft... dass die Leute auf sowas bei ARM keine Lust haben kann ich vollends nachvollziehen.
Niemand wurde dazu gezwungen G-Sync zu nutzen oder zu lizensieren, aber die Hersteller hatten eine eine Möglichkeit bekommen diese Komponenten in die eigenen Produkte zu integrieren und konnten es an die Endkunden verkaufen.

Wie funktioniert ARM jetzt?

Vom Prinzip sitzt aktuell mit SoftBank eine Heuschrecke im Nacken, deren einziges Interesse ist und war möglichst viel Geld aus dem Investment rauszuholen. Technisch hat man ARM alleine weiter walten lassen und eigentlich nur brav die Hand aufgehalten um die Gebühren für die Nutzung der IPs einzukassieren.

Wie viel neues ist denn überhaupt in den letzten Jahren seitens ARM in die Technologie eingeflossen? Die Wahrheit sieht doch so aus, dass praktisch jeder größer Hersteller mit "seiner" ARM Lizenz, Produkte präsentiert hat, diese aber nicht zurückgeflossen sind. Apple M1 mag super sein, aber Nvidia kann nicht plötzlich selbst einen M1 bauen.

Angst hin oder her, die ist und war durchaus berechtigt. Der Punkt an der Geschichte ist aber, dass der Kauf von ARM seitens Nvidia nicht zwingend an den vorhandenen "vollen" Lizenzen was geändert hätte. Mit Nvidia hätte ARM aber statt einer oder mehreren Heuschrecken, tatsächlich einen Besitzer bekommen können, der großes Interesse an technischer Weiterentwicklung der ARM Designs hätte und noch eigenes Wissen, Personal und IPs mit einbringen würde.

Die Situation jetzt sieht übrigens so aus: Während ARM nun in den "freien Markt" geschossen wird, die Firma auf "Shareholder Value" getrimmt wird und alle Lizenznehmer weiter für sich ein eigenes Ding machen werden, pumpt Intel auf der anderen Seite Geld in RISC-V und bietet sich auch noch als Unterstützer und Fertiger dafür an. Für ARM selbst ist das die schlechteste Entwicklung, die man sich hätte vorstellen können.
 
  • Gefällt mir
Reaktionen: Oneplusfan, Mr.Seymour Buds, ldos und 2 andere
foo_1337 schrieb:
Und die Behauptung, dass macOS ein geschlossenes System ist
Das ist keine Behauptung.
Es ist der Inbegriff.
https://en.wikipedia.org/wiki/Closed_platform
Wenn dir Wiki zu unseriös ist dann geh zu anderen renomierten Quellen die exakt das selbe schreiben und von Apple natürlich nicht auf Unterlassung verklagt wurden.

Das Apple Produkte absolut untauglich sind einen Spiele-PC zu ersetzen ist Fakt.
Keine Ahnung was du da hinein interpretierst. Wer zufällig das macht wofür Apple Geräte gedacht sind wird glücklich.

Wer ernsthafte DGPU Leistung braucht geht übel kassieren. Wer CPU-Dauerleistung braucht geht auch leer aus oder lebt wie bei Intel mit 100W. Ansonsten gehen die nämlich zu Desktop / Thin Client / Remote. Und wer sagt man könne ja auch von seinem Apple auf remote Ressourcen zugreifen, hat einfach nur ein absurd überteuertes I/O Arbeitsgerät. Das es Raytracing gibt dürften Apple User auch kaum wissen.

Ích arbeite nicht mit Apple Geräten, korrekt.
Gönne jedem aber das was er für seine Anwendungen benötigt.
 
  • Gefällt mir
Reaktionen: DonL_
Draco Nobilis schrieb:
Das Apple Produkte absolut untauglich sind einen Spiele-PC zu ersetzen ist Fakt.

Nicht ganz, Stadia, Shadow und co laufen auch auf Apple. :p
Für Office, Videobearbeitung und co reicht der M1 dick. Vorteil ist, dass man sich massiv Strom spart.
 
Zuletzt bearbeitet von einem Moderator:
DevPandi schrieb:
Wer hätte denn Interesse daran den ARM-Markt zu zerstören? Mir würde jetzt spontan nur Intel einfallen und die würden damit nicht durchkommen.

Ansonsten? Kein anderere Teilnehmer kann daran Interesse haben den ARM-Markt zu zerstören, denn keiner der weiteren Teilnehmer ist alleine wirklich stark genug um gegen Intel und AMD dann die AArch wirklich lang genug bestehen zu lassen, dass man den x86-Bunker aufbricht.

Ich hatte ja auf @canada geantwortet und der hatte diese Formulierung benutzt.

Zerstören muss dabei aber auch nicht so gemeint sein, dass jemand ARM absichtlich komplett abschafft, sondern dass es keinen freien und sich positiv entwickelnden Markt mehr gibt und statt dessen nur noch eine propritäre Architektur, die von einem einzelnen Unternehmen kontrolliert wird. Wie gesagt sehe ich da bei vielen potentiellen Käufern ein viel größeres Risiko, als bei Nvidia. Denen fehlt dazu einfach die Marktposition und damit letztlich auch das Interesse. Die bräuchten die großen ARM-Produzenten weiterhin als Kunden.

Es gäbe aber z.B. reine Investment-Unternehmen wie Banken, Hedgefonds usw., die durchaus ein Interesse daran haben könnten, ARM aufzukaufen, kurzfristig zu melken, dann gegen die Wand zu fahren und die Reste (Patente, Markennamen usw.) dann an die jeweils Meistbietenden zu verscherbeln. Das wäre dann wirklich "Zerstörung".
Solche destruktiven "Investoren" interessieren sich nicht im Geringsten für die Zukunft der ARM-Technologie, sondern schauen nur auf kurzfristigen Profit. Schon viele Unternehmen sind an solchen Übernahmen durch Finanz-Heuschrecken kaputt gegangen.

Demgegenüber wäre ein mittelgroßes Technologieunternehmen wie Nvidia als Käufer eine viel bessere Alternative gewesen. Die hätten wenigstens etwas konstruktives mit der ARM-Technologie machen wollen.

Doch, NVIDIA hätte in dem Fall ein Monopol gehabt, nämlich auf die Weiterentwicklung der AArch als ganzes und NVIDIA hat oft genug bewiesen, dass sie sich gerne Abkapseln und ihre eigenen Märkte sichern wollen, auch mit teils unfairen Mitteln.

Sowas kann ein großer "Marktführer" machen, aber selbst als neuer Besitzer von ARM wäre Nvidia als Hersteller/Käufer von ARM-CPUs immer noch ein so kleiner Fisch gewesen, dass sie es sich schlicht nicht hätten leisten können, alle ihre großen Kunden zu vergraulen. Der Kauf von ARM wäre eine finanzielle Katastrophe für Nvidia geworden, wenn sie das versucht hätten. Das Ganze hätte sicher nicht dazu geführt, dass Nvidia den ARM-Markt übernimmt und etablierte Riesen wie Apple, Samsung und Co. einfach so verdrängt.

Nvidia hätte deshalb, nicht aus Menschenfreudlichkeit, sondern aus purem Eigennutz, keinerlei Interesse gehabt, gegen ihre eigenen Kunden zu arbeiten.
 
foo_1337 schrieb:
Golem hat btw im Alder Lake Test die Intel CPU tatsächlich mit 30W sowie den 5900HX Zen3 mit 42W betrieben um mit dem M1 Max mit 35W sowie dem M1 mit 15W zu vergleichen. Ich denke wer hier mit was den Boden aufwischt ist relativ eindeutig.
Was ich da interessant finde ist, dass sich AlderLake trotz nominell 6 Kernen mehr - und die 4 IceStorm-Kerne sind echt nicht der Bringer im M1 - und 15 W mehr, gerade mal knapp 8500 Punkte schafft, während der M1 mit 7800 dabei ist im Cinebench und letzteres kann ich auch nachvollziehen, da ich bei den letzten Tests immer zwischen 7750 - 7900 hatte.

Und selbst beim Adobe Premier Effect ist man mit 7,60 fps nicht viel langsamer als der AlderLake mit 8,00 fps. Dennoch stehen 100 % mehr Energiebedarf auf der Uhr.

Wenn man sich jetzt die "Fertigungsfortschritte" der letzten Jahre und was da an Zahlen immer so übermittelt wurde nimmt, dann würde ein AlderLake selbst im Intel 4 nicht wirklich auf Augenhöhe mit dem M1 agieren. Meist werden so ca. 20 - 30 % weniger Energie bei gleicher Leistung angedeutet, also in dem Fall würde ein hypothetischer 12900HK in Intel 4 zwischen 21 und 24 Watt benötigen.
Apple M112900HK (30W)12900HK (24 Watt) (Intel 4)12900HK (21 Watt) (Intel 4)
520 P/W283 P/W354 P/W404 P/W
0,5 fps/W0,26 fps/W0,33 fps/W0,38 fps/W
Da kommen wir dann auf folgende Effizienunterschiede:
M1 zu 12900HK (30W)24W21W
184 %147 %129 %
192 %152 %132 %
Also, selbst wenn man den Fertigungsvorteil versucht zu neigieren, sieht es für Intel aktuell nicht SO gut aus, wie manche immer gerne behaupten.

Man kann ja alles hypothetisch durchspielen, dann machen wir das eben um hier ein wenig die Zahlen auf dem Tisch zu haben. Ich ab in die Richtung schon mal geschrieben, dass man die Argumente mancher sehr schnell gegen sie wenden kann, wenn man sich die Mühe macht und das habe ich in dem Fall.

Aschenseele schrieb:
ARM und x64 haben 2 sehr unterschiedliche Zielsetzungen.
Nein, die Vorgehensweise bei ARM und x86 sind zwar unterschiedlich in der ISA - so ist die ARM ISA bereits auf "Erweiterungen" durch CO-Prozessoren ausgelegt und entsprechend gibt es auch Befele dafür.

Die Zielsetzungen bei der ISA sind für ARM und x86 gleich: Eine möglichst gute ISA für eine CPU zu sein.

Bei den auf der ISA basierenden Architekturen sieht es anders aus und da kann die Zielsetzung durchaus große Unterschiede machen, aber je nach dem, was da gewünscht wird, kann man sowoh hochgezüchtete ARM-Kerne (siehe Apple, siehe ggf. NUVIA, die jetzt bei Qualcom sind) als auch LowPower-x86-Kerne erwarten (siehe Puma oder Atom von AMD und Intel).

Beide ISAs haben heute ihren Kern und dann einige verpflichtende als auch optionale Erweiterungen, die ein Teil der Zielsetzung vorgeben und am Ende dann das eigentliche Ziel.

Dieses "ARM" hat ganz andere Ziele als "x86" ist einfach nur Mumpitz und verfälscht die Diskussion maximal.
Draco Nobilis schrieb:
Apples CPUs sind effizienter, weil sie die beste Fertigung komplett für sich gebuch haben und über viel (teuren) Cache verfügen.
Und AlderLake verfügt nicht über viel teuren Cache? AlderLake hat 1280 KiByte L2-Cache, immer noch 32 KiB L1i und 48 KiB L1d-Cache, dazu 3 MiB L3-Cache pro Kern: 4432 KiB Cache pro Kern.

FireStorm 192 KiB L1i und 128 KiB L1d sowie 3 MiB L2-Cache: 3368 KiB Cache pro Kern. Ein AlderLake-Kern hat für sich gesehen also sogar ca. 87 % mehr Cache als ein FireStorm-Kern. Und selbst wenn man den System-Cache, den sich wirklich alle Bestandteile des Systems Teilen, mit einrechnet und einfach 8 CPU-Kerne teilt - 4 FireStorm + 4 IceStorm - kommt man auch einen Gleichstand: 4432 KiB gegen 4416 KiB. 3688 KiB pro FireStorm-Kern gegen 4432 Kib, also ca. 20 % mehr. Erst wenn man den System-Cache, der sowohl CPU als auch GPU zur Verfügung steht - dreht sich das Bild etwas und dann je nach dem, wie man Rechnen will. Im M1 sind es 8 MiB System-Cache, der dann rechnerisch noch mal 512 KiB - 2 MiB dazu bringt. (CPU+GPU, CPU gesammt, nur FireStorm-Kerne).

Und den Fertigungsvorteil habe ich Oben nun mal mit einem hypothetischen Intel 4 heraus gerechnet.

Die Leistung zieht der M1 "natürlich" auch aus den Caches, aber ebenso aus 2 INT-ALUs (TigerLake/Zen3) bzw. 1 INT-ALU (GoldenCove) mehr - (6 gegen 5/4) und ein paar weiteren Sachen.

Jesterfox schrieb:
Allgemein hat NV auch sehr wenig für Open Source übrig und ihre GPU Treiber für Linux sind ein enstrprechender K(r)ampf. Wer weiß wie das mit den Weiterentwicklungen der ARM Plattform gelaufen wäre...
Das kann keiner Wissen, hier haben wir nun genug Leute, die Behaupten, dass NVIDIA das, was sie ja bisher gemacht haben, bei ARM nicht hätten machen können, andere - wie ich - sagen: Die erste Zeit vermutlich nicht, aber sie hätten es versucht, eben weil die GEschichte voll ist mit den Versprechungen, die NVIDIA gemacht hat und die alle nach und nach einkassiert wurden.
Draco Nobilis schrieb:
Das ist keine Behauptung.
Es ist der Inbegriff.
Na ja, kommt darauf an, nach welchen Kategorien man da auch geht und was man dann am Ende als "geschlossen" bezeichnen will.

Im Endeffekt hast du hier eine Seite und Definition geliefert, die man sowohl für deine Aussage nehmen kann aber eben auch gege dich wenden kann.

MacOS ist zum Beispiel als "Endnutzer" nicht mehr oder weniger geschlossen als Windows oder Linux. Ich kann beliebige Software installieren und Co, also all das was Windows und Linux auch kann.

MacOS ist aber geschlossener als Windows, weil ich MacOS nur mit Apple Hardware vertrieben wird, also ja in dem Fall ist es geschlossen.

Aber selbst Windows ist ein geschlossenes System, wenn man bedenkt, dass es eben nicht OpenSource ist: Alles eine Frage der Definition!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA, foo_1337 und (gelöschtes Mitglied)
Wird Zeit das diese Übernahmen gestoppt werden, immer größere Firmen mir der Marktmacht sind nie gut für die Kunden.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Wieso bin ich eher froh das die Übernahme gescheitert ist. Nicht wegen das Nvidia ein Monopol wird, da würden sofort die Kartelbehörden einschreiten. Mein Problem ist halt wie immer Nvidia ihre eigenes priotären Zeug ohne Diskussion und ohne freie Alternativen durchdrücken wollen. Ich erinnere mich noch bei CXL. Da hat die Bude auch versucht ihr eigenes NVLink durchzudrücken und hat da auch versucht viel Schmeicheleien ARM und andere zum mitmachen zu bewegen und nicht auf CXL zu setzten. Letzendendlich hat ARM die ignoriert. Nvidia ist dann doch der CXL beigetreten und kurz danach ARM. Ich verstehe schon den x86-Monopol aufzubrechen, aber nicht wenn die CPU in Zukunft nur noch "grüne" Schnittstellen anbietet!

Ich würde die Übernahme befürworten, wenn die Kartelbehörden Regeln aufgestellt hätten das Nvidia zwingt immer eine offene Alternative mitanzubieten (wenn verfügbar) ohne Einschränkungen oder Manipulationen(Verlangsamung). Und würde sich die nicht daran halten, dass das Unternehmen zerschlagen wird. Hier geht es nicht nur rein um die CPU, es geht auch die Schnittstellen. Es gibt ja seit diesem Jahr auch die Kombination von ARMv9 mit RDNA2 oder andere Grafikhersteller oder AI-Karten das gleiche Spiel.
 
Zuletzt bearbeitet:
PHuV schrieb:
KEINER hat hier eine Glaskugel und weiß oder wüsste genau, wie sich die Sache mit ARM unter Nvidia entwickelt hätte. Nvidia ist nicht ohne Grund ein Marktführer, und sie haben Erfolg. Das ruft natürlich immer alle Neider auf den Plan.
Doch, das ließe sich sogar ziemlich genau vorhersagen.
Wenn man sich das Firmengebaren der letzten 20 Jahre angeschaut hat, muss man nicht zur nächsten Hellseherin gehen um zu erahnen, das Nvidia nach einer gewissen Schamfrist die ARM Lizenznehmer immer mehr an die kurze Leine genommen und diverse Schnittstellen ganz im Sinne von Nvidia ausgelegt hätte.

Was da schon ziemlich klar auf der Hand liegt, ist beispielsweise die dann zunehmend fixierte Integration der Nvidia Grafik IP. Wäre doch ziemlich Genial, wenn fast alle nur noch die Nvidia Grafik nutzen (könnten) weil Nvidia die Schnittstellen in ihrem Sinne anpasst und fremde IP (Möglicherweise) zunehmend komplizierter oder evtl. garnicht zu implementieren wäre, und alle Softwareentwickler anschließend bevorzugt auf Nvidia optimieren. Oder man zwingt erstmal alle (neuen) Lizenznehmer in ihre Arm Designs ausschließlich Nvidias IP zu verwenden? Möglich ist viel.
Die Ankündigung der Übernehme kam wohl nicht von ungefähr, kurze Zeit, nachdem AMD seine Grafik IP bei Samsung untergebracht hatte.
PHuV schrieb:
Ich sag nur mal das leidliche Thema Adaptive Sync. Während alle andere noch rumschwafelten, hatte Nvidia bereits eine super funktionierende Lösung in Form von G-Sync. Die Einführung von FreeSync fast ein Jahr später mit AMD war eine absolute Katastrophe, weil genau diese Freiheit, die AMD hier fahrlässig gewährte, die Monitorhersteller diesen Standard wieder frei interpretierten, was eben zu der Konfusion am Anfang führte, und erst nach ca. 2 Jahren FS wirklich annehmbar war.

Sprich, wenn ein Marktführer einen Standard leiten und dirigieren kann, muß das erst mal nicht schlechtes sein, sondern ist - gerade bei einer Masse von weiteren Beteiligten - eher hilfreich.
Ja, wenn sie denn diesen Standard zu akzeptablen Konditionen auch dem Wettbewerb zur Verfügung gestellt hätten, wäre das sicherlich eine sehr gute Sache gewesen.
Da G-Sync aber nur mit Nvidia Karten funktioniert(e) war dies ein weiteres Puzzlesteinchen um die Kunden enger an Nvidia zu binden. ("Du willst variable Frequenzen? Gerne, -Hier Such dir eine Nvidia Karte aus" ;) )
Erst die Veröffentlichung von Freesync brachte Nvidia nach geraumer Zeit dazu ihren Standard offen(er) zu gestalten da sich die Proprietäre Auslegung zunehmend zu einem Nachteil für die Kunden entwickelte.
PHuV schrieb:
Daher, ich weiß nicht, wie das mit Nvidia und ARM geworden wäre, jedoch hatte ich das eher positiv denn negativ gesehen, es hätte auch einige gute Chancen für den Markt geboten, um z.B. den mächtigen CPU-Herstellern wie Intel und AMD eine sinnvolle Alternative zu bieten. So haben wir hier wieder Inselwerk mit zig verschiedenen CPU-Herstellern auf auf ARM Basis (Apple, Qualcomm, Amazon, Mediatek...).
Die CPU Hersteller können Chips mit Arm ISA bauen wie sie Lustig sind. Leistungsstarke Stromfresser, Schwachbrünstige Energiesparer oder etwas dazwischen, wenn sie sich nur kompatibel verhalten.
Wenn niemand außer jetzt Apple und (früher schon) Fujitsu etwas anderes als vergleichsweise Leistungsschwache Chips designt, dann doch wohl eher deswegen, weil sie keine ausreichend großen Marktchancen sehen?
Nvidia kommt ja demnächst mit "Grace" Da bin ich mal gespannt, was wir da an Power zu sehen bekommen.

Arm hat(te) sich aber in den ersten Jahren auch auf kleine, sparsame Designs konzentriert. War auch vollkommen richtig, da dieser Markt eben nicht vom Platzhirsch dominiert wurde. Jetzt könnte man da wohl schon etwas mutiger werden.

Und warum müssen denn AMD & Intel weg? Preise zu hoch?
IT Equipment war noch nie wirklich billig, außer es gab mal einen Preiskampf, der Markt war gesättigt oder es ist schlicht billiger Ramsch.
 
Jesterfox schrieb:
Ja, sehr gutes Beispiel. Denn G-Sync wär schön propritär und vernagelt und funktionierte nur wenn man nen teuren Hardwaredongle fürs Vendor-LockIn im Monitor mitkauft... dass die Leute auf sowas bei ARM keine Lust haben kann ich vollends nachvollziehen.
"Teuer" ist relativ. Aber es hat nun mal funktioniert, über 10 Monate vorher als FreeSync von AMD, und noch über ein Jahr danach. Der Preisaufschlag von 150 € damals ist in meinen Augen verschmerzbar, wenn man dadurch ein lauffähiges und stabiles System hat.
Jesterfox schrieb:
Allgemein hat NV auch sehr wenig für Open Source übrig und ihre GPU Treiber für Linux sind ein enstrprechender K(r)ampf.
AMD schützt für OpenCL auch proprietär ab. Und so wie manchmal das OpenSource System schiefläuft, weil zu viele Leute dran sind, kann ich Nvidia vollkommen verstehen, warum die hier eher abschirmen zugunsten Stabilität.
Jesterfox schrieb:
Wer weiß wie das mit den Weiterentwicklungen der ARM Plattform gelaufen wäre...
Das kann eben keiner sagen.

Dein Problem - wie vieler hier - ist, daß hier immer proprietär generell als schlecht angesehen wird. Das muß eben nicht immer schlecht laufen, am Beispiel G-Sync konnte man sehen, daß diese Strategie besser war. Und was nützen niedrigere Preise, wenn eine Schnittstelle oder ein System dadurch schlechter laufen?
 
PHuV schrieb:
Das muß eben nicht immer schlecht laufen, am Beispiel G-Sync konnte man sehen, daß diese Strategie besser war.
Ja, vor allem für NVidia, hat man ja später gesehen: "da ich jetzt nen G-Sync Monitor hab soll die neue Grafikkarte natürlich wieder eine NVidia sein." Oft genug gelesen den Satz...
 
Kassandra_89 schrieb:
Doch, das ließe sich sogar ziemlich genau vorhersagen.
Nein.
Kassandra_89 schrieb:
Wenn man sich das Firmengebaren der letzten 20 Jahre angeschaut hat, muss man nicht zur nächsten Hellseherin gehen um zu erahnen, das Nvidia nach einer gewissen Schamfrist die ARM Lizenznehmer immer mehr an die kurze Leine genommen und diverse Schnittstellen ganz im Sinne von Nvidia ausgelegt hätte.
Das ist reine Spekulation. Man kann nicht anhand von vergangenen Verhalten sagen, wie sich das später entwickeln wird. Dann könnten auch auch permament Deine Eltern kommen und fragen, warum Du heute als Erwachsener keine Benjamin Blümchen Tapeten mehr haben willst, weil Du das vor 20 Jahren als Kind so mochtest. Menschen wie Firmen wie Strategien ändern sich.
Kassandra_89 schrieb:
Die Ankündigung der Übernehme kam wohl nicht von ungefähr, kurze Zeit, nachdem AMD seine Grafik IP bei Samsung untergebracht hatte.
Warum? Du weißt es nicht. Nvidia hätte sich es bestimmt mit allen hier nicht vergraulen wollen.
Kassandra_89 schrieb:
Ja, wenn sie denn diesen Standard zu akzeptablen Konditionen auch dem Wettbewerb zur Verfügung gestellt hätten, wäre das sicherlich eine sehr gute Sache gewesen.
Da G-Sync aber nur mit Nvidia Karten funktioniert(e) war dies ein weiteres Puzzlesteinchen um die Kunden enger an Nvidia zu binden. ("Du willst variable Frequenzen? Gerne, -Hier Such dir eine Nvidia Karte aus" ;) )
Warum sollte das eine Firma tun? Sie will - wenn sie vernünftig agiert - eben auch ihre teuren Investitionen geschützt wissen, und ihre Kosten erst mal reinholen. Daher, daß was Du da forderst, ist illusorisch. Du brauchst hier nur mal schauen, wie es in anderen Bereichen so läuft, da wird viel rigoroser und fieser agiert als Nvidia jemals getan hat.
Kassandra_89 schrieb:
Erst die Veröffentlichung von Freesync brachte Nvidia nach geraumer Zeit dazu ihren Standard offen(er) zu gestalten da sich die Proprietäre Auslegung zunehmend zu einem Nachteil für die Kunden entwickelte.
Aber sie haben es dann getan, wo es sinnvoll war. Sprich, wo die Monitore erst gewisse Standard erfüllt hatten. Dem war, falls Du Dich nochmal genauer erinnerst, am Anfang, als nach 10 Monaten endlich von AMD und den Monitoren die ersten Muster auf dem Markt kamen, eine einzige Katastrophe. Vieles hat eben nicht so funktioniert, weil - wie bei offenen Standards so üblich - einige Monitorhersteller es sich auch wieder mal einfach und billig gemacht hatte, und Eigeninterpretationen des Standards verbauen, die ebenso nicht richtig funktionierten. G-Sync lief dagegen sofort und auf Anhieb ohne größerer Probleme, und hatte so ein Alleinstellungsmerkmal für ca. 2 Jahre. Selbst heute läuft G-Sync im direkten Vergleich bis heute einen Ticken flüssiger.
Kassandra_89 schrieb:
Und warum müssen denn AMD & Intel weg? Preise zu hoch?
Wo fordere ich und sage ich daß. Unabhängig davon, daß ich bis heute x86 generell für keine gute CPU-Architektur halte (da hatte selbst Intel besseres in peto), ist heute der CPU Markt ziemlich einseitig zusammengedampft. Und bei ARM macht jeder so rum, wie er lustig ist, weshalb ja Microsoft bis heute mit ARM ein allgemeines Problem hat, so daß keine vernünftige ARM Plattform zustande kommt. So hätte es eine Chance gegeben, daß dies besser werden würde und Windows endlich mal für ARM eine bessere Basis bekommt, so wie es jetzt Apple mit dem M1 und Nachfolger auf die Beine gestellt hat. Das kann aber nur eine Firma mit entsprechender Marktmacht stemmen. Microsoft selbst kann es nicht, weil sie zuviel Wind von allen Seiten bekommt, siehe das Scheitern des Windows Phone, was ich damals eine tolle Plattform fand und mir wesentlich genehmer war als das Android-Zeugs bis heute.
Kassandra_89 schrieb:
IT Equipment war noch nie wirklich billig, außer es gab mal einen Preiskampf, der Markt war gesättigt oder es ist schlicht billiger Ramsch.
Eben, da kann ich Dir nur zustimmen.
Ergänzung ()

Jesterfox schrieb:
Ja, vor allem für NVidia, hat man ja später gesehen: "da ich jetzt nen G-Sync Monitor hab soll die neue Grafikkarte natürlich wieder eine NVidia sein." Oft genug gelesen den Satz...
Ja und? Hast Du doch bei anderen Herstellern und Dingen auch? Und sorry, wenn es zuverlässig und stabil läuft, dann ist mir egal, welcher Name da draufpappt. Und heute funktioniert ja (endlich) Adaptive Sync in allen Varianten. Das Nvidia mit einigen Kosten selbst erst mal eine Kompatibilitätsliste erstellen mußte, sprich ja schon in meinen Augen Bände, schau bloß mal hier rein:
Nvidia + Freesync Erfahrungen - Teil II

Und nein, daran ist nicht Nvidia schuld, und nicht mal AMD, daß haben die Monitorhersteller selbst verbockt. Eben wie ich sagte, zuviele Köche verderben den Brei. Offene Standards und OpenSource funktioniert eben in manchen Bereiche leider nicht oder auch nicht immer. Kommerz und OpenSource als Balance funktioniert gut, aber nicht jedes für sich alleine. Ich sag nur mal das log4j2 Desaster, das kommt davon, wenn Leute das als Hobby betreiben, keiner ein gescheites QS und Audit mit diversen Vorgaben liefert. Klar, wer solls den auch bezahlen, wenn keiner so richtig dahinter steckt.
 
Zuletzt bearbeitet:
PHuV schrieb:
Aber sie haben es dann getan, wo es sinnvoll war. Sprich, wo die Monitore erst gewisse Standard erfüllt hatten. Dem war, falls Du Dich nochmal genauer erinnerst, am Anfang, als nach 10 Monaten endlich von AMD und den Monitoren die ersten Muster auf dem Markt kamen, eine einzige Katastrophe. Vieles hat eben nicht so funktioniert, weil - wie bei offenen Standards so üblich - einige Monitorhersteller es sich auch wieder mal einfach und billig gemacht hatte, und Eigeninterpretationen des Standards verbauen, die ebenso nicht richtig funktionierten. G-Sync lief dagegen sofort und auf Anhieb ohne größerer Probleme, und hatte so ein Alleinstellungsmerkmal für ca. 2 Jahre. Selbst heute läuft G-Sync im direkten Vergleich bis heute einen Ticken flüssiger.
Naja der offene Standard hatte trotzdem gewisse Mindestvorgaben und die Hersteller ignorierten diese und haben trotzdem Freesync draufgeschrieben, obwohl diese nicht konform waren und da wurde viel beschwert von Seiten der Kunden und AMD, aber trotzdem ignorierten die Hersteller das und machten es so weiter. Bei G-Sync war es schwieriger, weil da ein Nvidia-Chip im Display verbaut war! Deshalb hat dann AMD zusammen sich mit der VESA getan und als Übertragunsstandard in 2014 durchgesetzt. Aber selbst da haben viele Hersteller am Anfang einen Scheiß gebastelt, obwohl VESA-Standard (-> Freesync 2)! Leider ist das AdaptiveSync in DP2.0 immer noch nur optional!
 
Zuletzt bearbeitet:
Ebend. Und an der Stelle hat für mich Nvidia richtig gehandelt, auch wenn ich dann dafür einen Aufpreis zahlte, ich konnte mich sofort über etwas Funktionierendes freuen, während andere sich mehrfach ärgerten.

Sprich, aus Kundenperspektive, auch wenns teurer und proprietär ist, war ein besseres Erlebnis. Es kommt immer darauf an, aus welcher Perspektive man es betrachtet. Was hat man von Standards, wenn sie - warum auch immer - nicht funktionieren. Klar selektiert sich das nach einer Weile meistens auch wieder raus, aber es dauert eine Weile. Und der Dumme ist hier der Kunde, der gewissen Werbeversprechen - zu Recht - glaubt.

Daher sag ich doch, man muß jeden Fall einzeln betrachten. Generell zu sagen, das eine oder andere sei schlecht, ist in meinen Augen falsch. Und ebenso ist es blauäugig, daß keine Firma ihre Marktmacht irgendwie nutzen würde. Sorry, wer Unternehmer ist, feiert jedes Alleinstellungsmerkmal. Es sichert seinen Betrieb, seinen Gewinn, seine künftigen Investitionen und seine Arbeitsplätze im Unternehmen. Ganz schlichte und schnöde wie effiziente Arbeitsweise. Die gab es übrigens schon so seit den ersten Anfängen der industriellen Produktion aus den Änfängen der Menschheit. Da wurde immer versucht, seine Marktmacht und seine Dominanz zu schützen.
 
Zuletzt bearbeitet:
Lagertha schrieb:
Nicht ganz, Stadia, Shadow und co laufen auch auf Apple. :p
Hatte ja auch geschrieben, auf Remote Ressourcen zugreifen kann man auch mit anderen Geräten.
Als reines I/O Gerät ist es dann einfach nur absurd.
Und Strom kommt nicht aus der Steckdose. Die Dienstanbieter (Stadia/ Shadow, etc.) müssen das auch erst einmal stemmen. Aber natürlich ist es effizienter das im Rechenzentrum zu lösen als Lokal.

Wobei NVIDIA bsp. sich stark dagegen wehrt das Konsumer-Grafikkarten mehr als einen Rechner zeitgleich beschleunigen können. Da muss man dann mit VMs tricksen. Gibt ein sehr interessantes Video von Linus dazu.
 
Draco Nobilis schrieb:
Als reines I/O Gerät ist es dann einfach nur absurd.

Falsch. Wenn man es z.B. für Office oder Video- oder Fotobearbeitung nutzt, ist es kein reines IO Gerät.

Draco Nobilis schrieb:
Und Strom kommt nicht aus der Steckdose. Die Dienstanbieter (Stadia/ Shadow, etc.) müssen das auch erst einmal stemmen. Aber natürlich ist es effizienter das im Rechenzentrum zu lösen als Lokal.

Viele RZs sind bereits grün und laufen über EE.
 
Zurück
Oben