ETI1120 schrieb:
und dass sie wegzulassen mehr Spielraum bei der Preisgestaltung der anderen GPUs gibt.
Sind halt die Kosten für die Simulation, dann die Maskenerstellung und so weiter.
Ich glaube, dass AMD Highend erst wieder in Angriff nehmen wird, wenn sie ihr Chiplet-Design auf GPU-Ebene gefunden haben und das funktioniert und sie damit quasi die Chipgröße beliebig skaliere können.
ETI1120 schrieb:
Ob AMD jetzt 2 % oder 20 % Marktanteil hat, der Ansatz in der Spitze ist dünn. Nvidia hat dafür gesorgt dass die 4090 und 5090 für AMD unangreifbar waren. Das wird bei der 6090 uch nicht andres sein
Das ist, wenn man sich es Rückblickend ansieht auch richtig. Nvidia ist bei AD102 und nun auch beim GB202 "All-In" gegangen. Beide Chips kratzen an dem, was aktuell auf Wafer-Ebene möglich ist.
Bei einem GR102/GR202 RU102/RU202 bin ich mir nicht so sicher, ob Nvidia wieder "All-In" geht, die Frage ist allerdings auch, ob sie All-In gehen müssen.
ETI1120 schrieb:
Mal eine Frage, was soll so eine große Grafikkarte im Cloudgaming bringen?
Wenn entsprechende Virtualisierung Möglichkeiten geben sind, kann man mit so einer großen Karte schon mehrere "Playstations" und "XBox"-System simulieren. Wir haben bei uns o ein System - in dem Fall aber mit einer RTX 6000 Blackwell - auf dem wir für unsere Entwickler "kleinere" Grafikkarten dann simulieren und die damit Remote arbeiten können. Die haben alle dann grob vereinfacht eine RTX 5070 mit 24 GB VRAM.
ETI1120 schrieb:
Das siehst Du zu schwarz. AMD kann aus vielen Gründen diesen Markt nicht aufgeben.
Natürlich male ich da etwas schwärzer. Gleichzeitig muss man sich allerdings mit der Zeit auch dieser Frage stellen und gerade die Investoren werden mit dieser Zeit diese Frage stellen.
AMD braucht natürlich weiterhin die Hard- und Softwareentwickler für neue GPU-Architekturen und sie können da auch nicht stehen bleiben. Man sieht ja, dass der Handheldmarkt für sie durchaus Früchte abwirft. Genauso können Sie nicht bei der Software stehen bleiben, FSR und Co bleiben auch dann noch wichtig. Es gibt sehr viele Menschen die nur mit iGPU spielen.
Die Frage ist halt nur, ob es für AMD nicht ab einem gewissen Zeitpunkt sinnvoller sein könnte, sich eben auf iGPU und HPC-GPU zu fokussieren.
ETI1120 schrieb:
Allerdings hat AMD in der vergangenheit viel zu wenig aus ihren Konsolendeals herausgeholt. Der Fehler war dass AMD nur die Hardwaregeliefert hat.
AMD hat einfach mal quasi seit ihrer Gründung den Softwarestack vollkommen vernachlässig und sich immer gedacht, dass die Hardware es richtet. ATi wiederum hatte zwar sich bei Software bemüht, nur konnte sich vermutlich gegen den AMD-Filz nicht durchsetzen, dazu dann die finanziellen Probleme durch die Übernahme, entsprechend hat man ja alls, was damals als HPC-Schnittstelle kam, wieder fallen gelassen oder stiefmütterlich behandelt und dann gedacht OpenCL regelt das.
Heute kann Nvidia wohl froh sein, dass der Kauf durch AMD quasi nicht geklappt hat. Wobei es interessant wäre, wie sich ATi von da an weiter entwickelt hätte. Auf der anderen Seite, damals hätte bereits der Software- und Treiber-Ansatz bei AMD damit Einzug gehalten, was sicher auch spannend gewesen wäre bei den CPUs zu sehen.
ETI1120 schrieb:
Ohne eine Starke Position auf dem Client haben weder AMD noch Intel eine Chance auf Dauer im HPC oder DC AI Markt mitzumischen.
Die Frage ist an der Stelle, benötigt AMD und Intel wirklich ein Standfuß im AIB-Markt mit ihren Grafikkarten, oder reicht es, wenn sie starke iGPUs haben, die entsprechend weitgehend für alles reichen, auch für das Entwicklen von "Demoversionen".
Aktuell empfehle ich oft Nvdia Grafikkarten in Notebooks für Freunde, Bekannte und deren Nachwuchs im Studium teilweise, weil es mit dem CUDA-Softwarestack unter Windows und Linux oft einfacher ist. Intel arbeitet - ebenso wie AMD - jedoch stark daran auch unter ihrer iGPU und nun NPU die Softwarestacks zum laufen zu bringen. Wenn die Stacks irgendwann quasi wirklich Plug-and-Play sind, könnten viele Studenten, Semi-Pro-Entwickler und Co auch zu den iGPU und NPUs greifen für die ersten Schritte und müsste nicht mehr eine CUDA fähige Grafikkarte einbauen.
Wenn dann AMD und Intel - und das deutet sich ja bei Xe3 an und nun auch ein Stückweit bei AT-3 und AT-4 - genug Rechenleistung in die iGPU einbetten, könnte das vollkommen ausreichen. Klar, das ist jetzt stark vereinfacht, nur man sieht ja auch, wie viele Leute auf einem Steamdeck und Co Spaß haben könen.
Mal abwarten, was da alles kommt.