Bierliebhaber schrieb:
@Kaufmannsladen
Wenn AMD bei Features hinterherhängt wird rumgeschrieen, wenn AMD die Lücke zu nVidia kleiner macht ist es auch wieder nicht recht... was denn nun?
Es ist wahrscheinlich genau umgekehrt. CUDA unter Windows war bisher doch der einzige wirkliche Grund, eine nVidia-GPU zu kaufen, alleine weil ROCm auf Windows quasi nicht existierte. Jetzt bietet AMD zumindest auf dem Papier bist auf das blödsinnige MFG eigentlich ein vergleichbares Gesamtpaket. Wie oft hat man in Kaufberatungen gelesen "nutzt du den PC für irgendwas anderes außer Zocken musst du nVidia nehmen, weil CUDA"? Wenn ROCm jetzt auch unter Windows unterstützt wird wird AMD damit WESENTLICH mehr Geld machen als ein kleines Treiberteam kostet, was die wenigen noch vorhandenen Fehler behebt.
Außerdem gehts ja um seine Grundprämisse. Er hat behauptet dass niemand drauf gewartet hat, was Schwachsinn ist, alleine hier im Thread gibts ja einige. Und er hat behauptet, dass AMD stattdessen lieber Fehler beheben sollte, was auch Schwachsinn ist, weil AMD beides PARALLEL macht, was man auch wüsste wenn man den Artikel auch nur überflogen hätte.
So ein "mimimi, ich hasse AMD weil die Features bringen auf die zwar viele gewartet haben die ICH aber nicht brauche und bastele mir meine eigene Realität um meine Abneigung zu rechtfertigen" braucht einfach niemand.
Es ist sogar noch absurder, wie die Leute hier Realität ignorieren:
Fakt ist, dass weder NVIDIA, noch AMD/ATI (GPU-Sparte) das große Geld mit Endkunden (B2C) und dem Gaming-Bereich machen.
Der Hauptgrund für CUDA war schon 2011/12 nicht der Gaming-Bereich, sondern schon damals der Scientific-Bereich, später dann zusätzlich der Data Science-Bereich, was wiederum die Grundlage für den KI-Bereich darstellt. Problem war aber, dass vor Jahren etablierte Modelle wie ChatGPT oder auch Dev-Library’s wie PyTorch faktisch nicht mit RoCm/Hip liefen, sondern fast ausschließlich CUDA-GPUs benötigten. Und zu behaupten, kaum wer bräuchte KI, lügt, dass sich die Balken biegen. Extrem viele Menschen nutzen KI-Dienste, wenn nicht lokal, dann eben extern oder nutzen fertig trainierte Modelle. Ja was glauben die Leute, auf was diese Modelle trainiert wurden? CPUs alleine definitiv nicht. Und dann gibt es weitere Anwendungen, die KI-Modelle einbinden (Bildbearbeitung, Videobearbeitung, etc.). Ja selbst in GPUs selbst nutzt man inzwischen Modelle, um Frames zu generieren oder Gaming-Szenen und -Objekte realistischer zu rendern. Dumm nur, dass lange Zeit dies hardwarebeschleunigt oder überhaupt nur mit CUDA-GPUs von den Grünen ging. Warum? EBEN GENAU DESHALB, weil AMD lange Zeit das ganze Dev-Ökosystem und das integrierte Erlebnis verpennt hatte. NVIDIA hat das Potenzial bereits seit der der ersten CUDA-Generation erkannt und bietet seither nicht nur entsprechende Treiber, sondern entsprechende fertig installierbare SDKs, DEV-Support und Integration in 3rd-Party-DEV-Projekte (PyTorch, Gaming-Engines, Grafik-Libs, etc.), die nicht mal von ihnen sind. Natürlich wandern dann all diese Möglichkeiten (Unified Shader, Direct Memory Access, Massive Core-Parallism, GPU-Hardware-Beschleunigung, Raytracing, KI/ML/DL-based Frame Generation etc.) dann auch mit der Zeit in praxisrelevante Lösungen für Scientific, 3D-Modelling, CAD, Data Science, KI und ja, auch ins Gaming. Allein die PhysiX-Reimplementierung als Software basierte später auf CUDA. HIP ist wiederum die freie Reimplementierung der CUDA-API für alle GPU-Hersteller. Es mangelte aber jahrelang an fehlenden oder unvollständigen Target-Implementierungen bestehender etablierter Tensor- und 3D-Library’s, also der Grundlage für viele Anwendungen der Multimedia-Bearbeitung, des Gaming, industrieller Bereiche und ja, auch dem Data Science/KI-Bereich. Wer hier behauptet, dass nach all diesen Sachen kein Hahn kräht, zeigt einfach absolute realitätsferne. Selbst Browser-Entwickler implementieren zunehmend Hardware-Beschleunigung und WebGPU-Shader. Was glaubt man wohl, wie das am Ende bei der Ausführung auf die GPUs kommt?
Von daher: JA, es krähen sogar nicht Wenige nach mind. einfach integrierten CUDA-artigen Features/APIs und darauf aufbauenden Lösungen und es krähen auch genügend nach konkreten einfach integrierten KI-Lösungen. Die Treiber werden auch nicht einzig und allein für Gamer gemacht, auch dann nicht wenn GPU-Hersteller wie NVIDIA Treiber als „Gaming-Driver“ oder „Studio-Driver“ schimpfen. Die GPU-Treiber von/für AMD und NVIDIA sind AUCH und inzwischen sogar primär für Business-Kunden, Entwickler oder Media-Bearbeiter und ja, auch für KI-User entwickelt und nicht nur für B2C-Gamer. Es ist also nur folgerichtig, wenn AMD hier endlich zunehmend zu NVIDIA gleichzieht oder zumindest aufrückt, erst recht, wenn der Markt des Data Science, diverser Industrien und KI inzwischen mit weitem Abstand den Gaming-Markt monetär und von der Anwenderzahl her seit JAHREN abgehängt hat, Tendenz weiter zunehmend.