News „Angst“ und „GPU-Kartell“: Nvidia soll Dominanz im AI-Geschäft missbrauchen

nach der geschichte mit EVGA ist nvidia schon einiges zuzutrauen

ähnliche vorgänge scheinen in der technikwelt aber nicht unüblich zu sein. samsung hat die preise künstlich für speicher angehoben, indem man die produktion zurückfuhr.
 
Schon Irgendwie passend zum Thema diesen Artikel vom 5.3 gefunden.

"NVIDIA hat die Verwendung von CUDA-Bibliotheken auf anderen Plattformen wie AMD und Intel verboten, da das Unternehmen mit der EULA von CUDA eine neue Warnung hinzufügt. NVIDIA zielt mit seiner überarbeiteten Richtlinie auf ZLUDA und andere CUDA-abhängige Lösungen ab und behindert letztendlich die Code-Portierung"

https://wccftech.com/nvidia-halts-u...C09KCcjVrrNcVae5U3bf34T_x73wqN1Tft9pcj195iFR4

"Es ist Ihnen nicht gestattet, Teile der mithilfe von Softwareelementen generierten Ausgabe zurückzuentwickeln, zu dekompilieren oder zu disassemblieren, um solche Ausgabeartefakte auf eine Nicht-NVIDIA-Plattform zu übersetzen."

Wenn man das so liest, könnte man gewillt sein dem Vorwurf des "GPU Kartells" mehr glauben zu schenken.

Anders herum können sie mit ihrer Softwaretechnologie machen was Sie wollen.
 
EDIT: Vor-Poster hat die News schon angegeben. ;)

@Andy Was Nvidias Zementierung ihrer Vormachtstellung betrifft, vielleicht auch mal von Relevanz:

Nvidia cracks down on Cuda reverse-engineering...

Man müsste erörtern, inwiefern dass den Wettberweb behindert bzw. Nvidias Vormachtstellung mithilfe des CUDA-Ökosystems weiter ausbaut. Nicht umsonst würde Nvidia ihre teuren Anwälte damit beschäftigen, so einen Zusatz zu verfassen.

Vielleicht erfährt man später mal, welche Implikationen diese neue Nutzungsbedingungen für AMDs und Intels Bemühungen haben. Beide Unternehmen werkeln schon seit Jahren daran, CUDA mit einem Translation Layer auf ihren GPUs vernünftig lauffähig zu machen.

Der AI-GPU Markt beschert massive Rendite, da will sich Nvidia bestimmt nicht die Butter vom Brot nehmen lassen in der nahen Zukunft, sollten AMD/Intel es schaffen, mit wenig Leistungsverlust gegenüber den Nvidia-GPUs das CUDA-Feature nutzen zu können, welches in allen relevanten Anwendungen zur Berechnungsbeschleunigung implementiert ist.
 
  • Gefällt mir
Reaktionen: Nooblander
Zurück
Oben