ascer schrieb:Das ist eine Datacenter GPU, welche fünfstellig kostet. Begrenzter Hardwareeinsatz ist da kein Fokus [...]
Warum sollte durch die Nutzung von FP4-Frameworks für das KI-Training kein Fokus auf den Hardwareeinsatz gelegt werden? Die geringeren Rechenanforderungen durch die Nutzung von FP4 dürften auch zu geringerem Energiebedarf bei großen KI-Farmen beitragen, was wiederum die Energieeffizienz vorteilhaft beeinflusst. Das Hauptproblem dürften nämlich auch die vorhandenen Stromnetze sein, die nicht einfach so hochskaliert werden können. Warum sonst sollte Nvidia die Leistung für FP4 um 50% anheben wollen? Am Ende landet so eine GPU in irgendeinem KI-Center und die dürften ein relatives hohes Interesse an den Gesamtbetriebskosten der Systeme haben.