tomgit schrieb:
Jo, von KI-Entwicklung auf so einem SoC würde ich in der Tat absehen, außer man hat Debugging und lokales Compiling von Tools zum Hobby. PyTorch hat erst seit kurzem WoA Support, Tensorflow noch gar keinen, und ob die Myriade anderer Tools und Libs auf Windows ARM laufen, oder jemals laufen werden, steht in den Sternen.
Wüsste nicht, warum man sich das freiwillig antun würde.
tomgit schrieb:
hat zumindest Unity Support für WoA
Also du kannst Windows ARM als Build-Ziel festlegen, aber Unity selbst unterstützt offiziell nur Windows x64.
tomgit schrieb:
Ich meine, wenn man keine WoA-Hardware mit leistungsstarker GPU hat, woher sollen dann auch Anwendungen kommen, welche eine leistungsstarke GPU benötigen
Hey, ich sage nichts gegen den Chip per se, nur dass er aus Dev-Sicht keine offensichtlichen Anwendungsfelder hat.
Und klar, man bekommt damit sein 70B Q8 Modell theoretisch geladen - aber wofür? Für nen Chatbot wäre das Overkill, und als Teil einer Pipeline wäre die Rohleistung einer 5070 ein Bottleneck.
tomgit schrieb:
Gibt auch Leute, die nicht auf Apple Hardware setzen wollen - sogar Entwickler.
Sind diese Entwickler gerade mit uns in diesem Raum?
Ich wage mal die Behauptung, dass
jeder Entwickler gerne Apple-Hardware hätte - wenn da nicht der kleine Haken wäre, dass man dann auch Apple-Software nutzen muss. - und halt ARM.
Der Architektur-Wechsel bei Mac-Entwicklermaschinen hat durchaus für einige Kopfschmerzen gesorgt, und tut das afaik immer noch, da bspw. Docker-Images inkompatibel mit ARM sein können, und man dann die Freude hat, die über Emulation laufen zu lassen.
Oracle hat auch erst letztes Jahr den ARM-Support bekommen; Ist halt alles nicht so easy-peasy.
crustenscharbap schrieb:
Alle die, einen leisen kompakten Pc wollen mit dem man auch spielen kann. Und auch die, die gerne KI Modelle laufen lassen. Mit CUDA und z.B 128 Gig RAM sicherlich interessant. Oder Videoschnitt bzw. Workstations. Also eigentlich die ein Mac Studio nutzen.
Yosup schrieb:
Es wird die preiswerteste Möglichkeit sein, eine brauchbare schnelle GPU mit nativem CUDA-Support und mit brauchbar schnellem RAM in für Inference ausreichender Dimensionierung (zumindest für viele Anwendungszwecke) zu erwerben. Alles was darüber hinausgeht wird in einer ganz anderen Preisregion spielen, zumindest im Nvidia-Universum.
Es wird sicherlich die preiswerteste Möglichkeit, aber damit nicht unbedingt eine günstige. Eine aktuelle RTX 6000 mit 96GB VRAM startet bei 9.000€ - deren Absatz man ordentlich torpediert, wenn man da plötzlich mit einem 3.000€ 128GB SoC um die Ecke kommt.
Ich glaub also nicht, dass das ein Schnäppchen-Produkt für den heimischen Hobby-LLM-Nutzer mit gelegentlichen Gamingsessions wird, sondern von Anfang an in die Workstation Produkte mit entsprechenden Preisen eingereiht wird.