@Quidproquo77
Du magst sicherlich Recht haben, bezüglich der Profi Karten. Allerdings wird es sicherlich nicht wenige Entwickler, hobbiisten oder semi Profis geben, die sich keine 10000 Euro Karte leisten wollen oder können.
Zumal 8gb vram Speicher Chips quasi Geschenkt sind, zumindest gddr6, am Spot markt
Fände ich für meine deep learning workloads auch schwierig zu rechtfertigen, auch wenn das
40-80gb vram, haben will Gefühl natürlich immer präsent ist
Aber davon ab, ist glaube ich genau das auch ein Grund für die aktuelle Produkt Strategie, das Entfernen von sli/NV Link, der Speicher Krüppel Thematik, und der winzigen Bus Geschwindigkeiten.
4070/5070 völlig unbrauchbar mit 12gb.
4060/5060 16gb, eigentlich verdammt gut, aber leider auch wieder nur ein 128bit interface/ 288gb/s, als wären wir wieder in gtx900/8700mobile Zeiten...
Vermutlich, eben genau für diese Computer Lücke und dem upselling.
Entfernung von sli/nvlink, seit der 3000er Serie... Macht fürs gaming Sinn, ruckelei usw. Im Schatten von deep learning... Sieht das aber wieder anders aus, man hätte sich für
1000€ (2x4060 16gb), eine billige Lösung basteln können für verschiedene deep l loads.
Feature komplett weg gefallen, es sei denn man nimmt eine xx90
Insgesamt alles eine sehr bedauerliche Entwicklung, nicht aufgrund der Preise oder meiner meckerei, sondern der einfachen Prämisse, dass die monetären einstiegshürden um sich mit diesem spannenden Feld ai, zu befassen, ziemlich hoch liegen und das ist das wirklich bedauerliche.
Dazu kommt noch AMD, die einfach kein Geld verdienen wollen und rockm als Cuda alternative, so grotesk umsetzen, wie deren Marketing Abteilung seit Jahren die Produkte 😁