Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Bolt Graphics: Das große Zeus-GPU-Versprechen hat leichte Verspätung
- Ersteller MichaG
- Erstellt am
- Zur News: Bolt Graphics: Das große Zeus-GPU-Versprechen hat leichte Verspätung
Werderwunder
Ensign
- Registriert
- Aug. 2016
- Beiträge
- 229
Die 2025er Edition des beliebten Klassikers: Geld einsammeln mit haltlosen Versprechen bei von jeder technischen Sachkenntnis befreiten Investoren.
Vielleicht sollten wir uns mal daran zurück Besinnen, wie früher die Grundsteine für moderne Softwarearchitekturen begründet wurden. Da waren auch nicht hunderte Ingenieure von Anfang an dabei. Wenn die Mitarbeiter fähig sind, warum nicht? Am problematischsten sehe ich da eher die (historisch) gewachsenen Software-Ökosysteme. An diesen scheitern doch die meisten Start-Ups und Debugging kostet richtig viel Zeit...
Botcruscher
Commodore
- Registriert
- Aug. 2005
- Beiträge
- 4.860
Meh. Mit drei Nodes Vorsprung und extremen Herstellungskosten weil Chipfläche für die Zielgruppe nicht wichtig ist. 1:1 sehe ich keine Sprung.Bright0001 schrieb:und dass erdrutschartige Sprünge auch heute noch möglich sind, haben wir ja vor einer Weile mit der Einführung von Apples M-Chips gesehen.
iSight2TheBlind
Fleet Admiral
- Registriert
- März 2014
- Beiträge
- 12.115
sikarr schrieb:du weist aber auch nicht wieviel von Larrabee in Arc bzw. der Xe Architectur gelandet ist, immerhin war vorher zumindest etwas Chipknowhow da.
Larrabee waren doch einfach sauviele Pentium 1 in aktueller Strukturgröße aneinandergeschnallt.
Wenn älteres GPU-Knowhow für die aktuellen Grafikchips von Intel relevant war, dann eher AMD Vega.
Immerhin wechselte Raja Koduri Ende 2017 von AMD zu Intel, war dort für die Entwicklung von gamingtauglichen Grafikchips zuständig und zeitgleich veröffentliche Intel auch Prozessoren die eine AMD "iGPU" auf Vega-Basis verwendeten!
Da ist es naheliegend, dass Xe eher aus Vega entstanden ist als aus Larrabee.
Mithrandil
Ensign
- Registriert
- März 2005
- Beiträge
- 133
Wäre es nicht beim derzeitigen Markt eine gute Idee sich Richtung AI-Leistung zu richten? Da ist das meiste Geld zu machen. Ich meine, mich wundert es, dass sie dieses Gebiet explizit nicht erwähnt haben...
Bright0001
Captain
- Registriert
- Juli 2011
- Beiträge
- 3.226
iGameKudan schrieb:So sehr die M-Prozessoren 2020 eingeschlagen sind wie ne Bombe, so sehr hat sich mit der Zeit herauskristallisiert, dass ein enorm großer Teil des Wow-Effekts einfach auf wesentlich modernere Fertigungsprozesse zurückzuführen war, wie sie zu jener Zeit bei der Konkurrenz genutzt wurden.
wern001 schrieb:So der Hit sind die Apple M-Chips in punkto Leistung auch nicht.
Dann schmeißen wir das M-Chip Beispiel weg, und nehme eins, das eigentlich viel offensichtlicher ist: 5090 vs A100. Letztere liefert rechnerisch rund x6 TFLOPS in FP64 - und in einem entsprechenden Last-Szenario, plus custom Renderer, plus ne Wagenladung Cache pro Core, sind deren 2,5x pro Chip eigentlich auch gar nicht mehr so unrealistisch.Botcruscher schrieb:Meh. Mit drei Nodes Vorsprung und extremen Herstellungskosten weil Chipfläche für die Zielgruppe nicht wichtig ist. 1:1 sehe ich keine Sprung.
Hat wohl seinen Grund, dass sie den Vergleich zu Consumer- und keinen Workstation-GPUs gezogen haben.
Wieso sollte die Entwicklung einer GPU Milliarden kosten? Eine Milliarde ist das Äquivalent von 1000 Mitarbeitern x 100k Jahresgehalt x 10/20/30 Jahre, je nachdem, wie viele Milliarden es denn nun sind.DJMadMax schrieb:Außerdem: das Entwickeln einer komplett neuen Grafikkarte plus Render-Pipeline aus dem Nichts heraus kostet keine Millionen... es kostet MILLIARDEN! Wer genau soll denn Backer hinter diesem Unternehmen sein? Auch hierzu findet man keinerlei Infos.
In 2008 hat eine Firma wie Imagination (PowerVR) mit deren 500 Mitarbeitern und ~60 Mio. jährlichen Einkünften ja auch ein eigenes GPU-Design an Apple verkauft bekommen - und da hab ich ja doch große Zweifel, dass sie bis dahin auch nur 1 Mrd. kumulative Einkünfte über die gesamte Firmengeschichte hinweg hatten.
TilTuesday
Ensign
- Registriert
- Juni 2022
- Beiträge
- 237
Ich hab schon viele Sterne der Hoffnung am Horizont verglühen sehen. Ich denke das wird hier genau so laufen aber ich lasse mich gerne eines besseren belehren.
Nichts! Weil Larrabee ja eine GPU basierend auf x86-Prozessorkernen sein sollte. Beim Lesen merkt man schon wie blöd die Idee war...sikarr schrieb:du weist aber auch nicht wieviel von Larrabee in Arc bzw. der Xe Architectur gelandet ist, immerhin war vorher zumindest etwas Chipknowhow da.
iSight2TheBlind
Fleet Admiral
- Registriert
- März 2014
- Beiträge
- 12.115
Cleaner57
Lieutenant
- Registriert
- Apr. 2004
- Beiträge
- 696
Ich finde es gut, dass Computerbase den Artikel kritisch angeht, und nicht so ambitioniert wie gewisse Youtube-Kanäle.
Ich bezweifle, dass Bolt eine Revolution herbeiführen wird.
Es wird warscheinlich daran scheitern dass die Karten zu teuer sind, zu viel Strom verbrauchen oder nicht mit haushaltsüblichen Gaming-PCs kompatibel sein werden.
Ich denke, dass Nvidia und Amd im Bereich Unterhaltungs-3D noch eine ganze Zeit lang die Oberhand behalten werden,und auch dass die Revolution einen neuen Weg brauchen wird, der von der üblichen Steckkarte abweichen wird.
Aber ich kann mich natürlich irren! Und hoffe es auch insgeheim.
Ich bezweifle, dass Bolt eine Revolution herbeiführen wird.
Es wird warscheinlich daran scheitern dass die Karten zu teuer sind, zu viel Strom verbrauchen oder nicht mit haushaltsüblichen Gaming-PCs kompatibel sein werden.
Ich denke, dass Nvidia und Amd im Bereich Unterhaltungs-3D noch eine ganze Zeit lang die Oberhand behalten werden,und auch dass die Revolution einen neuen Weg brauchen wird, der von der üblichen Steckkarte abweichen wird.
Aber ich kann mich natürlich irren! Und hoffe es auch insgeheim.