News Bolt Graphics: Das große Zeus-GPU-Versprechen hat leichte Verspätung

Ich wollte ja noch Tachyum reinbringen .. aber war selbst mir zu blöd dann :D
 
  • Gefällt mir
Reaktionen: MichaG, TechFA und konkretor
Die 2025er Edition des beliebten Klassikers: Geld einsammeln mit haltlosen Versprechen bei von jeder technischen Sachkenntnis befreiten Investoren.
 
Vielleicht sollten wir uns mal daran zurück Besinnen, wie früher die Grundsteine für moderne Softwarearchitekturen begründet wurden. Da waren auch nicht hunderte Ingenieure von Anfang an dabei. Wenn die Mitarbeiter fähig sind, warum nicht? Am problematischsten sehe ich da eher die (historisch) gewachsenen Software-Ökosysteme. An diesen scheitern doch die meisten Start-Ups und Debugging kostet richtig viel Zeit...
 
So große Versprechen können niemals eingehalten werden, wann ist das je passiert?
Ich rieche leichten Scamgeruch...
 
Bright0001 schrieb:
und dass erdrutschartige Sprünge auch heute noch möglich sind, haben wir ja vor einer Weile mit der Einführung von Apples M-Chips gesehen.
Meh. Mit drei Nodes Vorsprung und extremen Herstellungskosten weil Chipfläche für die Zielgruppe nicht wichtig ist. 1:1 sehe ich keine Sprung.
 
Na ja, vor Jahren kam mal 3DFX mit Voodoo 3D Zusatzkarten und dann kam dies neue, unbekannte Unternehmen mit ihren Riva Karten: nvidia.
Wär ja mal interessant, wenn jetzt wieder ein Newcomer mit Pathtracing Kartne kommen würde.
 
sikarr schrieb:
du weist aber auch nicht wieviel von Larrabee in Arc bzw. der Xe Architectur gelandet ist, immerhin war vorher zumindest etwas Chipknowhow da.

Larrabee waren doch einfach sauviele Pentium 1 in aktueller Strukturgröße aneinandergeschnallt.
Wenn älteres GPU-Knowhow für die aktuellen Grafikchips von Intel relevant war, dann eher AMD Vega.
Immerhin wechselte Raja Koduri Ende 2017 von AMD zu Intel, war dort für die Entwicklung von gamingtauglichen Grafikchips zuständig und zeitgleich veröffentliche Intel auch Prozessoren die eine AMD "iGPU" auf Vega-Basis verwendeten!
Da ist es naheliegend, dass Xe eher aus Vega entstanden ist als aus Larrabee.
 
Wäre es nicht beim derzeitigen Markt eine gute Idee sich Richtung AI-Leistung zu richten? Da ist das meiste Geld zu machen. Ich meine, mich wundert es, dass sie dieses Gebiet explizit nicht erwähnt haben...
 
iGameKudan schrieb:
So sehr die M-Prozessoren 2020 eingeschlagen sind wie ne Bombe, so sehr hat sich mit der Zeit herauskristallisiert, dass ein enorm großer Teil des Wow-Effekts einfach auf wesentlich modernere Fertigungsprozesse zurückzuführen war, wie sie zu jener Zeit bei der Konkurrenz genutzt wurden.
wern001 schrieb:
So der Hit sind die Apple M-Chips in punkto Leistung auch nicht.
Botcruscher schrieb:
Meh. Mit drei Nodes Vorsprung und extremen Herstellungskosten weil Chipfläche für die Zielgruppe nicht wichtig ist. 1:1 sehe ich keine Sprung.
Dann schmeißen wir das M-Chip Beispiel weg, und nehme eins, das eigentlich viel offensichtlicher ist: 5090 vs A100. Letztere liefert rechnerisch rund x6 TFLOPS in FP64 - und in einem entsprechenden Last-Szenario, plus custom Renderer, plus ne Wagenladung Cache pro Core, sind deren 2,5x pro Chip eigentlich auch gar nicht mehr so unrealistisch. :P

Hat wohl seinen Grund, dass sie den Vergleich zu Consumer- und keinen Workstation-GPUs gezogen haben. :D

DJMadMax schrieb:
Außerdem: das Entwickeln einer komplett neuen Grafikkarte plus Render-Pipeline aus dem Nichts heraus kostet keine Millionen... es kostet MILLIARDEN! Wer genau soll denn Backer hinter diesem Unternehmen sein? Auch hierzu findet man keinerlei Infos.
Wieso sollte die Entwicklung einer GPU Milliarden kosten? Eine Milliarde ist das Äquivalent von 1000 Mitarbeitern x 100k Jahresgehalt x 10/20/30 Jahre, je nachdem, wie viele Milliarden es denn nun sind.

In 2008 hat eine Firma wie Imagination (PowerVR) mit deren 500 Mitarbeitern und ~60 Mio. jährlichen Einkünften ja auch ein eigenes GPU-Design an Apple verkauft bekommen - und da hab ich ja doch große Zweifel, dass sie bis dahin auch nur 1 Mrd. kumulative Einkünfte über die gesamte Firmengeschichte hinweg hatten. :p
 
Wahrscheinlich alles nur heiße Luft...naja..Ambitionen darf man gerne haben...aber man muss auch realistisch sein..das wird nichts...
 
Ich hab schon viele Sterne der Hoffnung am Horizont verglühen sehen. Ich denke das wird hier genau so laufen aber ich lasse mich gerne eines besseren belehren.
 
Was Nvidia und AMD und Intel nicht tun wird Bolt tun und das würde alleine mit 384 GB Grafikkarte alle in die Schranken weisen.
 
sikarr schrieb:
du weist aber auch nicht wieviel von Larrabee in Arc bzw. der Xe Architectur gelandet ist, immerhin war vorher zumindest etwas Chipknowhow da.
Nichts! Weil Larrabee ja eine GPU basierend auf x86-Prozessorkernen sein sollte. Beim Lesen merkt man schon wie blöd die Idee war...
 
Ergaben sie offensichtlich nicht, sonst wäre das Ding ja auch erschienen.

Das war doch schon bei der Entwicklung eine Totgeburt
 
Ich finde es gut, dass Computerbase den Artikel kritisch angeht, und nicht so ambitioniert wie gewisse Youtube-Kanäle.

Ich bezweifle, dass Bolt eine Revolution herbeiführen wird.
Es wird warscheinlich daran scheitern dass die Karten zu teuer sind, zu viel Strom verbrauchen oder nicht mit haushaltsüblichen Gaming-PCs kompatibel sein werden.

Ich denke, dass Nvidia und Amd im Bereich Unterhaltungs-3D noch eine ganze Zeit lang die Oberhand behalten werden,und auch dass die Revolution einen neuen Weg brauchen wird, der von der üblichen Steckkarte abweichen wird.

Aber ich kann mich natürlich irren! Und hoffe es auch insgeheim.
 
Zurück
Oben