News Bolt Graphics: Das große Zeus-GPU-Versprechen hat leichte Verspätung

wern001 schrieb:
dieser Effizienzspung ist mit aktueller Chipfertigungstechnik gar nicht möglich!
Quelle?

Um das beurteilen zu können, bräuchten wir die (absolut) perfekte Architektur - und dass erdrutschartige Sprünge auch heute noch möglich sind, haben wir ja vor einer Weile mit der Einführung von Apples M-Chips gesehen.

Was aber nicht heißen soll, dass ich denen auch nur ein Wort abkaufe. :D

2025-08-05_00h19_14.png


In welchem Szenario ist eine 5090 bitte doppelt so schnell wie eine 4090? :lol:
 
Die Ideen sind sicherlich super, die Umsetzung wird wohl bei Tachyum CPU enden

@MichaG sonst ist doch Volker für Vapoware Artikel zuständig, will er nicht noch ein zweites Thema haben :D
 
  • Gefällt mir
Reaktionen: TechFA
Bright0001 schrieb:
Um das beurteilen zu können, bräuchten wir die (absolut) perfekte Architektur - und dass erdrutschartige Sprünge auch heute noch möglich sind, haben wir ja vor einer Weile mit der Einführung von Apples M-Chips gesehen.
So sehr die M-Prozessoren 2020 eingeschlagen sind wie ne Bombe, so sehr hat sich mit der Zeit herauskristallisiert, dass ein enorm großer Teil des Wow-Effekts einfach auf wesentlich modernere Fertigungsprozesse zurückzuführen war, wie sie zu jener Zeit bei der Konkurrenz genutzt wurden. Und halt die Tatsache, dass Apple halt ihre eigene Software bestens auf ihre eigene Hardware anpassen kann. Noch besser wie zu Intel-Zeiten.

Integrierter DRAM auf dem Package und hochspezialisierte integrierte Hardwarebeschleunigung für bestimmte Anwendungsfälle taten (und tun) ihr Übriges - mit den einhergehenden Pferdefüßen.
 
  • Gefällt mir
Reaktionen: nille02, PascalFtr und Corpus Delicti
Das Konzept macht auf dem Papier schon wenig Sinn. Der DDR5 ist nur mit 96 GB/s angebunden. Das ist in der gleichen Größenordnung wie das PCIe Interface (64 GB/s). Bis das Teil als Produkt verfügbar ist, ist die Konkurrenz bei PCIe 6 und hat mehrere TB Speicher in der Bandbreitenregion verfügbar.

Warum nicht 512 bit LPDDR5X via SOCAMM? Dann hat man 256 GB mit 546 GB/s. Ist immer noch lahm im Vergleich zu GDDR7 oder HBM, aber für manche Usecases sicher ausreichend.
 
  • Gefällt mir
Reaktionen: konkretor und sikarr
Mit solchen Veröffentlichungen wollen Sie Publicity und Marketing.
Das reicht fast immer um neue Investoren zu bekommen.

Irgendwann verläuft das Geschäft im Sand und die Chefs sind verschwunden mit den Geldern.
Im besten Fall wird tatsächlich entwickelt und wenn es vielversprechend ist und mit Patenten gesichert, findet sich einer der großen und kauft alles.
Ende.
 
Bright0001 schrieb:
Quelle?

Um das beurteilen zu können, bräuchten wir die (absolut) perfekte Architektur - und dass erdrutschartige Sprünge auch heute noch möglich sind, haben wir ja vor einer Weile mit der Einführung von Apples M-Chips gesehen.

Selbst die Aussage das "mehr Leistung mit 1/4 Stromverbrauch" möglich sind ist halte ich nach aktuellem Stand der Technik weder heute noch in den nächsten paar Jahren für möglich. Die letzte echte großartige Weiterentwicklung in der Chipfertigung war als man bei den Leiterbahnen auf dem Chip Kupfer statt Aluminium verwenden konnte. Seit dem wurde es nur noch kleiner.... Man bräuchte ein Metall das Strom mit weniger Wiederstand als Kupfer leitet und Transistoren die noch weniger Strom in Wärme umwandeln.
So der Hit sind die Apple M-Chips in punkto Leistung auch nicht. Durch das alles auf einem Chip hat einiges an Vorteilen aber auch viele Nachteile. z.B GPU kann auf kompletten RAM zugreifen. Was bei LLM von großem Vorteil ist. In punkto reiner Rechenleistung sind sie wieder weit abgeschlagen.
 
Auch wenn es nur Sarkasmus ist der mir einfällt:

Reis! Säcke mit Reis zu verkaufen! Kommen sie und sehen sie die Qualität! REIS! SÄCKE MIT REIS! Oh, da ist einer umgefallen... Egal... REIS!
 
Restart001 schrieb:
Ca. 50% Mehrleistung bei DP (Double Precision) lohnt das Warten nicht, sowieso ist sicher noch nicht der Preis fix.
Uff, das liest sich richtig richtig fies :-D
 
Ich find's ja fantastisch, dass die Rendering Performance gegenüber AMD und Nvidia mit anderer Basis-Hardware ermittelt wurde. Während beide erstgenannten Systeme mit AMD Ryzen 9 5950X und 128 GB DDR4-2133 laufen durften, bekommt das eigene Stück Hardware einen Ryzen 9 7900X sowie 3600er DDR5 beiseite gestellt. Auch wird plötzlich unter Linux / Ubuntu gebencht, wohlmöglich noch mit speziell angepasstem Kernel? Nett!

1754372297538.png


"Normalerweise" - und damit sind unsere typischen Gaming-Szenarien gemeint - sollte dieser Hardwareunterschied zumindest kein massiver Gamechanger sein. Ich bin mir jedoch sicher, dass es durchaus spezielle Workloads gibt, in denen allein der Unterschied im RAM-Speed oder auch spezielle CPU-Funktionen, die auf dem 5950X noch nicht vorhanden sind, auf dem 7900X jedoch schon, einen massiven Unterschied in Sachen Rendergeschwindigkeit bringen können, die sich ganz gewiss auch auf die GPU-Performance auswirken.

Also: WENN schon Vergleiche mit einem offensichtlich noch sehr imaginären Produkt gezogen werden, dann doch bitte wenigstens unter gleichen Bedingungen.

Außerdem: das Entwickeln einer komplett neuen Grafikkarte plus Render-Pipeline aus dem Nichts heraus kostet keine Millionen... es kostet MILLIARDEN! Wer genau soll denn Backer hinter diesem Unternehmen sein? Auch hierzu findet man keinerlei Infos.

Eine weitere, ganz tolle Red Flag für mich ist, dass man schon "Bolt Merch" kaufen kann, unter anderem T-Shirts für 43,95 Euro - yay.

Mir ist das Unternehmen bereits jetzt maximal unsympatisch.
 
  • Gefällt mir
Reaktionen: TechFA, Viper816, McTheRipper und eine weitere Person
TechFA schrieb:
Mein erster Eindruck war, daß da Raja Koduri dahintersteckt.
Das passt wirklich nicht. Ja, Vega und Intel waren keine Erfolge, aber seine Historie und damit auch Fähigkeiten sind nachlesbar positiv.
 
Da müssen sie aber noch viel viel Geld verdienen bis sie an den 156 Milliarden Reichtum von Lederjacke rankommen:

Huang Nvidia Forbes.png
 
Selbst wenn das Teil kommen sollte.... 😅

Die Treiber müssen ja auch gut sein und da sieht man ja bei Intel, dass das nicht über Nacht geschieht 🙈

Naja, ich lasse das Popkorn mal draußen 😁
 
Das ist das erste Mal, dass ich von diesem Unternehmen überhaupt höre.

Mal abwarten, was da folgt.

Wenn sie es nur mit AMD und Intel aufnehmen können, wäre das schon mal ein big win für alle, sofern die Preise human sind.
 
Warum nicht, wenn man sich auf bestimmte Bereich spezialisiert, dann können die natürlich um einiges schneller sein.
Aber billig wird der Spaß nicht.
nvidia hat, dank seiner Preise, aber einen großes Feld offen für Konkurrenten gelassen.
 
Da fällt mir nur zu ein:
Die dummen Investoren die da investieren, habe es nicht anders verdient!
🤣🤣🤣🤦‍♂️🤦‍♂️🤣🤣🤣
Aber davon gibt es in den USofA ja anscheinend genügend, warum so was immer wieder kommt.😏🙄
Gier frisst... ihr wisst schon.
 
Ein paar Sekunden Videorendering und ein paar unhaltbare Versprechen, schon landet man weltweit in tech news Artikel
 
Ich habe nirgendwo geschrieben, das es nur Amerikanische Investoren sind!
Wenn Ausländische Investoren auch auf so einen Bullshit aus den USA reinfallen, dann trifft wieder der Satz mit Gier frisst Hirn zu.😏
 
Zurück
Oben