Anzeige RTX AI PCs mit Nvidia Blackwell: Das Powerhouse für KI- und Kreativ-Workflows [Anzeige]

Nvidia Corp.

Nvidia Corp.
Registriert
Juni 2020
Beiträge
6
  • Gefällt mir
Reaktionen: Mr Peanutbutter
Es muss immer weiter gehen 👍🏼
AMD, wo bist du?
 
  • Gefällt mir
Reaktionen: Mr Peanutbutter, KlaasKersting, flo.murr und 3 andere
Oftmals wirken solche Werbeformate ja problematisch, das hier hingegen ehrlich gesagt eher amüsant.
 
  • Gefällt mir
Reaktionen: Farcrei und maxpayne80
Nvidia bringt die KI in der Welt voran - und vergisst dabei, die eigenen Grafikkarten voranzubringen. So hätte der erste Satz eher heißen müssen ^^
 
  • Gefällt mir
Reaktionen: flo.murr, joxe, Chismon und 2 andere
LamaMitHut schrieb:
@Brainorg hast vergessen deinen Kommentar als Werbung zu kennzeichnen.
Hast vergessen deinen Kommentar als „getriggert“ zu kennzeichnen :p
 
  • Gefällt mir
Reaktionen: LH96, fetzie, Dandelion und 6 andere
Brainorg schrieb:
Es muss immer weiter gehen 👍🏼
AMD, wo bist du?
Naja, korrigiert mich gern, aber sie haben jetzt ihre erste "Cuda" Core GPU herausgebracuht.... also gut 10 Jahre später als NV?
Nächste Gen soll dann endlich CDNA und RDNA als UDNA zusammenen geführt werden. Also so in 2-3 Jahren?!

Die Infrastruktur die sich mit und um cuda die letzen 10 Jahre so aufgebaut hat, die fehlt dann aber bei AMD natürlich weiter. Wollten nicht Intel zusammen mit AMD etwas wegen AI machen? oder waren das nur Fake news. Dürfte auf jedenfall für mitbewerber sehr anspruchsvoll werden. NV hat auf jedenfall eine riesigen Vorsprung. Und ohne die passende Software ist der stärjkste AI Beschleuniger wertlos, wen es dafür kein breites Sotwareangebot gibt.
 
@lynx007
An die 10 Jahre kannst du gerne noch ca. 8 Jahre dranhängen.
Ich habe mit dem G80 und der CUDA-API schon Ende 2007 im Bereich GPGPU experimentiert.
Heutzutage fährt AMD mit ROCm und Pytorch aber ganz gut. CUDA hat also in der Breite nicht mehr die gleiche Marktbedeutung wie noch vor einigen Jahren.
 
  • Gefällt mir
Reaktionen: lynx007
  • Gefällt mir
Reaktionen: Farcrei
lynx007 schrieb:
Nächste Gen soll dann endlich CDNA und RDNA als UDNA zusammenen geführt werden. Also so in 2-3 Jahren?!
In anderthalb bis zwei Jahren, mit einer Tendenz zu anderthalb Jahren. Der Hintergrund ist auch einfach: Es wurde ja auch CDNA5 gecanceled! Und dort braucht es den Nachfolger auf jeden Fall. Obendrein ist bis dahin N3E/N3P auch ein sehr ausgereifter Prozess. Man schaue sich nur an, wie groß bereits jetzt die Apple-DIEs ausfallen...

Ähnliches gilt bei den Nodes auch für Nvidia.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: madmax2010 und lynx007
Ich warte immer noch auf eine neue 24GB Grafikkarte.
FP4 verliert zu viele Details im Vergleich zu FP8. Das ist nur nutzbar um viel AI slop zu generieren.
 
Mein "Problem" mit diesen Werbe-News ist, dass sie festgepinnt sind und nicht normal mit nach unten rutschen. Manchmal bleibe ich dann an der Werbung hängen und schließe die Seite wieder, weil ich diese "News" ja schon gesehen habe und demzufolge danach nichts neues mehr kommt. So verpasse ich manchmal Meldungen...
 
  • Gefällt mir
Reaktionen: Farcrei
Und deshalb kommt AMD für mich leider nicht in Frage. Nvidia sind immer Vorreiter wenn es um neue Technologien geht, und diese kann man zuerst und dann meistens dort einfach am besten erleben.

Trotzdem nervt Nvidia mich einfach nur noch. Ich würde ja endlich gerne mal meinen 6 GB VRAM Laptop upgraden, aber wenn Nvidia in der Mittelklasse immer noch mit 8 GB rumgurkt, was heute lächerlich wenig sind, und die erste vernünftigte Laptop GPU mit 12 GB VRAM unter 2,5k nicht zu haben ist, dann muss ich wohl noch ein Weilchen bei meinem Laptop bleiben. Gute Laptops mit 4070 gibt es mittlerweile zu fairen Preisen, aber 8 GB VRAM sind ein komplettes K.O.-Kriterium! 5060- 12 GB, 5070, 16 GB, 5080 24 GB und 5090 32 GB, das wären gute Speicherausstattungen gewesen, sowohl für Laptops als auch Desktops, aber nein... Hätten sie halt auf GDDR7 verzichtet, wenn man dann mit diesen mikrigen Speicheraustattungen leben muss. Wobei AMD ja fleißigi die schlechten Hausaufgaben von Nvidia kopiert und ebenfalls nur 8 GB VRAM in der Mittelklasse bietet (9700MXT, und das sind nur GDDR6 Speichermodule.)

Geplante Obsoleszenz kommt mir nicht ins Haus! Ich werde so lange warten, bis es was vernünftiges gibt.
 
Zuletzt bearbeitet:
LamaMitHut schrieb:
@Brainorg hast vergessen deinen Kommentar als Werbung zu kennzeichnen.
Hach schön wäre es ☺️
War eher unter dem Standpunkt der Konkurrenz gemeint.
 
ohne CUDA würde es ganz schön finster ausschauen in der welt von stable diffusion, flux und comfyui :)

gerade da wo man rohe power braucht. solche workflows und modelle werden gerne mal sehr leistungshungrig, grad wenn es um ki influencer und videos geht.
 
  • Gefällt mir
Reaktionen: Uhrenbock
CB_KeinNameFrei schrieb:
Nvidia bringt die KI in der Welt voran - und vergisst dabei, die eigenen Grafikkarten voranzubringen. So hätte der erste Satz eher heißen müssen ^^

Eigentlich nicht. Für dich ist eine Grafikkarte nur zum zocken. Für mich z.b. nicht, da ich am PC überhaupt nicht spiele. Die neuen features sind sehr gut, und für den Ziel Anwender ein Argument eine Nvidia GPU zu kaufen.
 
Erst die Pressemitteilung "I bims Nvidia, ich habe noch Karten zum UVP, will die denn keiner kaufen?"

Jetzt die Werbung. Läuft wohl gut?
 
lazsniper schrieb:
ohne CUDA würde es ganz schön finster ausschauen in der welt von stable diffusion, flux und comfyui :)

gerade da wo man rohe power braucht. solche workflows und modelle werden gerne mal sehr leistungshungrig, grad wenn es um ki influencer und videos geht.
Und das ist es eben.

CUDA. Gleichzeitig Segen und Fluch.
AMD muss mit rocm endlich massiv aufholen, damit die Entscheidung, bei immer steigendem Bedarf an ai Workstations, nicht mehr automatisch heißt: Nvidia.

Kann dem Markt und Endkunden nur gut tun.

Denn aktuell heißt es: Nvidia alternativlos, wie ein vorposter bereits schrieb.


Es sei den man steckt dutzende Stunden in Umwege, frickelei, damit es dann "irgendwie und vielleicht, ein bisschen" läuft.

Was insgesamt sehr bedauerlich ist. Die Profi Karten von amd, sind nämlich gebraucht, fast lächerlich erschwinglich...
 
lazsniper schrieb:
ohne CUDA würde es ganz schön finster ausschauen in der welt von stable diffusion, flux und comfyui :)

Nein, wieso. Es gibt offene APIs. Ohne CUDA wären wir alle besser dran.
 
  • Gefällt mir
Reaktionen: AAS und Elektrochopper
Zurück
Oben