Anzeige Nvidia RTX AI-PC: Nutze die Power deines PCs für lokale statt Cloud-KI [Anzeige]

Nvidia Corp.

Nvidia Corp.
Registriert
Juni 2020
Beiträge
7
Für viele ist der Griff zur AI mit dem Gang in die Cloud und damit oftmals mit Datenschutzbedenken oder Abogebühren verknüpft. Mit Nvidias RTX AI-PCs lassen sich KI-Anwendungen aber auch lokal auf dem Desktop-PC oder Notebook ausführen. Die KI-Bildgenerierung mit ComfyUI + FLUX.2 und OpenClaw als KI-Assistent sind Beispiele.

Zur Anzeige: Nvidia RTX AI-PC: Nutze die Power deines PCs für lokale statt Cloud-KI [Anzeige]
 
  • Gefällt mir
Reaktionen: Mr Peanutbutter, Quidproquo77, cosmo45 und 3 andere
Auch wenn das Werbung ist, empfehle ich dazu mal die KI Videos von Keno von ct'3003

 
  • Gefällt mir
Reaktionen: Mr Peanutbutter, rambodieschen, Vendetta192 und 5 andere
Ich nutze auch noch Claude (CoWork vor allem und Chat), heute habe ich vor allem Codex von OpenAI genutzt um meinen Raspberry Pi endlich als AirPrint Druckerserver einzurichten für meinen Fotodrucker.
Aktuell hat mir Claude geholfen meine lokalen Modelle zu steuern um meine alte Webseite mit einem alten Wordpress Theme hin in ein neues Divi Theme zu migrieren.
Befehle kommen von Claude und dann rein ins Lokale. Irgendwann ganz Lokal mit N8N.io für die Buchhaltung & Co.
Gerade geht's echt gut ab auf dem Sektor!

Und richtig krass sind die beiden Webseiten in den letzten 24h mit Claude Design. Abgefahren!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nighteeeeey
Gaming Fertig PCs als beworbene AI PCs mit einer 8GB RTX5060 und High-End mit der RTX5080, obwohl die RTX5070TI die bessere Wahl wäre, wenn es nicht gleich die RTX5090 ist, deren Chips und VRAM entlötet in Asien auf Custom AI Platinen landen. Für lokale LLM lassen sich nicht mal die Chinesen vom Nvidia AI Marketing veräppeln, denn die wissen auch ganz genau welche Hardware man im Rechenzentrum und lokal für AI braucht. So tief kann nicht mal eine RTX5070 12GB im Preis für Gaming und LLM fallen.
 
  • Gefällt mir
Reaktionen: madzzzn und Rock Lee
Haha, ne 5060 als einstiegs AI PC zu bewerben ist schon irgendwie lustig.

Auch mit ner 5070 wird man wenig Freude haben. Dann besser eine 5070ti

16 GB, sollte es für lokale AI schon sein. Ansonsten sind die Einschränkungen einfach zu groß.

Tipp: ne gebrauchte 3090 ist ein guter Kompromiss aus Ai-Performance, VRam und Preis.
 
  • Gefällt mir
Reaktionen: rambodieschen und s0ja
Witzig wie eine GeForce RTX 4090 mit FP8 so viel schneller als mit FP4 ist.
Dass das abrunden allerdings die Performance um 100% verschlechtert ist schon bemerkenswert.
 
Hallo nvidia, schickt mir doch mal einen DGX Sparc und eine 5090 zum Testen! Ich schreib dann auch einen Leserartikel hier!
 
Aber reichen die 8 GiB der RTX 5060 wirklich für die KIs aus?

Da sollte man wohl besser ein paar Euro drauflegen für die RTX 5060ti mit 16 GiB.
 
Sorry, aber Chat-GPT hätte mal den Text schreiben, und die Hardware dafür vorschlagen sollen.
Haben TEAM-A KI Abteilung und Team-B Gaming Abteilung nicht miteinander gesprochen?
 
openclaw lokal? ja klar, kannste ja gleich deine ganzen daten auf die straße legen.

sowas hat seinen sinn, aber dann auf einem VPS.

für bildgenerierung geh ich mit, comfyui ist ungeschlagen.
 
Sapphire Forum
Zurück
Oben