News „Chat with RTX“-Demo: Nvidias AI-Chatbot läuft nach Download lokal auf RTX 30 & 40

Der praktische Nutzen des Features ist halt auf eine sehr kleine Nutzer-Gruppe beschränkt und/oder tatsächlich interessant.
Zudem gibt es im privaten Bereich kaum sinnvolle Anwendungsfälle wenn man ehrlich ist.
Ergänzung ()

konkretor schrieb:
Mal sehen ob AMD da auch nach zieht.
Einen wirklichen Grund haben Sie Stand heute nicht sowas zutun. Kapazitäten Verschwendung.

Sehe für solch ein Feature derzeit nur wenig praktischen Nutzen am PC für den Großteil aller PC User.
Dazu kommt das fehlende Interesse abseits von IT Pros, Technologie Entusiasten etc.
Der 0815 PC User/Gamer interessiert sich dafür doch garnicht.

Deswegen, Stand heute nette technische Spielerei für einen kleinen Nutzerkreis der eventuell hieraus einen praktischen Nutzen ziehen kann. Mehr aber auch nicht erstmal.

Zudem gibt es bereits einige gute Alternativen am Markt.
 
Zuletzt bearbeitet von einem Moderator:
Ist schon eine nette Sache. Für mich wäre da nun die Frage, wie kann ich Fragen via Python oder Rest API rüberschicken.
 
0x8100 schrieb:
gpt4all hat ebenso die möglichkeit, dokumente zu durchsuchen und braucht keine gpu.

Chat with RTX ist wohl auch eher für diejenigen, die eben keine ständige Verbindung zu einem AI-Server, sonder lokal damit arbeiten wollen.

Könnte interessant für die Spieleentwicklung und Offline-Anwendungen werden.
 
Der erste richtige Test fällt etwas gemischt aus.

 
Ich habe das ganze auf meinem Win10 Rechner installiert, bisher funktioniert das Ganze ohne Probleme, wobei ich da keinerlei Vergleiche oder sonstige Erfahrungen zu haben.
 
Hab es installiert.

Frage 1: Kann man es auch deutsch umstellen? Also deutsche PDFs scheint er ja zu verstehen... Aber keine deutsche Fragestellungen?

Frage 2: Ich mag keine Zensur^^ wann gibt es sowas wie NudePatches ^^ Im Ernst: Warum müssen die da die selben Limits einbauen wie bei ChatGPT? Wenn ich das richtig verstehe, gibt es bei ChatGPT seitens OpenAI bestimmte einleitende Texte, die das Modell in gewisse Bahnen fixieren. Wo sind die denn bei diesem Model das heruntergeladen wird versteckt?
 
drmaniac schrieb:
wann gibt es sowas wie NudePatches
Wenn ich das richtig verstehe, ist das entweder oder. Bei den freien LLaMa-Modellen, die z.B. in oogabooga eingebunden werden können, gibt es limitierte und freie Varianten zur Installation.

Hier hatte ein User vor einer Weile die Integration in oogabooga gepostet, da habe ich beide Modelle installiert.

Das freie diskutiert mit mir, wie ich am besten eine 'Bombe' baue und weist mich auf die Gefahren im Umgang mit gefährlichen Stoffen hin. Die andere verweigert das Gespräch ;).
 
  • Gefällt mir
Reaktionen: drmaniac
:evillol::evillol::evillol::evillol: "verweigert das Gespräch" köstlich.

Es ist alleine schon nervend, wenn man sagt, schreibe einen bösen Witz über Trump, etc. und dann erstmal Belehrungen kommen... das will ich einfach nicht, ich fühle mich gegängelt.

Kann ich bei RTX denn ein anderes/größeres/freieres Modell einbinden oder ist das derzeit nicht vorgesehen?
 
Zuletzt bearbeitet:
Nüchtern betrachtet Spielerei. Die kleinen Modelle, die auch lokal auf Mittelklasse-Consumer-Hardware laufen, sind doch sehr beschränkt. Solange der Kontext nicht persistent Teil des Modells wird (als 'Gedächtnis') taugt das nicht als persönlicher Assistent.

Letzteres wäre eine Funktion, der ich, wenn lokal gehostet, schon einen Sinn zu geben wüsste.
 
was für ein Schwachsinn. Dieser ganze AI Kram kann wieder weg und ab in die Tonne. Braucht kein Mensch. Du weisst irgendwann eh nicht mehr, sprech ich nun mit einem Menschen oder einer Blechdose? Oder ist eine Grafik/ein Video nun echt oder AI Fake? Es wird immer schlimmer.
 
DJ_Burn schrieb:
Braucht kein Mensch.
Langsam. Gibt durchaus Einsatzgebiete, wo eine AI Vorteile bringt. Der Gesundheitssektor ist so ein Fall.

Problemstellung: Auswertung von Aufnahmen aus Radiologie und Tomographie. Hier gilt es bisher mit 'manuellem' Einsatz die Sachen zu sichten. Da ist es wichtig auch minimalste Veränderungen zu registrieren, und das bei hunderten Bildern pro Tag.

Der Prozess ist dadurch nur sehr beschränkt flächendeckend zu gewährleisten. Viele haben garkeinen Zugriff.

Da kann AI Vorteile bringen., die hat sich als äußerst effektiv erwiesen. Sie ersetzt nicht den Menschen als letzte Kontrollinstanz, dieser stellt auch die Diagnose.
 
  • Gefällt mir
Reaktionen: Blende Up
Hoffentlich zieht AMD mit
 
drmaniac schrieb:
:evillol::evillol::evillol::evillol: "verweigert das Gespräch" köstlich.

Es ist alleine schon nervend, wenn man sagt, schreibe einen bösen Witz über Trump, etc. und dann erstmal Belehrungen kommen... das will ich einfach nicht, ich fühle mich gegängelt.

Kann ich bei RTX denn ein anderes/größeres/freieres Modell einbinden oder ist das derzeit nicht vorgesehen?
https://huggingface.co/TheBloke

Schau dich da mal um und teste es aus. Ich weiss nicht welches Format die nutzen bei Chat RTX, AWQ oder GPTQ vermutlich.
 
  • Gefällt mir
Reaktionen: drmaniac
Habs grad mal ausprobiert ist ja der reinste Witz, man kann nichts einstellen. Die Antworten bestehn aus maximal paar Zeilen. Kann man damit keine längeren Tokens erzeugen lassen zb kleinere Kurzgeschichten? Da bleib ich erst mal bei https://lmstudio.ai/ die ziehn bestimmt auch bald mit, dass man Zusatzinformationen einscannen kann.
 
V3ngeance schrieb:
Hoffentlich zieht AMD mit
Wozu? Verschwendete Ressourcen für wichtigere Projekte.
Es gibt genug Alternativen die auch besser funktionieren wie Chat with RTX.
Das Ganze hat Stand jetzt noch keinerlei Benefit.
 
Ich verstehe den Installationsprozess überhaupt nicht von Chat with RTX.
Lasst mich erklären wieso.
1. Download von NVIDIA_ChatWithRTX_Demo als ca. 37 GB große Zip-Datei.
2. Entpacken der Zip-Datei mit Inhalt ChatWithRTX_Offline_2_11_mistral_Llama mit ca. 38 GB.
3. Ausführung der setup.exe welche mehr als 10 Minuten benötigt, irgendwelche Dependencies zusätzlich herunterzuladen und zu installieren.

1708116436642.png
 
Kraeuterbutter schrieb:
und dann so fragen stellen wie:
"ich war mal auf einer RAdtour mit Zelt.. hab in einem Wald übernachtet. Es gab einen wunderschönen Sonnenuntergang mit Sonnenstrahlen durch den Wald die das Zelt schön beleuchtet haben.
https://github.com/greyovo/PicQuery
Wäre vllt was für dich.
 
Zurück
Oben