News OpenAI Developer Conference: Leistungsfähigeres Modell für ChatGPT mit Wissen aus 2023

ICHBINDA schrieb:
Welche Open Source Variante die alles schön Offline macht verwendets du?, link bitte:)
GPT4ALL -> https://gpt4all.io/index.html 🙂 👍

Als LM kannst du dann in GPT4ALL Wizard 1.2 downloaden. Der kann Deutsch 🙂

Oder du holst dir von: https://huggingface.co ein LM, z.B Utopia oder U-Amethyst.
Die sind Multilingual und man kann damit schon einiges anfangen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Steven Coolmay, RAMSoße und Randlocher
@ICHBINDA
Musst du selber testen, es kommen ja auch ständig Updates und es wird immer besser.
Deshalb nutze ich leider auch noch ChatGPT, aber halt für nichts privates.
 
MelbarKasom schrieb:
Solange sie nur Kreditkarten als Zahlungsmittel akzeptieren, können sie mich als Kunden leider nach wie vor nicht haben.
Wie normal das in anderen Ländern ist, wurde ja schon ausreichend oft hier gesagt.

Falls es dir um Datenschutz geht, deren Zahlungsanbieter gibt OpenAI vermutlich nur einen Token, mit dem nur Zahlungen an Open AI getätigt werden können. Die sehen nicht deine Kreditkartendaten.
So läuft es jedenfalls bei dem Zahlungsanbieter unserer Firma.
 
  • Gefällt mir
Reaktionen: Chris007
Könnte große Teile meiner Supportarbeit komplett auf ChatGPT auslagern. Mit der neuen Funktion bei der ich tausende Zeilen lange logfiles hochladen kann und es findet jeden Fehler und gibt gleich 5 Lösungsmöglichkeiten.

Selbst etwas obskurere Sachen wie Problembehandlung bei Punktwolken in RTMaps wird zu 99% erkannt.
Und demnächst gibts für Plus-Abonneneten bald diesen ChatGPT-bot Marktplatz wo man sich spezielle bots für alles mögliche holen kann.
Ze sky is ze limit
 
  • Gefällt mir
Reaktionen: Randfee und Randlocher
Gesetzt der Fall, mein "Automat" fragt mich mal : werde ich träumen ?
Spätestens dann zieh ich den Stecker ... :pcangry:
 
  • Gefällt mir
Reaktionen: Garack
DennisK. schrieb:
Kosten beinahe gedrittelt und 16x mehr Ergebnis? KI wird damit deutlich erschwinglicher und damit noch niederschwelliger einsetzbar. Mal schauen was als nächstes kommt. 😀
Leider ist der Output schlechter als bei den 16K modell, Turbo komprimiert entweder oder lässt sachen bewusst aus. Auf Reddit melden sich derzeit viele entwickler die mit der Turbo version schlechtere Ergebnisse bekommen und daher nicht sehr begeistert sind.
 
Wird der größere context von 128k token auch bei ChatGPT plus verfügbar sein oder ist man da stärker begrenzt wie bisher auch?
Das wäre nochmal ein großes Plus für mich, das man mehrere Chats zum selben Thema aber mit anderen Aufgaben zusammen ziehen/kombinieren könnte!
 
  • Gefällt mir
Reaktionen: _dubi
DaLexy schrieb:
Auf Reddit melden sich derzeit viele entwickler die mit der Turbo version schlechtere Ergebnisse bekommen und daher nicht sehr begeistert sind.
Hast du da Beispiele an der Hand, bei welchen Aufgaben die Ergebnisse schelchter sind? Also ging es da um konkrete Tasks oder quer durch unterschiedliche Anfragen hinweg?
 
MelbarKasom schrieb:
Solange sie nur Kreditkarten als Zahlungsmittel akzeptieren, können sie mich als Kunden leider nach wie vor nicht haben. Eine Frage an den Support, warum z.B. nicht auch Paypal als Zahlungsmöglichkeit angeboten wird, blieb unbeantwortet.
"Kunde droht mit Kauf", niemand interessiert sich. Denen muss es einfach zu gut gehen.
Kannst dir auch einfach die App herunterladen und dann auch per PayPal bezahlen, habe ich auch gemacht.
 
FrAGgi schrieb:
Abseits von Deutschland sind Kreditkarten fester Teil des Alltags. Warum sollte OpenAI den Mehraufwand betreiben auch noch Paypal anzubieten?
Bei mir ist es das Gegenteil: Ich habe eine Kreditkarte, die ist aber nur bei PayPal hinterlegt und ich gebe bei Zahlung immer PayPal an, damit nur einer die Daten hat, dem man sie schlimmstenfalls klauen kann. ;)
 
FrAGgi schrieb:
Hast du da Beispiele an der Hand, bei welchen Aufgaben die Ergebnisse schelchter sind? Also ging es da um konkrete Tasks oder quer durch unterschiedliche Anfragen hinweg?
Hauptsächlich ging es in dem Thread nur um Programmierer die mit großen Codeblöcken arbeiten, hab das auch nur zur hälfte gelesen aber der kontext schien sich einig das die API wo es Turbo mit 120k Tokenlimit gibt nicht das macht was es suggeriert und die da lieber beim 32k modell bleiben. Speed ist zwar nett aber die gestellten Aufgaben werden nicht erfüllt wie sie sollen.
 
  • Gefällt mir
Reaktionen: FrAGgi
DaLexy schrieb:
Leider ist der Output schlechter als bei den 16K modell, Turbo komprimiert entweder oder lässt sachen bewusst aus. Auf Reddit melden sich derzeit viele entwickler die mit der Turbo version schlechtere Ergebnisse bekommen und daher nicht sehr begeistert sind.
Das ist natürlich dann ein Rückschritt, ich dachte das Niveau der „Intelligenz“ würde gehalten werden. Dann wäre der Ausbau der Antwortlänge schon ein guter Fortschritt.
 
FrAGgi schrieb:
Ich habe aber noch nicht ganz rausgelesen, ob GPT-4-turbo auch direkt in der ChatGPT Oberfläche verfügbar gemacht wird, oder vorerst nur per API.
Ich vermute, GPT-4-Turbo wird dort schon ein paar Tage genutzt. Das GPT selbst als Stand April 2023 angibt und dass es im Default-Chat bereits Vision und Dall-E 3 nutzt ohne das Modell wechseln zu müssen, spricht für mich dafür. Volle Kontextlänge via WebGUI hatte man, meinen kurzen und einfachen Versuchen nach zu Urteilen, in der Vergangenheit auch nicht. Keine vollen 8k bei GPT-4 und keine vollen 4k bei GPT-3.5.
 
  • Gefällt mir
Reaktionen: FrAGgi
Wer auf die App verzichten kann, ist eigentlich in allen Fällen mit der API besser beraten. Ich nutze zwar beides, jedoch bevorzugt die API über lokal installierte clients mit diversen Komfortfunktionen. Die 20 Dollar zahle ich in erster Linie für die toll umgesetzte Voice Funktionalität in der App.
 
rosenholz schrieb:
Wer auf die App verzichten kann, ist eigentlich in allen Fällen mit der API besser beraten. Ich nutze zwar beides, jedoch bevorzugt die API über lokal installierte clients mit diversen Komfortfunktionen.
Kannst du das näher ausführen? Nutze bisher die ChatGPT Webversion für meine Contenterstellung. Welche lokalen Clients hast du da und welche Komfortfunktionen bieten sie? Bin immer auf der Suche nach Verbesserungsmöglichkeiten :)
 
  • Gefällt mir
Reaktionen: RAMSoße
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FrAGgi
Azdak schrieb:
Ich vermute, GPT-4-Turbo wird dort schon ein paar Tage genutzt. Das GPT selbst als Stand April 2023 angibt und dass es im Default-Chat bereits Vision und Dall-E 3 nutzt ohne das Modell wechseln zu müssen, spricht für mich dafür. Volle Kontextlänge via WebGUI hatte man, meinen kurzen und einfachen Versuchen nach zu Urteilen, in der Vergangenheit auch nicht. Keine vollen 8k bei GPT-4 und keine vollen 4k bei GPT-3.5.

Ich bin mir sogar ziemlich sicher, dass das der Fall ist. Ich habe gestern eine App mit Flutter per ChatGPT testweise erstellen lassen und er hat mir gezielt das flutter Package "provider" in der Version 6.0.5 als dependency vorgeschlagen. Diese Version ist von Januar und die darauffolgende Version war von September. Ich hatte die Browsersuche auch ausgeschaltet gehabt.

Das deutet auf jeden Fall darauf hin, dass es neuere Informationen als 2021 gewesen sein müssen und schließt auf die bereits vorhandenen Informationen vom April 2023.

Bisher konnte ich aber mit dem Wissensstand deutliche Verbesserungen in Quellcode und Debug Analyse spüren (für Flutter in dem Fall). Mit längeren Prompts kam er schon mal durcheinander oder hatte etwas vergessen, aber das kam immer wieder mal auf den Input an. Arbeitet man sich Step by Step durch, waren die Ergebnis durch und durch solide.

Ich beobachte das Ganze mal etwas weiter.
 
Zurück
Oben