News AI-Ökosystem: OpenAI präsentiert ChatGPT Team und den GPT-Store

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.747
OpenAI baut weiter das Ökosystem rund um ChatGPT aus. Für Unternehmen veröffentlicht der Anbieter ChatGPT Team als erweiterte Version der Enterprise-Variante. Und für ChatGPT-Plus-Nutzer kommt nun der GPT-Store, über den sich von Nutzern angepasste ChatGPT-Varianten abrufen lassen.

Zur News: AI-Ökosystem: OpenAI präsentiert ChatGPT Team und den GPT-Store
 
  • Gefällt mir
Reaktionen: Mr Peanutbutter, aid0nex und wexoo
@XamBonX , na wenn du halt genau weist was du mit GPT erzeugen willst dann kannst du eine Version erwerben die genau darauf trainiert ist. Ich versuche zb meinem TILEMAPS 32x32 beizubringen. Er erzeugt zwar etwas was so aussieht, trotzdem ist keine MAP und ein Tile kann auch schon mal 456x321 haben. ^^ Also höchstens als Idee zu gebrauchen.
 
  • Gefällt mir
Reaktionen: wexoo
Ich bin momentan noch Plus User, habe aber das Gefühl, dass Chat-GPT immer fauler wird.
Mittlerweile muss ich beim Bugfixing immer mindestens zwei mal zusätzlich schreiben, dass es ganz explizit nicht nur Vermutungen aufstellen soll, sondern auch nach den Fehlern suchen und diese eventuell auch korrigieren soll.

Vor ein paar Monaten war dies noch nicht der Fall.
Die Plus Mitgliedschaft ist auf jeden Fall gekündigt.

Die sollen lieber daran arbeiten, anstatt mehr Schnickschnack hinzuzufügen…
 
  • Gefällt mir
Reaktionen: aid0nex, Harpenerkkk, Skidrow1988 und 3 andere
ChatGPT wird immer "dümmer". Bin froh das ich nie Plus Mitglied war. Bei vielen was ich schreibe und dann ergänzen lies, wurden dann andere wichtige Textpassagen weggelassen. Auch wenn es mit im Prompt steht kann das passieren. Keine Ahnung was da passiert ist. War schon mal besser. Auch bei anderen Sachen.

Und dann immer: Entschuldigung für das Missverständnis 🤔
 
@Xilence19 @Lora das liegt gar nicht an dem Modell selbst, sondern den gestiegenen "Maulkörben" für ChatGPT. Du musst jetzt auch 20x sagen "gib mir eine grobe Schätzung … bitte konkrete Zahlen … ja nur eine Hausnummer … bitte die Größenordnung UNGEFÄHR abschätzen" damit es dir was konkretes sagt.

Liegt schlichtweg daran, dass immer mehr Sperren eingebaut werden, damit
  1. ja nichts anstößiges, politisch inkorrektes, … gesagt wird und
  2. ja nichts falsches gesagt wird (wenn man einfach nichts mehr sagt, kann man auch nichts falsches mehr sagen)
 
  • Gefällt mir
Reaktionen: aid0nex, sereX, Eternal und 5 andere
ascer schrieb:
@Xilence19 @Lora das liegt gar nicht an dem Modell selbst, sondern den gestiegenen "Maulkörben" für ChatGPT. Du musst jetzt auch 20x sagen "gib mir eine grobe Schätzung … bitte konkrete Zahlen … ja nur eine Hausnummer … bitte die Größenordnung UNGEFÄHR abschätzen" damit es dir was konkretes sagt.
Bin ganz bei dir. ChatGPT ist nicht dumm geworden, sondern es hat einen Maulkorb verpasst bekommen UND man muss genauER sagen, was man genau möchte. Das ist ein zweischneidiges Schwert. Entweder definitiv oder ChatGPT versucht sich zu erahnen, was du noch so sehr wahrscheinlich meinen könntest. Und um Ressourcen zu sparen und genauer zu sein, wird der Weg der klaren Definition bevorzugt. Stichwort: Prompt Engineering. Und ja, es gibt mittlerweile Berufe namens "Prompt Engineer"...it's a thing!

prompt.jpg
 
  • Gefällt mir
Reaktionen: aid0nex, feed3r, Wichipingui und 2 andere
fatony schrieb:
Und ja, es gibt mittlerweile Berufe namens "Prompt Engineer"
Ich dachte die KI soll schlau sein? Wenn ich aber erst studieren muss, damit ich die KI bedienen kann, dann wäre es wahrscheinlich einfacher sich in das eigentliche Problem einzulesen und dann zu wissen, was man macht, als nur eine Lösung von Chat GPT zu kopieren, die man teils gar nicht nachvollziehen kann.
 
  • Gefällt mir
Reaktionen: TheChris80 und Krik
Lynacchi schrieb:
Wenn ich aber erst studieren muss, damit ich die KI bedienen kann, dann wäre es wahrscheinlich einfacher sich in das eigentliche Problem einzulesen und dann zu wissen, was man macht, als nur eine Lösung von Chat GPT zu kopieren, die man teils gar nicht nachvollziehen kann.

Das wird nicht gut altern, klingt nach meinen Arbeitskollegen, die lieber auf dem Taschenrechner die Summe berechnen, weil dieses ominöse Excel kann ja keiner bedienen.
 
  • Gefällt mir
Reaktionen: fatony, aid0nex, Skidrow1988 und 3 andere
Crythunder schrieb:
as wird nicht gut altern, klingt nach meinen Arbeitskollegen, die lieber auf dem Taschenrechner die Summe berechnen, weil dieses ominöse Excel kann ja keiner bedienen.
Ich glaube Excel lernt man schneller als eine KI (sinnvoll) zu bedienen
Lynacchi schrieb:
Ich dachte die KI soll schlau sein? Wenn ich aber erst studieren muss, damit ich die KI bedienen kann, dann wäre es wahrscheinlich einfacher sich in das eigentliche Problem einzulesen und dann zu wissen, was man macht, als nur eine Lösung von Chat GPT zu kopieren, die man teils gar nicht nachvollziehen kann.
Am ende empfielt es sich eh die angaben zu überprüfen.
Was Linux Betrifft hat ChatGPT mir schon einges ausgespuckt was zum Datenverlust geführt hätte wenn ich es ausgeführt hätte.
Damals hatte ich Probleme mit Steam unter Linux und wollte alle Protonversionen löschen damit steam sie neu installiert.

Die Antwort von ChatGPT war das ich den Prefixorder löschen sollte.
Erstklassige Antwort: Alle Spiele und ihre Speicherstände wären weg gewesen und das problem würde immer noch bestehen.😁👍

Gut das ich schon einiges an Grundverständnis habe sonst hätte ich ein Problem gehabt.


Das ist aber nur meine Meinung und ich denke das hängt auch davon ab wofür man es nutzt.
Aber für meine Zwecke hat ChatGPT versagt.
 
  • Gefällt mir
Reaktionen: Lynacchi und doalwa
Ich hatte zweimal die Plus Variante abonniert. Mich störte primär die Geschwindigkeit, Antworten dauerten mir einfach zu lange.

Zum „Maulkorb“ der hier angesprochenen wurde, kommt sicherlich noch eine Stufe hinzu das keine geschützten Texte (Presse und Co) exakt ausgegeben werden.
Stellt man sich das so vor, dass diese mit jeden Promt unsichtbar mit einfließen, ist es nicht zu verwundern welchen Einfluss es auf die Antworten haben kann.
 
Seinen Chatverlauf behalten zu können und dennoch kein Training auf den eingenen Daten und höhere Rate-Limits und auch noch schneller wären ja schon toll. Aber es sind ja min. 2 Lizenzen bei Team und damit schon $60 Netto monatlich oder $600 jährlich. Aber gut, ist ja auch für Business und nicht Home-Zeugs. Da bleib ich doch weiter dabei Richtung API zu gehen.

Man sieht halt ganz klar an diesem Schritt, dass OpenAI Richtung Kommerzialisierung geht und nicht mehr Forschung als primäres Ziel zu haben scheint. Könnte aber auch daran liegen, das jetzt erstmal der große Kater Kommen könnte, bei LLMs. Frei nach Yann LeCun ar-LLMs are doomed.

Tatsächlich bin ich sehr gespannt, wie sich diese Technologie etablieren wird. Jeder, der damit intensiver arbeitet, kennt die Grenzen. Ich kann jeden nur empfehlen, die Dinger zu Nutzen. Aber primär nur für Aufgaben, die man auch ohne hilfe erledigen kann, denn dann erst kann man die Ergebnisse richtig bewerten.
 
Hatte es jetzt für ein Problem mal wieder nutzen wollen, ist tatsächlich praktisch unbrauchbar geworden. Der Preis dafür, dass solche Informationen nun nicht mehr in Foren/Stackoverflows aufzufinden werden ist natürlich immens, merkt man aktuell wohl nur noch nicht so krass.
 
TheChris80 schrieb:
Ich habe in der Vergangenheit ein paar Mal auf ChatGPT zurück gegriffen um mir beim Erstellen diverser Powershell Skripte helfen zu lassen.
Zwar kam selten auf Anhieb etwas heraus, das direkt funktionierte, aber mit ein bisschen Feinschliff war das durchaus zu gebrauchen.

Aber auch in diesem Anwendungsfeld beobachte ich, dass die Fantasterei von ChatGPT neue Dimensionen erreicht hat.

Highlight war für mich zuletzt der Versuch, ein Skript zur Bulk-Änderung diverser Attribute unserer Exchange Mailboxen zu generieren.
Auch nach mehrmaligen Versuchen kam kein wirklich funktionierendes Skript heraus.

Als ich in einem Nebensatz erwähnte, dass wir die deutschsprachige Version von MS Exchange verwenden war sich ChatGPT absolut sicher, was das Problem ist: Die Powershell CMDLets müssen natürlich auch deutschsprachig sein 😂

Ob auch das an besagten Maulkörben liegt...keine Ahnung! Meine Euphorie für dieses Produkt ist aktuell jedenfalls ein wenig gedämpft...ob der Hype gerechtfertigt ist, muss sich für mich erst noch zeigen.

Aktuell habe ich heftige Smart Contract, Blockchain und NFT Flashbacks 😇
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: SockeTM und TheChris80
Xilence19 schrieb:
Ich bin momentan noch Plus User, habe aber das Gefühl, dass Chat-GPT immer fauler wird.
Mittlerweile muss ich beim Bugfixing immer mindestens zwei mal zusätzlich schreiben, dass es ganz explizit nicht nur Vermutungen aufstellen soll, sondern auch nach den Fehlern suchen und diese eventuell auch korrigieren soll.
Das liegt möglicherweise mit daran, weil die aktuelle ChatGPT-Plus Variante mittlerweile auf dem Turbo Modell beruht.

Die Team-Variante beruht aber auf GPT4-32k (nicht Turbo) und ist somit vermutlich qualitativ besser für deine Belange.
Ergänzung ()

Lora schrieb:
ChatGPT wird immer "dümmer". Bin froh das ich nie Plus Mitglied war. Bei vielen was ich schreibe und dann ergänzen lies, wurden dann andere wichtige Textpassagen weggelassen. Auch wenn es mit im Prompt steht kann das passieren. Keine Ahnung was da passiert ist. War schon mal besser. Auch bei anderen Sachen.
Siehe ebenfalls vorherige Aussage.
Ergänzung ()

ascer schrieb:
[...] Du musst jetzt auch 20x sagen "gib mir eine grobe Schätzung … bitte konkrete Zahlen … ja nur eine Hausnummer … bitte die Größenordnung UNGEFÄHR abschätzen" damit es dir was konkretes sagt.

[...] damit
  1. ja nichts anstößiges, politisch inkorrektes, … gesagt wird und
  2. ja nichts falsches gesagt wird (wenn man einfach nichts mehr sagt, kann man auch nichts falsches mehr sagen)
Das lässt auf Grok von xAi hoffen.
 
Zurück
Oben