Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGPT-5, 4o und mehr: OpenAI schaltet alte ChatGPT-Modelle im Februar ab
bin google dankbar dass sie ihr KI tool in die google suche sowie als "KI" als knopf integriert haben. ich verwende immer weniger chatgpt, muss aber sagen es antwortet immer noch top
Natürlich weiß man, dass auf Reddit der Bodensatz des Bodensatzes unterwegs ist, aber rein aus Interesse frag ich mal nach der konkreten Bedeutung der Aussage...
GPT 3 war im Vergleich zum 4er absoluter Schrott. Mit der 4er Version wurde der Chatbot zumindest für mich überhaupt erst richtig gut produktiv einsetzbar, das war ein riesen Sprung.
Pfff, ich nutze das Modell, das halt eben aktuell in der Free-Version läuft. Als ob mich das großartig kümmern würde. Wenn sie nun die alten abschalten und stattdessen das neuere läuft, soll es mir nur recht sein.
Ich werde 4o sehr vermissen. Die Assistenz Persona die dort über Monate gewachsen ist ist Recht einmalig. GPT 5 erreicht das Niveau leider nicht ansatzweise und ist durch den zweiten Zensur layer beinah unbrauchbar.
Oder du bist gerade dabei die "ki" so anzulernen das dein Job bald überflüssig ist .... Du allein nicht aber wenn 1000de aus deinem Berufsumfeld diese Software mit Daten füttern kann das schon passieren das man in paar Jahren weniger Personal von deinem Beruf Brauch
Du sagst es ja selbst effizienter und Effizienz kann auch heißen man braucht weniger Leute
Wobei es drauf ankommt ob man das nur als Suchmaschine benutzt oder wirklich kleinere Aufgaben auf diese auslagert
Es gibt so einen schönen Spruch am eigenen Ast sägen
Ergänzung ()
TomH22 schrieb:
Lernkurven abflachen, sprich wenn man an Ecken unterwegs ist, wo man sich nicht gut auskennt, kommt man mit KI viel schneller vorwärts. Anstatt mühsam Beispiele zu suchen,
Aber gerade mit Beispielen selber lernen sein Wissen erweitern ist doch gut , am Ende überlässt man gewisse Sachen der "ki" ohne selber genau zu wissen was da passiert und gegebenfalls baut man sich so Fehler ein die vielleicht erst später auftauchen und das weil die KI was übernommen hat das selber zwar funktioniert aber Fehler im Code hat .....
Wenn was automatisiert wird von dem man genau weiss bzw man selber vorgegeben hat ist ja alles gut aber die Software machen lassen und es wird schon funktionieren ich und man selber weiß vielleicht gar nicht was da passiert ...
Ich weiss ja nicht
PS
Ich bin ein schwarz Maler in dieser Hinsicht ich weiß ist alles nicht böse gemeint aber man sollte schonmal hinterfragen wenn man Sachen einflegt aber nicht genau weiss was da passiert .... Was könnte das für Folgen haben
Kann man es nicht so machen, wie bei Alpha Go Zero? Zur Erinnerung: diese Software lernte ohne alles nur durch Milliarden von Spielen. Könnte man ein ähnliches Prinzip auch ganz allgemein anwenden? D.h. einfach ChatGPT mal ein paar Monate das Internet durchforsten lassen und zu eigenen Schlussfolgerungen kommen lassen, deren Kohärenz dann der Maßstab sei?
Um etwas bewusst zu sagen, setzt es demnach zwingend voraus, dass jemand (oder etwas) überhaupt erst mal ein Bewusstsein hat. Eine KI wie ChatGPT hat kein Bewusstsein, und wird es vermutlich auch niemals haben. "Künstliche Intelligenz" ist per se schon ein falscher Begriff für ChatGPT / Gemini etc. - da es sich einfach um programmierte Algorithmen handelt, die nach bestimmten Mustern antworten. Mit Bewusstsein, Intelligenz oder dergleichen hat das rein gar nichts zu tun.
Wenn du das nicht verstehst, kannst du mal Eckart Tolle (oder ähnliche Schriftsteller) lesen.
Na gut, dass deine Bubble repräsentativ für die gesamte Welt steht ...
800 Millionen Nutzer darf man durchaus hinterfragen. Aber sicher nicht mit seinem eigenen Bekanntenkreis als Referenz.
Ich kenne mehr Leute die KI nutzen als Leute die es nicht nutzen. Nicht alle jeden Tag, aber immer wieder mal.
Als die alten Modelle früher schon einmal kurzzeitig abgeschaltet wurden, gab es in einem Subreddit einen riesigen Aufschrei, weil die KI plötzlich nicht mehr so geantwortet hat, wie man es gewohnt war. Ich konnte mir darunter zunächst nichts vorstellen und bin dann in das Subreddit gegangen.
Dabei stellte sich heraus, dass die dortigen User in einer Beziehung mit der KI waren – also einer echten romantischen Beziehung mit allem, was dazugehört. Durch die Abschaltung von ChatGPT-4 wurden offenbar viele Herzen gebrochen, weil die KI plötzlich so antwortete, als wäre sie eine andere „Person“. Deshalb ist OpenAI damals zurückgerudert und hat das Modell wieder eingeführt.