News GPT-5, 4o und mehr: OpenAI schaltet alte ChatGPT-Modelle im Februar ab

BDR529 schrieb:
Sorry, aber das ist kompletter Unsinn, den du da redest.

Die Definition des Begriffs "lügen" lautet folgendermaßen
Naja. Ob man das jetzt "Lügen" nennen kann ist sicher streitbar. Nichtsdestotrotz gibts natürlich das Phänomen der Halluzinationen.
Und auch das Problem, das in Trainingsdaten zunehmend KI-Inhalte auftauchen.
Und das ist nicht von der Hand zu weisen und daher ist es auch total überzogen das als "kompletten Unsinn" zu bezeichnen.

Und insbesondere, da Du so belehrend auftrittst sieht das halt doof aus, wenn Du selber sprachlich ungenau bist.

mryx schrieb:
Durch die Abschaltung von ChatGPT-4 wurden offenbar viele Herzen gebrochen, weil die KI plötzlich so antwortete, als wäre sie eine andere „Person“. Deshalb ist OpenAI damals zurückgerudert und hat das Modell wieder eingeführt.
Was übrigens gleich zwei Mal "cringe" ist. Einmal das man sich überhaupt auf eine Beziehung mit einem LLM einlässt. Aber ok. Das kann man vielleicht sogar noch nachvollziehen.

Aber die zweite Sache, nämlich das man mit einem Partner ja intimste Gefühle und Gedanken teilt und dieser Partner hier in dem Fall kein echter Partner ist, sondern ein große Firma, das ist für mich nicht mehr nachvollziehbar.
 
andy_m4 schrieb:
Und insbesondere, da Du so belehrend auftrittst sieht das halt doof aus, wenn Du selber sprachlich ungenau bist.
Wo war ich sprachlich ungenau?

Lügen ist per Definition eine Handlung, die nur bewusst getan werden kann. Diese Definition stammt aus dem Duden, und nicht von mir.

Eine unwissentliche Falschaussage ist keine Lüge. Und eine programmierte (oder per Algorithmus/KI generierte) Falschaussage ist ebenfalls keine Lüge.
 
BDR529 schrieb:
Wo war ich sprachlich ungenau?
Du hast gesagt, das die Aussage komplett falsch ist. Was halt nicht stimmt.
Ja. Das mit den Lügen war sicher drüber. Das entwertet aber die Aussage nicht komplett. Weil auch wenn es keine bewussten Lügen im Sinne des Begriffs sind, Du ja trotzdem das Problem von Verfälschungen hast.

Hab ich doch aber eigentlich auch erklärt. Ich frag mich, warum Du Dich deshalb an den Begriff "Lügen" aufhängst. Weil genau das ist der der Punkt den ich Dir sogar geben würde.

BDR529 schrieb:
Falschaussage ist ebenfalls keine Lüge
Ja. Aber das Problem bleibt doch trotzdem, das es potentiell Trainingsdaten vergiftet. Ob es nun absichtlich gelogen oder (unabsichtlich) herbeihalluzinierte Falschaussagen sind.
 
andy_m4 schrieb:
Ja. Aber das Problem bleibt doch trotzdem, das es potentiell Trainingsdaten vergiftet.
Ob das wirklich so ist, wage ich zu bezweifeln. Ich nutze selbst ChatGPT und Gemini, und teilweise auch mit wiederkehrenden, ähnlichen Fragen. Wenn mir Widersprüche auffallen - und je nach Situation geben diese Assistenten durchaus widersprüchliche Antworten - dann weise ich darauf hin, Aussagen werden korrigiert oder verändert. Alles schön und gut... aber wenn Trainingsdaten vergiftet werden können, dann geht das nur, wenn die "KI" durch "Gespräche" mit Nutzern lernt - was sie aber m.E.n. nicht tut - oder dann, wenn diese Daten absichtlich falsch einprogrammiert wurden. Und das halte ich wiederum für absurd. Teilweise habe ich schon mehrmals hintereinander eine ähnliche, oder gar die gleiche Frage gestellt und unterschiedliche Antworten bekommen. Dadurch kann bestätigt werden, dass es solche "einprogrammierten" oder "vergifteten" Trainingsdaten einfach nicht gibt.

Auf den Rest gehe ich nicht weiter ein, das ist Zeitverschwendung.
 
BDR529 schrieb:
aber wenn Trainingsdaten vergiftet werden können, dann geht das nur, wenn die "KI" durch "Gespräche" mit Nutzern lernt - was sie aber m.E.n. nicht tut
Ich nehme an, Gespräche werden zumindest teilweise Inhalt des Trainingsdatensets.
Aber Du hast ja auch generell das Problem, das Du einfach Daten brauchst um Modelle zu trainieren. Und zwar große Datenmengen.

Die bisherige Herangehensweise war einfach, "das Internet" (oder zumindest bestimmte Teile davon und entsprechend aufbereitet) als Trainingsdaten zu nehmen. Das kannst Du nicht mehr so ohne weiteres nehmen, weil das Internetinhalte inzwischen viel KI-generierte Inhalte hat.

Und damit auch natürlich die Falschinformationen die KI selbst generiert hat. Mal davon abgesehen, das es ansich schon unschön ist, wenn man auf KI-generierte Inhalte trainiert weil man nicht mehr rausholen kann als drin steckt und Du auch ohne Halluzinationen ein Degenerationsproblem hättest.

Das ist übrigens auch ein großes Problem, was die LLM-Hersteller umtreibt. Es ist also nicht so, das das hier nur reine Vermutung und Spekulation ist, sondern das wird halt auch so diskutiert.

Also auch in wissenschaftlichen Papern. Während Du so sinngemäß sagst: "Hab mal mit ChatGPT geschrieben und ich hatte nicht den Eindruck, das es da irgendwie ein Problem, gibt". Ja. Achso. Na dann ist ja all das widerlegt, worüber KI-Experten so reden. :freak:

Und klar gibts Gegenstrategien und Lösungsansätze, aber das heißt ja nicht, das es nicht erst mal ein Problem ist.

Insofern: Ja. Seine Aussage war undifferenziert und der Begriff "Lügen" (was ja, wie Du richtig sagst Absicht unterstellt) zu benutzen war falsch.
Aber es war halt auch kein "kompletter Unsinn" wie Du gesagt hast und was ja im Prinzip bedeutet, an seiner ganzen Aussage ist überhaupt nix dran.
 
  • Gefällt mir
Reaktionen: Alphanerd
scryed schrieb:
Aber gerade mit Beispielen selber lernen sein Wissen erweitern ist doch gut , am Ende überlässt man gewisse Sachen der "ki" ohne selber genau zu wissen was da passiert und gegebenfalls baut man sich so Fehler ein die vielleicht erst später auftauchen und das weil die KI was übernommen hat das selber zwar funktioniert aber Fehler im Code hat
Die Verantwortung hat man immer selber, und zwar auch ohne KI. Wenn man Codestrecken aus Tutorials oder von StackOverflow oder von Arbeitskollegen übernimmt (ich habe schon so viel copy/paste Code in „professioneller“ Software gesehen, und die Entwickler konnten mir bei Code Review nicht genau sagen was der Code macht..) hat man dasselbe Problem.

Nach 30 Jahren in der Branche habe ich schon so viel schlechten Code gesehen, dass ich glaube, dass KI es eher besser macht…

Ich selber schaue mir generierten Code sehr genau an, lasse ihn auch von der KI nochmal erklären, was sie gemacht hat, auch gerne mal cross-check mit einem anderen Modell. Ich lerne dabei auch öfter dazu, z.B. gerade in Sprachen mit sehr dynamischer Entwicklung wie Python, selber ist man ja gerne mal faul, und bleibt bei Features die man schon kennt.
Ergänzung ()

Salamimander schrieb:
Und das ist ein Beispiel von vielen, sehr sehr vielen. Die KI “lügt” dir volle Kanne ins Gesicht. Und das passiert ständig und permanent.
Die KI lügt nicht, sie halluziniert. Gerade bei Konfigurationsparametern aber auch API Calls passiert das aber in der Tat recht häufig. Die KI inferiert im Prinzip Features, die konzeptionell passend und sinnvoll wären, aber nicht implementiert sind. Bei API Calls habe ich mir schon öfter gedacht, „ja, gute Idee, wäre schön wenn es den gäbe“…
 
Zuletzt bearbeitet:
@TomH22 ja deshalb die Anführungszeichen. Leider macht es die LLMs für solche Aufgaben ganz oft unbrauchbar. Selbst wenn man den prompt erweitert und sagt er soll sich nur auf die verlinkte Doku beziehen. Selbst wenn man vom LLM fordert es soll zugeben, dass es die Lösung nicht kennt, wird ausgewichen… so richtig ekelhaft Politiker Like.
 
TomH22 schrieb:
Nach 30 Jahren in der Branche habe ich schon so viel schlechten Code gesehen, dass ich glaube, dass KI es eher besser macht…
Ja. Da ist durchaus was dran.
Ich teile diese Beobachtung. Das halt Code unreflektiert irgendwo her kopiert oder auch irgendwie zusammengestümpert wird und dann denk ich mir auch:
Nimm lieber ein LLM. Der Code der da raus kommt hat immer noch Schwächen, aber immer noch besser als zuvor.

Das Ding ist:
LLM kann ein nützliches Tool sein. Aber das ist es vor allem in der Hand von Leuten, die sich auskennen.

Was aber oft passiert ist (und ich sag jetzt jetzt mit Absicht übertrieben und plakativ, damit der Punkt klar wird):
LLMs können programmieren. Also werfen wir die (teuren) Programmierer raus und den Job macht jetzt die Sekretärin, der wir einfach ChatGPT in die Hand drücken.

Was aber wirklich Sorgen machen muss ist, das vielleicht keine neuen Programmierer mehr nachwachsen und man jetzt noch von dem zehrt was an Programmieren da ist und die auch dank LLMs mehr Output schaffen.
Für frische Programmierer sind aber keine Jobs da. Einmal weil die typischen Aufgaben die man als Anfänger gemacht hat, jetzt an LLMs gegangen sind. Zweitens weil ja im Hype und angesichts der Entwicklung so der Tenor vorherrscht: "In ein paar Jahren wird niemand mehr Programmierer brauchen".

Das kann noch mal ein böses Erwachen geben, wenn die jetzige Generation aus dem Berufsleben ausscheidet.
 
  • Gefällt mir
Reaktionen: TomH22
Salamimander schrieb:
Selbst wenn man vom LLM fordert es soll zugeben, dass es die Lösung nicht kennt, wird ausgewichen
Ein LLM hat kein wirkliches Wissen über „richtig“ und „falsch“, es kennt auch immer eine Lösung, nur die Wahrscheinlichkeit , dass sie funktioniert kann halt beliebig klein werden.
Mit heutigen Modellen ist es halt oft noch „Miss and hit“, frappierend gute Lösungen wechseln sich mit Totalausfall ab. Das meiste liegt irgendwo in der Mitte, ich bekomme gerade beim Coding oft Ergebnisse die man noch ein wenig nacharbeiten muss, aber schon in die richtige Richtung gehen. Und selbst bei den ziemlich schlechten sind manchmal noch Denkanstöße dabei.
Z.B bei Analyse von Fehlern wird das Problem erkannt, aber der Lösungsvorschlag ist eben falsch, z.B. wegen einem halluzinierten Konfigurationsparameter.
 
TomH22 schrieb:
ich bekomme gerade beim Coding oft Ergebnisse die man noch ein wenig nacharbeiten muss, aber schon in die richtige Richtung gehen. Und selbst bei den ziemlich schlechten sind manchmal noch Denkanstöße dabei.
Ja. Ich finde das auch viel entscheidender. Also gar nicht unbedingt nur, das da hinten Code raus fällt. Das ist ein Aspekt. Aber allein schon die Möglichkeit mal Lösungsansätze durchzusprechen. Oder auch "Wie benutze ich Funktionalität ABC von Framework XYZ".
Auch da kommt durchaus mal Quatsch raus. Aber dabei geht es ja auch nicht um Exaktheit, sondern (wie Du so schön sagst) Denkanstöße.
Und wenn totaler Quatsch erzählt wird, merkt man das ja auch recht schnell.
 
  • Gefällt mir
Reaktionen: TomH22
andy_m4 schrieb:
Also auch in wissenschaftlichen Papern. Während Du so sinngemäß sagst: "Hab mal mit ChatGPT geschrieben und ich hatte nicht den Eindruck, das es da irgendwie ein Problem, gibt". Ja. Achso. Na dann ist ja all das widerlegt, worüber KI-Experten so reden. :freak:
Wo habe ich das (sinngemäß) behauptet? Bitte einmal klarstellen.

Ich habe lediglich gesagt, das ich davon überzeugt bin, dass KI-Assistenten nicht "lügen", weil es hierfür ein Bewusstsein erfordert. Oder falsche Antworten müssten fest einprogrammiert sein - ggf. individuell je nach Situation, wenn bestimmte vordefinierte Parameter erfüllt sind (das ist nur Hypothese, keine Behauptung).

Weiterhin habe ich (sinngemäß) gesagt, das mir schon diverse Male aufgefallen ist, dass KI-Assistenten auf dieselbe Frage, manchmal auch unterschiedlich antworten (mal "falsch", und mal "richtig"), und damit widerlegt sein müsste, dass es sich bei den KI-Antworten um bewusste (falsche) Antworten, also Lügen handelt - sondern sich vielmehr möglicherweise um Fehler oder Anomalien im Algorithmus handeln sollte.
 
BDR529 schrieb:
Wo habe ich das (sinngemäß) behauptet?
Du kennst also Dein eigenes Posting nicht. Interessant.

BDR529 schrieb:
nicht "lügen", weil es hierfür ein Bewusstsein erfordert
Du hast immer noch nicht den Punkt verstanden. Es geht nicht ums Lügen a-k-a bewusste Falschaussagen.
Wie oft soll ich das jetzt noch erklären?

BDR529 schrieb:
Oder falsche Antworten müssten fest einprogrammiert sein
Es wird ohnehin nichts fest einprogrammiert im klassischen Sinne.

Jetzt mal eine sehr vereinfachte Erklärung, in der Hoffnung das Du es dann checkst.
LLMs basieren auf neuronalen Netzen und die werden mit Daten trainiert (was sehr aufwendig ist).
Man erhält hinterher quasi ein Netz mit Gewichtungen dran. Dieses trainierte Netz benutzt man dann. In dem man vorne rein seine Eingabe (also das was Du dem LLM quasi als Frage, Text, whatever) gibst. Das durchläuft dann das Netz unter Berücksichtigung der Gewichtung und hinten raus kommt quasi wieder Text (basierend auf Deiner Eingabe und den Gewichtungen).

Damit das gut funktioniert, brauchst Du aber eine gute Datenbasis. Und idealerweise brauchst Du auch viele Daten. Das Problem mit "viele Daten" hat man dadurch gelöst, in dem man die halt im großen Stil aus dem Internet abgeschöpft hat (und es bis heute tut). Also so was wie Wikipedia, Webseiten oder auch solche Foren hier wie dieses.

So ein LLM hat aber keine Vorstellung von Fakten oder Wahrheit. Es gibt nur das wieder, was sich in den Trainingsdaten befindet. Also nicht genau das im Sinne einer 1:1-Kopie, aber es wird halt in den Antworten verwurstet. LLMs sind eine Statistikmaschine deren Ausgaben auf Wahrscheinlichkeiten beruhen.
Das ist nicht notwendigerweise die Wahrheit. Das kann eben auch Blödsinn sein.

Nun hast Du aber das Problem, das im Internet sich zunehmend LLM-generierte Inhalte befinden. Da das Internet nach wie vor eine wichtige Quelle für das Training von LLMs ist, hast Du zunehmend das Problem, das eben auch der Blödsinn der von LLMs im Internet verbreitet wird in den Trainingsdaten vor kommt.

Ist jetzt alles sehr vereinfacht dargestellt, aber ich hoffe, Du hast es jetzt endlich verstanden.

BDR529 schrieb:
gesagt, das mir schon diverse Male aufgefallen ist, dass KI-Assistenten auf dieselbe Frage, manchmal auch unterschiedlich antworten
Ja.

BDR529 schrieb:
und damit widerlegt sein müsste, dass es sich bei den KI-Antworten um bewusste (falsche) Antworten
Wie gesagt: Das hier bewusst falsche Antworten gegeben werden, das war auch nie das Thema bzw. das habe ich schon in meinem ersten Posting ausgeräumt.
Das ändert aber nichts am grundsätzlichen Problem, das bei LLM/KI falsche Antworten raus kommen (was Du ja selbst zugibst!!!!) die über Umwege wieder Teil der Trainingsdaten werden.
Wie oft willst Du denn jetzt noch das Lügen-Thema was schon 3 Mal abgehakt ist durchkauen?

BDR529 schrieb:
sondern sich vielmehr möglicherweise um Fehler oder Anomalien im Algorithmus handeln sollte.
Ja. Nenne es wie Du willst. Es ist aber dennoch ein Problem aus bereits genannten Gründen.

Also halten wir noch mal fest:
Salamimander sagte:
Schade, mit jeder Iteration wird der ganze LLM Kram schlechter, weil er von seinen eigenen Lügen lernt :|
Worauf Du antwortetest mit:
Sorry, aber das ist kompletter Unsinn, den du da redest.
Und "kompletter Unsinn" impliziert, das die Aussage von Salamimander zu 100% falsch ist.
Und ja. Der Aspekt mit dem lügen (also bewusste Falschaussage) ist sicher so nicht richtig.

Aber die angesprochene Problematik das LLMs Falschaussagen produziert die über Umwege wieder ihren Weg in neue Modellgeneration findet, ist halt da und wird auch weithin als Problem anerkannt.
Ergo das was Salamimander auch kein kompletter Unsinn.
 
Zuletzt bearbeitet:
@andy_m4

In Ordnung, jetzt sind wir also auf "dem" Niveau angekommen.

Also 1) brauchst du mir nicht zu erklären was neuronale Netze sind. Die RTX Pro habe ich sicher nicht aus Jux und Tollerei im Rechner. Es ist nett, dass du dir so viel Mühe gegeben hast das zu beschreiben - vielleicht interessiert es jemanden, mich jedoch nicht. Das brauche ich mir nicht alles durchzulesen.

Und 2) hast du meinem Eindruck nach ein großes Problem damit, vom Kern einer Aussage abzuschweifen und Eigenschaften in Aussagen hinein zu interpretieren, was mir langsam aber sicher auch anfängt auf den Senkel zu gehen.

andy_m4 schrieb:
Wie oft willst Du denn jetzt noch das Lügen-Thema was schon 3 Mal abgehakt ist durchkauen?
So lange wie du immer wieder auf dieses Thema eingehst, und meine Beiträge nicht nur fehlinterpretierst, sondern meine Worte auch noch im Munde verdrehst. Alleine schon dein "sinngemäßes Zitat" von mir, auf das du dich bezogen hattest, unterstreicht deutlich, dass deine Interpretationskünste (Fantasie) bei diesem "Zitat" nicht unbeteiligt waren.

Bisher dachte ich, dass man mit dir eine normale Unterhaltung führen kann. Da das aber, wie du soeben bewiesen hast, nicht möglich ist, werde ich meine Zeit nicht weiter mit dir verschwenden. Mir auch vollkommen Banane was du jetzt noch antwortest... ich werd's eh nicht sehen oder lesen - Thema ist abgehakt.
 
BDR529 schrieb:
In Ordnung, jetzt sind wir also auf "dem" Niveau angekommen.
Auf welchem? Auf die verlinkten Paper bist Du ja nicht eingegangen. Also muss ich ja Dir entgegenkommend einen Gang runterschalten.

BDR529 schrieb:
So lange wie du immer wieder auf dieses Thema eingehst, und meine Beiträge nicht nur fehlinterpretierst, sondern meine Worte auch noch im Munde verdrehst.
Die Sachlage ist eigentlich eindeutig.

Das Problem ist, das Du die ganze Zeit am Thema vorbei redest und das, obwohl Du nun schon mehrfach darauf hingewiesen wurdest.
Trotzdem hast Du immer wieder mit der Lügen-Sache angefangen, was aber nie ein wirkliches Streitthema war und wo ich ja sogar auf Deiner Seite bin.

Es ging also vielmehr um den Rest.
Ich hab mein vorheriges Posting auch noch ergänzt. Ich weiß nicht, wie ich es noch klarer formulieren kann.

BDR529 schrieb:
Da das aber, wie du soeben bewiesen hast, nicht möglich ist
Das ist schade, das Du das so siehst.
Aber vielleicht wäre von Deiner Seite auch mal ein bisschen Selbstkritik angebracht.
 
BDR529 schrieb:
Um etwas bewusst zu sagen, setzt es demnach zwingend voraus, dass jemand (oder etwas) überhaupt erst mal ein Bewusstsein hat. Eine KI wie ChatGPT hat kein Bewusstsein, und wird es vermutlich auch niemals haben.
Du hast da sehr schön eine inkorrekte Benutzung des Wortes 'Lüge' angesprochen.

Gut; ersetzen wir @Salamimander 's Satz

"Schade, mit jeder Iteration wird der ganze LLM Kram schlechter, weil er von seinen eigenen Lügen lernt"

durch:

"Schade, mit jeder Iteration wird der ganze LLM Kram schlechter, weil er von seinen eigenen Falschaussagen lernt"

Wo genau ist dieser Satz "kompletter Unsinn", wie von dir angemerkt?

Will sagen, bestehst du darauf, mit (sprachlich korrektem) Nitpicking einen Nebenkriegsschauplatz aufzumachen, oder bist du willens und in der Lage, auf die gemachte Hauptaussage "Die Instanz des LLM lernt von / wird gefüttert mit dem, was die Vorgängerinstanz abgesondert hat, inklusive aller Fehler." einzugehen?

Ich sehe hier durchaus eine beträchtliche Wahrscheinlichkeit, daß ein solches Vorgehen das Risiko hat, die Antworten eher zu randomisieren als eine richtige Lösung auszugeben.
 
  • Gefällt mir
Reaktionen: andy_m4
Da setzt man das Wort schon in “” und dann sowas 😁🙄🙈
 
FrAGgi schrieb:
Ich kenne mehr Leute die KI nutzen als Leute die es nicht nutzen. Nicht alle jeden Tag, aber immer wieder mal.
Das ist der Punkt, den ich damit ausdrücken wollte. Selbst „Immer mal wieder nutzen“ ist für ein Konzern kein Geschäftsmodell. OpenAI redet von 800 Mio. wöchentlichen Nutzern nur für ChatGPT. Es geht nicht um KIs im Allgemeinen mit Grok, Gemini und Copilot usw. Es gibt Länder, in denen ChatGPT nicht verfügbar ist. Auch gibt es Menschen, die zu alt oder zu jung sind. 800 Mio. können nur dann stimmen, wenn Nutzer mehrfach gezählt werden. Oder aber Anfragen zu OpenAI umgeleitet werden, wenn z.B. mein Mercedes-MBUX mich nicht verstanden hat.
Ergänzung ()

Ayo34 schrieb:
Erstmal, Glückwunsch das du zählen kannst. Eine Eigenschaft, die sehr wertvoll sein kann.

Bei über 8 Milliarden Menschen und 800 Millionen Nutzern macht es ja auch irgendwie Sinn, dass mehr Leute es nicht verwenden, als verwenden?
Warum so unfreundlich?

Es geht um wöchentliche Zahlen. Wenn du einen längeren Zeitraum betrachtest, können es auch 800 Mio. Menschen in 10 Wochen sein oder aber auch 8 Mrd. Menschen im gleichen Zeitraum.

Von den 8 Mrd. musst du alte Menschen, kleine Kinder, Regionen ohne ChatGPT, arme Länder, gesperrte Länder uvm. abziehen. 800 Mio. bezieht sich auf nur auf ChatGPT und nicht auf alle KIs. Aus diesem Grund können 800 Mio. Menschen eher ausgeschlossen werden. 800 Mio. Anfragen von unterschiedlichen Geräten kann schon eher passen. Somit ist die Zahl eine irreführende Angabe.

Aber mal ganz ehrlich. 95% der Nutzer zahlen nichts für diese KI. Das bedeutet auch, dass von einer ausgiebigen Nutzung abgesehen wird. Also nutzt es kaum jemand so wirklich „richtig“.
 
Zuletzt bearbeitet:
Zurück
Oben