News ChatGPT: OpenAI will Sprachmodellen das „Halluzinieren“ abgewöhnen

Kleiner Tipp: Oftmals genügt dieser oder ein ähnlicher Satz nach dem Prompt: "

Führe zum Schluss einen Faktencheck durch, um die Richtigkeit des gesamten Inhalts zu überprüfen und zeige mir den Faktencheck an."

Dann wird (meist) aufgeschlüsselt, woher die Fakten sind (ChatGPT oder BingChat geben konkrete Websites an) und es wird nochmals überprüft, ob die Inhalte mit dieser (- oder den) Websites übereinstimmen.
 
  • Gefällt mir
Reaktionen: Blau&Gruen
Der Prompt geht im Moment noch vom User aus. Wenn LLM selbständig sich Fragen zu stellen beginnt, verändert sich natürlich der Prozess. Vielleicht könnte man von einem cartesianischen "Ich" oder einer "Monade" sprechen bezogen auf die LLM, sobald ein solcher Zustand erreicht ist.
 
Zuletzt bearbeitet:
Es gibt keine KI!

Das was unsere bekifften Medien hier als KI verkaufen ist nichts anderes als irgendwelche Algorithmen die sämtlichen Müll aus dem Internet ziehen und kombinieren.
Und dann kommt da am Ende auch nur Müll raus wenn man am Anfang Müll hineinwirft.

Als wären die letzten 15 Jahre, seit es "Smartphones" gibt, nicht schlimm genug gewesen wenn man sich die geistige Entwicklung der Menschheit anschaut.
Nein, man muss auch noch solche künstlichen Verschwörungsmaschinen erschaffen.

Also wenn ich ein Außerirdischer Forscher wäre und ich würde hier ankommen würde ich schnell wieder verschwinden!
 
  • Gefällt mir
Reaktionen: SirSinclair und pvcf
Die Post wurde gelöscht. Da stand etwas, was mir jetzt unverständlich scheint.
 
Zuletzt bearbeitet: (Quatsch gelöscht.)
Diesen Sprachmodellen kann man zur Zeit etwa so vertrauen, wie einem Bekannten. Der behauptet manchmal auch irgendwelche falschen Fakten so überzeugend, dass Unbedarfte ihm unbesehen glauben.
 
Das es sich bei chatGPT um einen CHAT-bot handelt, ist das Ergebnis auch nur so gut wie derjenige der davor sitzt und die Prompts gibt. Chatgpt-4 kann für mich schon fast alles was es muss. Ich kann 5 tausend Zeilen Code einlesen und den bot bitten doch alles auf C++ umzuschreiben. Das Ergebnis ist fast zu 100% korrekt. Wenns nen Fehler gibt, einfach Fehlercode mit Zeilennummer kopieren und der bot korrigiert selbst.

In Sekunden Tests erstellen, mit den neuen Plugins in Echtzeit die besten Aktieninvesments finden die die "KI" aus tausenden Metriken ermittelt.

Wer diese "KI" abschreibt bleibt zurückgelassen.
 
  • Gefällt mir
Reaktionen: calluna, rosenholz, _dubi und eine weitere Person
Es lassen sich damit auch Gedichte lesen. In diesem Fall kommentiert der Notizzettel die Notiz und korrigiert Missverständnisse, wenn man ihn fragt. Das kann witzig sein. "Errare humanum est" - um beim Thema zu bleiben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rosenholz
Diese Halluzinationen sind teilweise nervig bis lustig. Selbst bei eindeutigen und leichten Fragen fiel mir das schon auf. Wieso kommt sowas überhaupt vor?

Es fehlt eine wirkliche KI die menschliches Verhalten auf Twitter/Foren nachahmt. Also zynisch sarkastisch mit viel ideologischer Besserwisserei.
Da hat DeppenGPT schon eine gute Vorarbeit geleistet....

1685774238242.png


Nun aber im grossen Stil bitte.
7H0M45 schrieb:
Ein LLM hatte ja eigentlich nie den Anspruch auf Korrektheit, nur auf gute Sprache
Man munkelt es gibt Berufsgruppen die damit einen Haufen Geld verdienen:
Marketing-"Experten", Influencer, Vertriebler, Politiker, uvm ;)
 
bartio schrieb:
Wieso kommt sowas überhaupt vor?
Weil das GPT-Modell dahingehend verstärkt wurde, stets logisch klingende Sätze zu konstruieren. Es wurde aber nicht darauf hin optimiert, ein semantisch logisches Modell der Welt wiederzugeben und außerdem kenntlich zu machen, wenn eine Anfrage nicht eindeutig zu beantworten ist.

Um Chomsky zu zitieren: ChatGPT hat kein kausales Denkvermögen, sondern kann nur eintrainierte Zusammenhänge seiner Datenbasis beschreiben. Sieht so aus, als würden wir das ohne Redesign der Architektur auch nicht überwinden können.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, SirSinclair, rosenholz und 2 andere
DerFahnder schrieb:
Ich schwöre wenn ich noch einmal heute irgendwo AI oder ChatGPT lesen muss...
Es ist 8:25 und ich hab für heute schon meine Maximaldosis wieder gehabt.
Aber der schwachsinnige Hypetrain für die ganzen Startups ist noch nicht auf 320 km/IPO.

Da müssen jetzt ein paar Börsenanalysten abgezogen werden bis die merken, dass die alle mit unseren Output gefüttert werden (Stackoverflow und Reddit) bis dir merken - das sind Textvorhersagesysteme. ChatGPT hat es im Namen* und Computerbase gut erläutert.

Im Wortsinne eine KI mit Intelligenz (ich lebe, ich denke, ich möchte…) ist es nicht. Nicht mal im Ansatz.

* Wird von allen vollumfänglich ignoriert.
 
muss es auch nicht sein - es ist halt eine andere Form von Intelligenz, die ja auch erst ganz am Anfang der Entwicklung ist.

Ich habe hier lokal z.b. gpt4all laufen das mit einem winzigen trainierten verfeinerten Netz (8 Gbyte!) auch schon richtig viel mitbringt.

https://gpt4all.io/index.html

Kann ich das wirklich aktuell sinnvoll nutzen - Nö - aber es zeigt halt wie extrem gut sich Wissen komprimieren lässt - und zwar komprimieren auf eine Weise die nicht mehr mit "Packalgos" zu tun hat, sondern Wissen auf eine neue Art extrahiert.
 
Halluzinationen haben auch Menschen im Internet, welche Berichte, Fake-News, Pseudo-Fakten, etc. schreiben.

Einem Sprachmodell, welches man "KI" bezeichnet, beizubringen keine "Halluzinationen" zu haben ist nach meinem Verständnis völlig unmöglich, weil dieses Sprachmodell niemals erkennen kann, welche Menschen sich Fakten ausdenken oder falsch interpretieren.
Außerdem konnte man in den letzten Monaten sehr gut nachverfolgen, wie stark die Ergebnisse zensiert oder manipuliert wurden. Sehr oft nur, weil man eine politische Agenda verfolgt und deshalb sogar echte Fakten bewusst verfälscht oder vorenthält.
 
Naja es gibt aber auch im open source Bereich "uncensored Modelle" und selbst google geht davon aus, dass die Open Source Modelle OpenAI+ChatGPT und Co bald überholen.

Glaube das es da auch freie FineTuning Modelle gibt mit denen man selber dann das machen kann.-
 
GeleeBlau schrieb:
In Sekunden Tests erstellen, mit den neuen Plugins in Echtzeit die besten Aktieninvesments finden die die "KI" aus tausenden Metriken ermittelt.
Genau das, ist brandgefährlich wenn man an der Börse erfolgreich sein will. Woher weißt du ob die Werte in der Liste wirklich die besten sind und ob sie überhaupt die Metriken erfüllen? Genau darum geht es ja, du musst die Informationen danach nochmal überprüfen.


bartio schrieb:
Es fehlt eine wirkliche KI die menschliches Verhalten auf Twitter/Foren nachahmt. Also zynisch sarkastisch mit viel ideologischer Besserwisserei.
Da hat DeppenGPT schon eine gute Vorarbeit geleistet....



Nun aber im grossen Stil bitte.
Microsoft hatte sowas doch mal im großen Stil getestet, mit dem Ergebnis, dass das ding recht schnell Faschistischs und Rassistische Dinge von sich gegeben hat



DieRenteEnte schrieb:
Halluzinationen haben auch Menschen im Internet, welche Berichte, Fake-News, Pseudo-Fakten, etc. schreiben.
Nicht jedem Mensch im Internet ist auch tatsächlich Intelligenz zuzuschreiben 😉
 
@7H0M45
Wissen im Sinne von totale Wahrheit gibt es an der Börse gar nicht. Es geht darum, dass es bei zwei durchschnittlichen Investoren, einer mit Standardhilfsmitteln und einer mit Echtzeitdatenauswertung durch KI, immer einen und den selben Gewinner gibt in 99 von 100 Fällen. Man kann es sich in Zukunft quasi nicht mehr leisten dieses Hilfsmittel nicht zu nutzen da man sonst abgehängt wird.

Gesammelte fertige Metriken überprüfen geht schnell und einfach, auch weil chatgpt auf Prompt hin dir alle Quellen, Formeln und Erklärungen bietet. Das nervige am Arbeiten ist doch meistens die 70-90% der Zeit die man mit unnötiger Fleißarbeit beschäftigt ist. Tests schreiben hat sich erledigt mit chatgpt. Die Zeit die man spart wird in mehr Gewinnerzielung investiert. Wer in 5 Jahren nicht effektiv mit einer "KI" arbeiten kann wird im höher bezahlten Arbeitsmarkt abgehängt.
 
  • Gefällt mir
Reaktionen: 7H0M45
ChatGPT ist in der Hinsicht vielleicht auch nur eine weitere Etappe der ökonomischen Optimierung und Automatisierung von Schrift. Früher war es mal die Schreibmaschine, die das Verfassen von Texten vereinfacht, normiert und beschleunigt hat. In der Zukunft werden kurzerhand Sprachmodelle gepromptet, um z.B. eine geschäftliche E-Mail zu beantworten oder die Ergebnisse eines Meetings zusammenzufassen. Das hat Google ja bereits demonstriert, und es wird sich aufgrund fortlaufender Tweaks und der immensen Zeiteinsparungen sicherlich auch zügig normalisieren. Mehr Zeit, höhere Effizienz, stärkerer Umsatz.

Mal schauen, was wir in dem Zuge alles verlernen werden. 😬
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, Blau&Gruen und 7H0M45
Oh, also werden die Texte die unsere Politiker so veröffentlichen auch vorwiegend per KI erzeugt. Hätte nicht gedacht das die schon so weit sind ... also unsere Politiker.
 
Die aktuelle Kritik zur aktuellen Technik und den Zweifeln möchte ich doch betonen das generative KI unser aller leben in den nächsten Jahren maßgeblich verändern wird. Man sollte sich definitiv damit befassen welches Wissen man heranwachsenden und kommenden Generationen auf herkömmlichem Weg durch Erziehung und Bildungssysteme vermitteln möchte und muss. Herausfordernd wird sein wie man es schafft, dass individuelle kognitiven Fähigkeiten des Menschlichen Gehirns nicht verkrüppeln.

@blöderidiot in deinem Beispiel #9 setzt du deine Fähigkeiten und Kenntnisse ein um deine Aufgabe korrekt und effizient zu lösen. Prinzipiell sind das Informationen die einer KI zugänglich gemacht werden können. Stellt man Menschen diese Frage müsste man das Ergebnis auch prüfen und hätte ohne genaue externe Quelle nur den Film selbst. Ein falsches Ergebnis auch aus einer unpräzisen Frage resultieren. Von Filmen existieren mitunter mehrere Fassungen. Wird eine unpräzise Frage gestellt wird die KI der eigenen Logik folgen und einer demnach wahrscheinliches Ergebnis liefern. Ein Großteil dieser Com ist in einer Zeit aufgewachsen in der das eigene Gehirn für alles eingesetzt werden musste, was man nicht in einem Lexikon nachschlagen konnte. Dabei unterlaufen uns auch Fehler. Werden wir darauf hingewiesen oder spüren wir die Konsequenzen, dann lernen wir. Die Aufgabe hier ist es der KI beizubringen, was richtig und was falsch ist oder durch zunehmende Optimierung der Logik und Erweiterung der Daten zu befähigen die Aufgabe künftig richtig zu lösen. Oder bei einer zu unpräzisen Frage mehr Details zu fordern.
 
Zurück
Oben