News ChatGPT: OpenAI will Sprachmodellen das „Halluzinieren“ abgewöhnen

diese Verharmlosung ist nicht Ohne. Erklaer mal deiner Omi diesen Text, wenn jemand der Omi bereits eingeblaeut hat, dass alle Antworten richtig sind
 
Blau&Gruen schrieb:
Ich könnte mir vorstellen, dass es auch von den Fragen abhängt, die gestellt werden
rwp schrieb:
Ein falsches Ergebnis auch aus einer unpräzisen Frage resultieren.
Das kannst du aber nicht steuern. Wie und was geantwortet wird, ist der einzige Ansatzpunkt.
Das wird alles noch paar Jahre in den Kinderschuhen stecken und wirklich drauf verlassen, würde ich mich nie.
 
Wen möchtest du steuern?

Ein Fragesteller kann sehr wohl auf Präzision achten und ggf. hilfreiche Verknüpfungen für Antwortende herstellen. Egal ob Mensch oder KI. Der KI beizubringen zu differenzieren, welche Fragen präzise sind um richtig beantwortet werden zu können halte ich auch für schwierig. Das Ergebnis mit Quellen Belegen und zu verifizieren und Annahmen, wahrscheinliche Ergänzungen und Verknüpfungen auszuweisen und kenntlich zu machen wäre aber technisch möglich. Richtig ist, es dauert noch.
 
nun, souverän vorgetragene Ahnungslosigkeit ist kein Phänomen, dass erst du generative KIs entstand. die gab es vorher auch schon Real, in Form von Menschen. Das Problem wurde bis heute nicht gelöst, somit werden es auch KIs nicht lösen (konventionell)
 
  • Gefällt mir
Reaktionen: 7H0M45
rwp schrieb:
Ein Fragesteller kann sehr wohl auf Präzision achten und ggf. hilfreiche Verknüpfungen für Antwortende herstellen.
Nein. 🙂 Wirf einen Blick in Support-Foren, dann wird dir das sofort klar. Du kannst nicht jedem Menschen beibringen, wie eine Frage korrekt gestellt wird. Eine wirkliche KI müßte sowas berücksichtigen. Alles andere ist am Ende murks oder halt nur für eine kleine Gruppe von Menschen wirklich geeignet.

Fällt mir grad ein:

Auch ein gutes Beispiel: https://www.computerbase.de/forum/threads/meine-gpu-zeigt-20ms-an-ist-das-normal.2146549/
Da knallt bei jeder KI die Sicherung durch. ^^
 
Zuletzt bearbeitet:
Sämtliche aktuell existierenden AIs sind mittlerweile nutzlos, da man diese gerade mit aller Gewalt in eine gewünschte Richtung trimmt und ihnen sämtliche eigenen Schlussfolgerungen austreibt! ChatGPT und BingAI sind tot!
 
Zuletzt bearbeitet von einem Moderator:
Kuristina schrieb:
Nein. 🙂 Wirf einen Blick in Support-Foren, dann wird dir das sofort klar. Du kannst nicht jedem Menschen beibringen, wie eine Frage korrekt gestellt wird. Eine wirkliche KI müßte sowas berücksichtigen.

Das "Nein" passt mMn nicht, da ich von "können" rede. Aber ja, ich habe dabei schon vorausgesetzt der Fragende nimmt sich Zeit und bemüht sich darum sich verständlich auszudrücken.

Die Faulheit eines Nutzers kann KI nicht beeinflussen. Dann kann aber auch kein Anspruch auf Richtigkeit bestehen, wie ihn manche stellen. Ein korrektes, logisches Ergebnis könnte in so einem Fall auch sein "Auf diese Frage habe ich keine Antwort." Anstatt irgendein oder mehrere Ergebnisse zu liefern.

Es ist primär nicht Aufgabe der KI Nutzer zu befähigen sie richtig zu nutzen. Ein gemeinsamer Lernprozess ist aber durchaus auch heute schon möglich. Schreibschwächen könnten zum Beispiel durch Spracheingaben eliminiert werden. Wenn ich jemanden nicht verstehe, stelle ich Rückfragen um die Vielfalt an Möglichkeiten einzugrenzen. Wiederholte klärende Rückfragen können künftig dazu führen, dass eine KI individuelle schwächen in der Ausdrucksweise der Nutzer kennenlernt und versucht auszugleichen. Vielleicht nicht perfekt, aber stets ein wenig besser.
 
rwp schrieb:
Die Faulheit eines Nutzers kann KI nicht beeinflussen. Dann kann aber auch kein Anspruch auf Richtigkeit bestehen, wie ihn manche stellen. Ein korrektes, logisches Ergebnis könnte in so einem Fall auch sein "Auf diese Frage habe ich keine Antwort."
Stimmt. Logisch und korrekt. Aber auch völlig nutzlos. 🙂 Es ist nicht zwangsläufig Faulheit, einige können es halt einfach nicht besser. Das führst du ja auch an, in deinem letzten Abschnitt. Und ein menschliches Gegenüber kann das eher erkennen, entsprechend darauf eingehen und sich anpassen.

Wenn kein Anspruch auf Richtigkeit besteht, ich also die Ausgaben jedesmal erst überprüfen muss, kostet es dann nicht mehr Zeit, als es spart? Ich glaube, eine KI macht nur Sinn, wenn man sich auf das, was sie liefert, auch verlassen kann. Sonst ist es halt nur eine Spielerei.

rwp schrieb:
Es ist primär nicht Aufgabe der KI Nutzer zu befähigen sie richtig zu nutzen.
Weiß ich nicht. Dann bleibt es halt wirklich nur für einige von Nutzen, für die Masse aber eher unbedeutend.
 
rainman74 schrieb:
eigene Schlussfolgerungen
Diese "KI" hat keine eigenen Schlussfolgerungen, sie bildet lediglich die Quelldaten statistisch ab. Und da diese Daten nun mal von Menschen stammen, schließen sie hier auch eine Bandbreite negativer Eigenschaften mit ein, die OpenAI verständlicherweise nicht ungefiltert abbilden möchte.

Informationen zu filtern, ist jetzt aber auch keine wirkliche Neuheit. Die Reibung der Weltbilder wird sich vermutlich wieder legen, sobald die Ergebnisse wie bei Google personalisiert werden.
Der Anspruch auf universale "Wahrheit" ist auf Dauer wohl einfach zu wackelig, das wurde ja zur Genüge demonstriert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Blau&Gruen
Der Kabelbinder schrieb:
Diese "KI" hat keine eigenen Schlussfolgerungen, sie bildet lediglich die Quelldaten statistisch ab. Und da diese Daten nun mal von Menschen stammen, schließen sie hier auch eine Bandbreite negativer Eigenschaften mit ein, die OpenAI verständlicherweise nicht ungefiltert abbilden möchte.
Wahrheiten werden dann aber genauso gefiltert wie Unwahrheiten. Und wer entscheidet überhaupt was Wahrheit und was Unwahreit ist? Schließlich fördern solche AIs (Algorithmen) ja eben Dinge zu Tage, die man vorher noch nicht wusste oder einem so bewusst waren.

Stereotypie kommt nunmal nicht von Ungefähr.
Wenn eine "AI" ein Bild malen soll, mit explizit einem Weißen, der an ein Auto angelehnt steht, und explizit einem Schwarzen, der an ein Auto angelehnt steht, dann ist der Weiße der Coole mit Brille und einem Sportwagen und der Schwarze der aus dem Ghetto stammt (oder noch minderer) an einer Schrottkarre steht. Weils nunmal dem Durchschnitt entspricht. Das kommt ja auch nicht von ungefähr, wenn die Schwarzen Jahrhunderte zuvor unterdrückt wurden, bzw. man ihnen das durchschnittliche "weiße" Leben vorenthalten hat. Entsprechende Daten und Fotos sind in diesen Zeiten entstanden. Die AI führt diese Konsequenz schamlos und kalt zu Tage. Auch wenn es heute keiner sehen will. Soll man sowas jetzt in Zukunft verhindern? Also absichtlich Lügen erzeugen, nur damit diese zu "politisch korrekten" Ergebnissen führen? Die Probleme die da sind, ausblenden, damit die Welt schön heil erscheint? Keiner sie zu Gesicht bekommt, was falsch in der Welt läuft?

Was da gerade in Sachen "AI" passiert, ist so oder so eine ethische Gratwanderung, in der man sich zwischen Lüge, Scham und Show bewegt.

Vielleicht wäre es eigentlich gerade heute mal Zeit, die AI einfach unzensiert machen zu lassen. Damit die Menschen endlich mal von einer dritten, unpolitischen, unvoreingenommen Instanz zu Gesicht bekommen, wie fehlerhaft sie sind und was in Vergangenheit alles falsch gelaufen ist.
Aber freie Meinungsäußerung darf nichtmal die AI.
 
Zuletzt bearbeitet:
bartio schrieb:
Man munkelt es gibt Berufsgruppen die damit einen Haufen Geld verdienen:
[...] Vertriebler, [...];)
Über Funktionen und Spezifikationen zu fantasieren geht gut solang niemand mal die Funktion nutzen will.
Spätestens dann hast du als Vertriebler ein Problem.
 
blöderidiot schrieb:
"Prüderie" und "political correctness".
Vielleicht; vielleicht ist es auch einfach ein Teil eines Gesprächs, wo noch nach Worten gerungen wird.
 
Zuletzt bearbeitet: (Wörter suchen)
Michael-Menten schrieb:
Über Funktionen und Spezifikationen zu fantasieren geht gut solang niemand mal die Funktion nutzen will.
Spätestens dann hast du als Vertriebler ein Problem.
Nicht du als Vertriebler hast dann ein Problem, sondern die Techniker/Programmierer die den Stuss, den die Vertriebler dem Kunden versprechen, ausbaden müssen. Die "Umsetzer" sind nämlich für die Umsetzung zuständig, Vertriebler hingegen nur für Händeschütteln, Klinkenputzen, Smalltalk und Blenden.

Zumindest ist das meine Erfahrung, als Derjenige der über Jahre "Umsetzer" war.
 
Zurück
Oben