News Sam Altman zu GPT-5: OpenAI trainiert derzeit keinen GPT-4-Nachfolger

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.742
  • Gefällt mir
Reaktionen: flo.murr
Musk's Unterzeichnung in dem Brief kam mir eher so vor wie "Scheiße ich bin ausgestiegen als es gerade richtig los ging, könnt ihr Mal 6 Monate warten, damit ich Zeit hab wieder mit zu spielen?"
 
  • Gefällt mir
Reaktionen: aid0nex, DaBo87, $$coffee und 49 andere
Es war so abzusehen, dass Musk die Pause nur gefordert hat weil er selbst den Anschluss verloren hat. Alberner Typ.
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, ScorpAeon und 29 andere
die sollen erstmal die problematik lösen, dass chatgpt sachverhalte erfindet, obwohl es nach fakten gefragt wird. das ding ist es gut darin, fehlinformationen selbstsicher zu präsentieren, aber das ist wohl hoffentlich nicht das ziel gewesen.
 
  • Gefällt mir
Reaktionen: aid0nex, Recharging, derMutant und 7 andere
Ich bin gespannt, wie das weiter geht. Vor allem bei uns an der Schule. Die Smartwatch ist ja schon fast alltäglich. Schülern ist nicht immer bewusst, dass diese einen Täuschungsversuch darstellt, sofern man sie am Handgelenkt trägt.
 
@0x8100 Ich habe irgendwie keinen Zweifel, dass das weiterhin weit oben auf deren Prioritätenliste steht...

Reduzierte Tendenz zu 'Halluzinationen' wurde schon beim Schritt von GPT 3.5 auf 4.0 groß beworben.

brabe schrieb:
Schülern ist nicht immer bewusst, dass diese einen Täuschungsversuch darstellt, sofern man sie am Handgelenkt trägt.
Würde ich als Schüler, der beim Schummeln ertappt wurde, auch behaupten.

Natürlich wissen die das. Eher würde ich glauben, dass einige von denen schlicht vergessen haben, dass sie die Smartwatch tragen, weil das Teil am Handgelenk so alltäglich ist und genau wie die Unterwäsche zum morgendlichen Ankleiden dazu gehört.
 
  • Gefällt mir
Reaktionen: Jensb. und alan_Shore
0x8100 schrieb:
die sollen erstmal die problematik lösen, dass chatgpt sachverhalte erfindet, obwohl es nach fakten gefragt wird. das ding ist es gut darin, fehlinformationen selbstsicher zu präsentieren, aber das ist wohl hoffentlich nicht das ziel gewesen.

Garbage in, garbage out. Das gilt auch für ChatGPT. Mal abgesehen davon, das ich es komisch finde, dass Leute irgendwie meinen einen Anspruch darauf zu haben das die KI nur korrekte Daten liefert.
 
  • Gefällt mir
Reaktionen: Nomad_soul, Bonanca und Rockstar85
@Piranha771 das ding kann gerne sachen erfinden, wenn es dazu aufgefordert wird. standardmässig muss es aber korrekte daten liefern, sonst darf man es nicht auf die allgemeinheit loslassen. in der realität habe ich auch keine lust darauf, jemanden um hilfe zu fragen und dreist angelogen zu werden :)
 
  • Gefällt mir
Reaktionen: derMutant und qappVI
Das erste was praktisch schon zu spät ist, dass Gesetze erst gemacht werden, wenn das Kind schon im Brunnen liegt.
Weiter wird es ja nicht nur eine ChatGPT Plattform geben, sondern nicht nur je nach Unternehmen, sondern auch je nach Nation. Was natürlich auch noch beinhaltet, dass je nach politischen System, Kulturkreis und Traditionen diese Geräte programmiert sind.
Er werden also dann Menschengruppen über den Weg einer Maschine benachteiligt werden. Dann werden Glaubensrichtungen, sexuelle Neigungen, Erscheinungsbild von der Maschine bewertet, die ja nach Nation und Kultur programmiert wurde. Gefühle, Menschlichkeit und Ausstrahlung werden weniger in einer Bewertung fließen.
 
  • Gefällt mir
Reaktionen: ScorpAeon
Alesis schrieb:
Weiter wird es ja nicht nur eine ChatGPT Plattform geben, sondern nicht nur je nach Unternehmen, sondern auch je nach Nation.
apropos nation: vielleicht mal dieses video anschauen. baidu hat nach dem erfolg von chatgpt quasi aus dem nichts ihre ki "ernie" vorgestellt. das ding verhält sich sehr eigenartig, was sich damit erklären lässt, dass die anfragen intern aus dem chinesischen wörtlich ins englische übersetzt werden und dann der ki zugeführt werden. ist wohl doch nur eine kopie eines vorhandenen models gewesen... :)
 
0x8100 schrieb:
die sollen erstmal die problematik lösen, dass chatgpt sachverhalte erfindet, obwohl es nach fakten gefragt wird. das ding ist es gut darin, fehlinformationen selbstsicher zu präsentieren, aber das ist wohl hoffentlich nicht das ziel gewesen.
Naja es lernt ja auch von uns Menschen somit ist es nicht üblich, dass es auch falsch Informationen verbreiten könnte.
 
selbst wenn wir diese theorie annehmen, so darf es nicht sein, dass es fehlinformationen verbreitet. es gab ja selbst schon beispiele, in denen chatgpt seine unwahrheiten mit erfundenen quellen belegt hat, die es gar nicht gibt. auf eine fake-news verbreitende ki kann ich gut verzichten.
 
Piranha771 schrieb:
Musk's Unterzeichnung in dem Brief kam mir eher so vor wie "Scheiße ich bin ausgestiegen als es gerade richtig los ging, könnt ihr Mal 6 Monate warten, damit ich Zeit hab wieder mit zu spielen?"
Hahaha, genau so ist es.

Musk das "Bissness Genie" hats mal wieder vergeigt.🤣
 
0x8100 schrieb:
standardmässig muss es aber korrekte daten liefern,

Nein muss es nicht.

0x8100 schrieb:
... sonst darf man es nicht auf die allgemeinheit loslassen.

Ich kann auch eine Seite ins Netz stellen auf der steht "Fakten über die Welt" und darunter zufällig erzeugte Sätze mit schwachsinnigen Aussagen. Sowas nennt sich Freiheit und es obliegt ganz allein dir was du aus diesen Daten interpretierst.

Die Leute probieren (mal wieder) ihre Verantwortung bei irgendjemand Anderem abzugeben.
 
  • Gefällt mir
Reaktionen: matze313, Nomad_soul, SteeL1942 und 5 andere
Piranha771 schrieb:
Ich kann auch eine Seite ins Netz stellen
dann bist du aber von vornherein keine besondere vertrauenswürdige quelle. wenn microsoft & co. das in ihre suchmaschinen einbauen und falschinformationen auf seite 1 der suchergebnisse auftauchen, dann hat das eine andere dimension. und ja, dafür haben dann die betreiber die verantwortung.
 
  • Gefällt mir
Reaktionen: ZwiebelritterAG
0x8100 schrieb:
dann bist du aber von vornherein keine besondere vertrauenswürdige quelle.
Nicht mehr oder weniger vertrauenswürdig als aktuelle Suchmaschinen wie Google oder Bing oder auch Wikipedia.

Auch da sind die Einträge längst nicht immer zuverlässige (oder neutrale) Quellen - so viel Mühe Wikipedia sich auch gibt.
 
  • Gefällt mir
Reaktionen: Chris007
Rickmer schrieb:
Nicht mehr oder weniger vertrauenswürdig als aktuelle Suchmaschinen wie Google oder Bing oder auch Wikipedia.
dem würde ich widersprechen. wikipedia ist keine unumstössliche institution, aber vertrauenswürdiger als irgendwelche esoterikseiten wenn es z.b. um technische sachverhalte geht. und es ist ja gut, wenn wir hier den wahrheitsgehalt von webseiten und tools hinterfragen - millionen und wahrscheinlich milliarden anderer menschen tun es nicht und nehmen eben einfach die infos von seite 1, die dann aber richtig sein sollen und nicht von einer halluzinierenden ki kommen dürfen.
 
  • Gefällt mir
Reaktionen: ZwiebelritterAG und krong
0x8100 schrieb:
die sollen erstmal die problematik lösen, dass chatgpt sachverhalte erfindet, obwohl es nach fakten gefragt wird. das ding ist es gut darin, fehlinformationen selbstsicher zu präsentieren, aber das ist wohl hoffentlich nicht das ziel gewesen.
Ist ja bei vielen Internet-Nutzern auch nicht anders :D
 
  • Gefällt mir
Reaktionen: Miuwa und cloudman
0x8100 schrieb:
die sollen erstmal die problematik lösen, dass chatgpt sachverhalte erfindet, obwohl es nach fakten gefragt wird. das ding ist es gut darin, fehlinformationen selbstsicher zu präsentieren, aber das ist wohl hoffentlich nicht das ziel gewesen.
Btw.: In dem verlinkten Tweet wird GPT-3.5 verwendet, ist sehr wahrscheinlich dass GPT-4 das jetzt besser macht.
 
Rubyurek schrieb:
Naja es lernt ja auch von uns Menschen somit ist es nicht üblich, dass es auch falsch Informationen verbreiten könnte.
Die Falschinformationen durch die KI haben aber nichts damit zu tun, dass es von Menschen lernt. Das ist ein technisches Problem, welches eine der größten Hürden bei der zukünftigen Entwicklung sein dürfte.
 
Zurück
Oben