News ChatGPT: OpenAI gibt GPT-5 für alle Anwender frei

Hab gerade ein bisschen Spanisch geübt, macht schon Bock. What a time to be alive
 
  • Gefällt mir
Reaktionen: Azdak
Jetzt ergibt alles Sinn. 4o hat mir die letzten zwei Wochen massiv Nerven geraubt, weil es einfach selten-dämlich und häufig sehr offensichtlich sehr falsche Informationen geliefert hat.

wo ist der blöde Aluhut - ah da Macht sich natürlich gut jetzt, der Vergleich zwischen 4o und 5. :)

Und eigentlich würde ich solche Theorien ja in die Märchen-Ecke stellen, aber der Abfall in der Qualität war dafür imho zu massiv - oder meine Use-Cases zu nieschig, was natürlich auch sein kann. Auf jeden Fall wäre ich dankbar, wenn das "neue 5" zumindest so gut funktioniert wie das alte 4. :schluck:
 
Ich finde es lustig wie hier einige Entwickler nur Copilot und Sonnet 4 als Benchmark sehen. Nutzt mal einen Monat Claude Code mit Opus 4.1. Das ist der Benchmark
 
  • Gefällt mir
Reaktionen: Colin -
Flutz schrieb:
Aktuell gibts auf Mydealz ein Angebot für Perplexity Pro 1 Jahr für unter 5€, falls es den ein oder anderen interessiert.
Das sieht sehr nach "vom Laster gefallen" aus die Aktion
 
rescuemod schrieb:
Gestern war der Imker bei uns im Haus und ich durfte mir gehen. Seine Tätigkeit ist eigentlich gar nicht so uninteressant. Denn je mehr ich sehe, wie viel AI übernimmt und kann, desto mehr denk ich darüber nach, ob mein Job als Softwareentwickler noch Sinn macht 😅

Dazu gab es auch ein Instagram Video mit dem neuen GPT-5. Der Herr schrieb den Prompt "Entwickel mir ein Minesweeper-Spiel" und GPT-5 haute das mühelos raus. Wie gekocht bin ich als Softwareentwickler? 😵‍💫
jo ct3003 meine ich hat das auch getestet (Youtube).

+ mach ein Spiel das doll Spass macht - danach dann noch mit Soundeffekten und Bonuswaffen etc - hat auch auf Anhieb geklappt. das schon nice.


Glaube selber compilieren debuggen und fixen ging bisher nicht so gut.
 
nighteeeeey schrieb:
Naja, noch nicht ganz. ;)
1754684746107.png


Geht doch. :)
 
  • Gefällt mir
Reaktionen: knoxxi
ueg schrieb:
Ich weiß ja nicht was du arbeitest, da du das ja nicht sagst, aber vielleicht kontaktiert dann der Kunde zukünftig einfach eine KI die mit ihm so lange rumdiskutiert, bis alles geklärt ist?
Die KI würde ich gerne mal erleben 😁
 
Sieht bisher nach einem ordentlichen Update aus. Ich benutze hauptsächlich die Pro-Varianten der Modelle und GPT-5 schafft es tatsächlich mal Anweisungen zu befolgen und scheint auch etwas mehr Problemlösungskompetenz zu besitzen. Sicherlich ist es immer noch saudämlich aber wenigstens lässt es mich nicht mehr alle fünf Minuten die Haare raufen.
Bleibt nur zu hoffen, dass die Leistung nicht nach ein paar Wochen wieder zurück gefahren wird, denn genau so hat sich das bei den Vorgängermodellen angefühlt, was ich natürlich nicht beweisen kann.
 
  • Gefällt mir
Reaktionen: njal
Enurian schrieb:
Nicht alles wächst exponentiell wie Rechenleistung. Manche Leute dachten auch, 2025 fliegt man zur Arbeit, weil sich ja alles so schnell entwickelt...
Die Realität ist, dass es meist immer schwieriger und langsamer wird, je komplexer das Problem. Siehe zum Beispiel selbst fahrende Autos. Oder auch die AI-models selbst: die Fortschritte werden bereits langsamer trotz der immensen Investitionen. Die aktuellen Tools sind das "Mindeste", um überhaupt nützlich zu sein und einen Entwickler bei der Arbeit zu beschleunigen und extrem weit davon weg, mehr als Code monkeys zu ersetzen. Ob es je dazu kommt, steht völlig in den Sternen, aber in 10 Jahren halte ich das für absolut unrealistisch.
Nun in machen Teilen China lassen sich immer mehr Menschen schon fahrerlos zur Arbeit bringen _ das ja dort schon fast Alltag z.B. in Wuhan. Und dabei wird der Hintern massiert auf Wunsch - das kann fast mit Fliegen mithalten :D
 
Neo772™ schrieb:
Ich finde es lustig wie hier einige Entwickler nur Copilot und Sonnet 4 als Benchmark sehen. Nutzt mal einen Monat Claude Code mit Opus 4.1. Das ist der Benchmark
Da es das ja erst 3 Tage gibt, kannst du das ja schon mal selbst nicht gemacht haben.
Preis + Verfügbarkeit macht das halt zu Birnen, während hier über Äpfel geredet wird. Ich bezweifle dass du das aktiv als Entwickler nutzt: Selbst mit dem Max-Tarif wirst du in der Nutzung stark limitiert - nichts für einen Alltagshelfer.
 
Die Leistungsreduktion habe ich auch war genommen. Anfangs waren 4o, 4.1 und 4.5 richtig gut. Aber zum Ende hin wurden sie gefüllt immer dümmer und haben teilweise andere Dinge gemacht. Auch hatte ich das Gefühl, sie wollten mir eher ihr Bestandswissen aufzwingen, als im Internet auf Aktualität zu recherchieren.

z.B. 1
Ich wollte von einem Nachrichtenartikel den Wahrheitsgehalt prüfen und weitere Informationen dazu. Ich habe komplett etwas anderes als Antwort erhalten. Erst nach Beanstandung und dem konkreten Fehlhinweis kam dann eine halbwegs gute Antwort.

z.B. 2
Ich wollte zu einer Library wieder einen Demo Code-Snippet haben, da in dessen Doku nicht alle Attribute dokumentiert waren und hatte mir erhofft wieder eine gute Lösung zu bekommen, die ich selbst weiter erschließen kann. So wie zuvor auch. Zum Ende hin haben die Sprachmodelle es nicht einmal mehr geschafft richtig im Internet oder in der Doku zu recherchieren. Teilweise wurden eine alte Version als Referenz genutzt.
 
Enurian schrieb:
die erste (nicht ganz triviale) Aufgabe
Ist das der Trick? Die Aufgabe möglichst komplex gestalten? ^^

Als ich zuletzt (paar Monate) ChatGPT nach Diablo 2 Runenwörter und Baldurs Gate 3 NPC Orte gefragt habe waren die Ergebnisse meist eher unbrauchbar bis komplett falsch (Bei Gemini manchmal besser, manchmal gleich mies)

Wow, das ist dann wirklich ne KI. Allerdings ne faule, gibt sich nur Mühe wenn die Aufgabe auch ihren Ansprüchen entspricht^^
 
uncoole Änderung.
ich nutze ChatGPT (in der für Umme Fassung), zusammen mit deepl.com für den Feinschliff, für Übersetzungen primär über die Opera Integration. Wenn ich bisher mein eh schon recht kleines "ChatGPT 5" Kontingent aufgebraucht hatte, sprang es auf das alte Modell ohne Kontingent zurück, was für Übersetzungen überwiegend völlig ausreichend ist.
Nun fehlt aber dieser Fallback, so dass ich entweder Pause machen muss, oder doch wieder nur auf deepl.com setzen kann, was aber eher an seine Grenzen stößt, wenn es z.B. darum geht für Redewendungen das passende Gegenstück zu verwenden, oder ein bestimmter sprachlicher Unterton (Formale / Informelle Formulierungen, Ironie, ...), bestimmte Formulierungen vermieden werden sollen oder gezielt erwünscht sind, erforderlich ist.

Natürlich wäre ChatPGT Pro eine Lösung, aber für meinen Einsatzzweck sind mir 29 23€ im Monat dann doch zu viel.
Wenn das Kontingent so schmal bleibt, werde ich wohl ChatGPT wahlweise den Rücken kehren und mich nach einer brauchbaren "zugänglicheren" Alternative umschauen, oder auf bis zu 6 Browser (Brave, Firefox, Vivaldi, Opera, Edge und Chrome) verteilt, mit jeweils einem eigenem Fake Account, nutzen
 
Zuletzt bearbeitet:
njal schrieb:
Anfangs waren 4o, 4.1 und 4.5 richtig gut. tAuch hatte ich das Gefühl, sie wollten mir eher ihr Bestandswissen aufzwingen, als im Internet auf Aktualität zu recherchieren.
Herzlichen Glückwunsch, du hast die Funktionsweise von non Reasoning-Modellen verstanden.
Für tagesaktuelle Informationen sollte die Internetsuche aktiviert werden.
Oder direkt o3 nutzen.

Ich finde die Behauptungen es würde noch mindestens 10 Jahre dauern, bis man Ki "vernünftig" nutzen kann schon sehr amüsant.
Kann denen die Paper von Leopold Aschenbrenner sehr ans Herz legen ;)

scootiewolff22 schrieb:
auf Reddit häufen sich die Beschwerden
Wasser ist nass
 
Es soll [...] einfacher zu benutzen sein als die vorherigen Veröffentlichungen
wie genau kann man sich das vorstellen? Wie kann man "text eingeben, Antwort erhalten" einfacher gestalten? keinen text eingeben, trotzdem Antwort erhalten?
 
Brrr schrieb:
Ich setze zumindeset darauf, das jetzt die Zeit der angepassten und individualisierten Software kommt.

So wie im industriellen Umfeld?

Da gibt es so viel Müll, den ich die letzten 12 Jahre ertragen musste - da hoffe ich wirklich, dass die Software-Qualität der Zulieferer besser wird.

Davon abgesehen… wenn von Entwicklern geredet wird, wird meist die Fachdomäne vergessen - Mathematiker, Physiker, Chemiker, Biologen (insbesondere Molekular- und Neurobiologie) - da gibt es viele, die Programmieren bzw. auf diese Art ihre Gedanken ausdrücken / entwickeln, ihren Problembereich erkunden.
 
@Magellan
Jein, eine Auswahl ist schon vorhanden…
IMG_9418.png

Und dann müssen die Leute ChatGPT eigentlich nicht mehr nach der zugrundeliegenden Version fragen. Scheint mir recht eindeutig zu sein.
 
Zornica schrieb:
wie genau kann man sich das vorstellen?
Steht doch im Artikel.
Es geht darum, dass du selbst nicht mehr die beste Version für deine Anfrage wählen musst, sondern das nun für dich als Nutzer im Hintergrund übernommen wird.
 
Googlook schrieb:
... Erstens weil auch andere "viel einfacher" Software entwickeln können, und zweitens weil mit KI jeder selbst sein Tool erzeugt oder eben kein extra Tool benötigt, weil ein beliebiger KI-Agent das Problem lösen kann. ...
Schön dieses Oxymoron: Eine extra Software verhindert extra Software


/rant
.... auf jedes Problem noch mehr und und immer komplexere Software schmeißen
 
Zurück
Oben