News Zwischenschritt vor GPT-5: GPT-4.1 ist für ChatGPT Plus, Pro und Teams verfügbar

GPT-4o, o4, GTP-4.1... da blickt keiner mehr durch. Leider muss man dann immer nach Benchmarks googlen um zu sehen für welchen Anwendungsfall man was nehmen sollte.
 
  • Gefällt mir
Reaktionen: flo.murr, tidus1979, Silencium und 8 andere
Sie wollen dass du GPT benutzt um den Überblick zu behalten ;)
 
  • Gefällt mir
Reaktionen: flo.murr, Silencium, the_IT_Guy und 2 andere
Es ist wirklich einfach nur noch lächerlich, wie viele verschiedene Modelle gleichzeitig im Einsatz sind. Die Effizienz von LLMs nimmt dadurch rapide ab, weil man erstmal herausfinden muss, was für einen das richtige Modell ist.
 
  • Gefällt mir
Reaktionen: Wallwatcher, shaggy86 und EmViO
Wir befinden uns in einer experimentellen Phase, in der vieles ausprobiert wird und manches nicht wie geplant funktioniert (4.5).

Ich stelle mir vor, dass es bald nur noch ein Modell gibt, das a) alles gut genug beherrscht und b) selbst erkennt, wann es ein spezialisiertes Modell verwenden sollte. Dies könnte dann ganz dynamisch ablaufen, sodass der Nutzer sich um nichts kümmern muss und damit gut fährt.

Nur für "Profis" wäre es dann evtl. noch sinnvoll, gezielt Modelle auszuwählen.
 
  • Gefällt mir
Reaktionen: piccolo85, Palatas, Quantität und eine weitere Person
Die Entwicklung ist echt spannend mit zu verfolgen. Die zukünftigen Möglichkeiten werden bahnbrechend sein!
 
  • Gefällt mir
Reaktionen: MacFu
MacFu schrieb:
GPT-4o, o4, GTP-4.1... da blickt keiner mehr durch. Leider muss man dann immer nach Benchmarks googlen um zu sehen für welchen Anwendungsfall man was nehmen sollte.

Sehe ich auch so.

Gibt es eine gute Übersicht oder eine Faustregel für jemanden der nicht die KI studieren will, sondern sie im Alltag möglichst effizient anwenden?

Habe ChatGPT Plus und somit Zugriff auf die meisten Modelle.
 
  • Gefällt mir
Reaktionen: Plasma81
Frag doch mal deinen Plus-Account?
 
Tobi-S. schrieb:
Gibt es eine gute Übersicht oder eine Faustregel für jemanden der nicht die KI studieren will, sondern sie im Alltag möglichst effizient anwenden?
In der Oberfläche bekommst du ja zumindest ganz grob angezeigt für was die Modelle ausgelegt sind. Im Zweifel nimmst du einfach GPT-4o. Damit fahre ich ganz gut.
Mit GPT-5 wird es ja dann hoffentlich wieder leichter.
Screenshot 2025-05-15 125503.png
 
  • Gefällt mir
Reaktionen: Ayo34
Für Nichtzahler wird ChatGPT immer bekloppter und langsamer.
1747306821907.png

Teilweise kriegt es nicht mal mehr die Ausgabe in Markdown richtig hin so dass alles durcheinander aussieht. User bei Reddit und sogar im Forum von OpenAI berichtet immer wieder davon. Vor einiger Zeit gab es ein Dropdown zum Auswählen des Modells. Jetzt wird nicht mal angezeigt welches du nutzt. Die zeigen nach einer Weile ein Popup, dass bis dann und wann in Stunden von ChatGPT 4o auf ein anderes Modell umgestellt wird. Aber so langsam und dumm das vor dem Popup ist, kann das unmöglich 4o sein. Denn das war schon mal besser als jetzt. Sicher ist das Verarsche, weil es kann ja sein dass es 4o ist, nur vermutlich mit grottiger Quantisierung wie Q4 (d.h. 4 Bit) statt dem original FP16 oder FP32. Und das sagen die einem nicht.

Lokal mit LM Studio nutze ich so gut wie immer das höchste was meistens verfügbar ist: Q8 und nicht Q4 oder Q4_K_M (default Vorschlag von LM Studio). Und möglichst etwas wie 27B oder 32B (d.h. milliarden Parameter eines Modells), auch wenn das nicht komplett in 16 GB VRAM passt. 32B sind etwa 34,8 GB auf der Platte als Q8.

Als Modelle nutze ich derzeit abwechselnd: Qwen3-32B-Q8_0.gguf (von Alibaba), gemma-3-27b-it-Q8_0.gguf (von Google) und phi-4-Q8_0.gguf (von Microsoft) für Fragen über Programmieren mit Python und C++. Es gibt extrem viel über diese zwei Sprachen im Internet das ich aber nicht mehr googeln will. Wenn ich ne Frage bei Stackoverflow stelle, dauert es teils 24 Stunden bis einer antwortet. Mit lokaler KI sind es nur Sekunden.

In dem Artikel steht, dass irgendwann erscheinende ChatGPT 5 Reasoning- und Nicht-Reasoning-Ausgabe können soll als ein Modell. Ja das kann der vor ca. zwei Wochen (29.4.25) erschienene QWEN3 von Alibaba schon jetzt. Wenn man kein Reasoning (von 3 bis 15 Minuten) will, schreibt man am Anfang des Prompts "/no_think", dann antwortet er direkt ohne Reasoning. OpenAI und die anderen Chat-Firmen sind am ... Nur ne Frage der Zeit. Und mit Degradierung der Leistung für Nichtzahler kommt das nur noch schneller: Gute Nacht mein Prinz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snoop7676 und QuackerJJ
GTA 7 ist dann komplett KI generiert und hat eine lebendigere und interaktivere Welt als alle Open Worlds zuvor. Bin gespannt wann es soweit ist.
 
WhiteHelix schrieb:
So wie die Blockchain, die ja auch alles revolutioniert?
Der Vergleich hinkt, weil Blockchain zwar als „revolutionär“ gehyped wurde, in der Praxis aber viele Versprechen bisher nicht gehalten hat: Hohe Kosten, geringe Skalierbarkeit und fehlende breite Anwendbarkeit haben den großen Durchbruch bisher verhindert.

Im Gegensatz dazu adressiert KI, speziell Modelle wie GPT-4.1, konkrete und breit gefächerte Probleme in Bereichen wie Sprache, Automatisierung, Kreativität und Datenanalyse. Die Technologie ist bereits heute praktisch nutzbar und verbessert sich schnell.

Zudem ist KI flexibel und lässt sich in viele Branchen integrieren — vom Kundenservice bis zur Forschung. Deshalb ist es wahrscheinlicher, dass KI tatsächlich viele Lebens- und Arbeitsbereiche nachhaltig verändert, während Blockchain bisher eher ein Nischenphänomen geblieben ist.

Kurz: KI liefert heute echte Mehrwerte und wächst mit den Anforderungen, Blockchain kämpft noch mit grundlegenden Problemen — deswegen wird KI wohl eher kein Rohrkrepierer.

Ob GPT die Welt besser macht, der sich stunden im Kreis dreht und herum halozoniert steht jetzt wieder einem anderne Blatt Papier. Ich fühl mich ja zurzeit genötigt Grok zu nutzen, das lustigerweise GPT in der freien Version gefühlt 3 Jahre hinter sich stehen läst. Aber es gibt für KI soviele echte und nützliche Einsatzfelder. Beispiel Astonomie, wo du dich die Daten verarbeitung einfach erdrückt und man mittels KI nach Sternen objekten Suchen kann, die man Manuel, per Hand oder auch mit nem Algorymus nie auswerten könntest!
 
Zuletzt bearbeitet:
Zurück
Oben