News OpenAI o3: KI-Modell könnte für mehr Kosten sorgen als gedacht

pioneer3001 schrieb:
Und Zeit sparen tut man da bislang auch nicht wenn es um Programmieren geht.
Da sind meine Erfahrungen aber ganz andere.
Kann sein, dass du das mit dem Prompt-Engineering einfach noch üben musst.

pioneer3001 schrieb:
Denn man muss so einen Chatbot andauernd wegen blödsinniger kleiner Programmierfehler korrigieren.
Nö, ist deutlich weniger geworden.

pioneer3001 schrieb:
Und es besteht die Gefahr, dass man sich mit einem LLM ständig im Kreis dreht ohne mit der Aufgabe vorwärts zu kommen.
Dann kann man das immer noch selbst machen.
 
Project 2501 schrieb:
Immer größere mechanische Papageien zu bauen wird auf Dauer halt auch nicht die Lösung sein.

Nichts anderes sind LLMs

Naja, du beschreibst den Stand Ende 2022....

Die Reasoning Modelle sind schonein ganz anderes Kaliber.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: pseudopseudonym
alyk.brevin schrieb:
ich würde mal sagen, dass die kosten hauptsächlich energiekosten sind.
Energiekosten sind nur ein Teil des Ganzen. Zusätzlich müssen ja zu Beginn (überteuerte) KI-Beschleuniger-Karten bei Nvidia und Co. gekauft werden und dazu noch der Rest der Komponenten für die "Serverfarmen".
Wenn erst noch Atomkraftwerke aus dem Boden gestampft werden müssen, steigen die anfänglichen Kosten schnell ins Unermessliche und die Energiekosten machen in der Tat den Hauptteil der Kosten aus.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Der Artikel hat viele wilde Zahlen ohne auch nur mit etwas Substanz diese zu erläutern. Es könnten auch 42 oder drölf sein. Alleine die Frage ob da jetzt das Training oder der Betrieb gemeint ist. Mit Industriestrompreisen und einem Server kommt man da auf jeden Fall nicht hin.
 
Zurück
Oben