Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsOpenAI o3: KI-Modell könnte für mehr Kosten sorgen als gedacht
Im Dezember 2024 sorgte OpenAI mit seinem neuen Spitzenmodell o3 für Aufsehen, Experten sahen die neue KI sogar bereits auf dem Weg zur sogenannten Artificial General Intelligence (AGI). Nun deuten Berechnungen darauf hin, dass die Kosten für diesen Erfolg für OpenAI deutlich höher ausfallen könnten als ursprünglich erwartet.
Zur Überraschung von niemandem. Das hat OpenAI einfach nur gemacht, damit man mehr "Wert" hat und die nächste Finanzierungsrunde üppiger ausfällt. Dass das ganze noch für lange Zeit unwirtschaftlich sein wird, sollte den meisten ja bekannt sein. Die Frage ist, ob es jemals wirtschaftlich sein wird.
Mich würde mal interessieren, wie diese 30k zusammenkommen. Also... redet man hier einfach nur von x-fachen GPUs oder schon eher Richtung "Supercomputer"? Und was wären dann wohl die Anzahl Kerne, VRAM, RAM, Durchsatz oder ähnliches pro Abfrage? So dass eine Person nicht vom Fach was damit anfangen könnte?
Google zeigt mit Gemini, dass der Wechsel von GPUs auf TPUs einerseits deutlich größere Kontextfenster zu einem Bruchteil der Kosten ermöglicht und gleichzeitig ein State-of-the-Art-Modell liefert.
Damit bestätigt sich mein Eindruck, dass OpenAI weiterhin auf dem falschen Weg ist und vermutlich nicht mehr lange mithalten können wird. Endlose Skalierung mit massig Hardware Ressourcen ist nicht die Lösung, sondern effizientere Modelle, die man dadurch groß skalieren kann.
Ich kann mich @gartenriese hier nur anschließen, nüchtern analysiert war das ein reiner PR Move um weiter Geld zu bekommen um weiter den Schneeball des Schneeball-Systems rollen zu lassen damit die Lichter an bleiben, weil es bisher keinerlei Pläne oder nur Ansätze gibt wie das "KI"-Business wie es bisher ist jemals nen positiven Cash-Flow erzeugen kann.
Letztlich bleibt immer noch die Frage wann die Hype-Welle stirbt und ein Großteil der Anbieter umsatteln müssen, da ihre aktuelle Idee von "Wirtschaften" mit der versuchten Monopolisierung des Markts und späteren Monetarisierung in den Größenordnungen der Kosten die sie haben hier mit hoher Sicherheit niemals funktionieren wird.
Oder aber das Urheberrechts-Problem kommt dem zuvor und man wird gezwungen die Urheberrechts-Lasser zu entlohnen, dass wäre genau so ein Wegweiser das eigene dysfunktionale Modell umzustellen.
Erwähnenswert ist auch, dass die Leute hinter ARC durch die Erfahrungen mit OpenAI den Test anpassen werden, weil er eben in der bisherigen Form doch durch „Brute Force“ lösbar ist - daher auch die hohen Kosten in Bezug auf die Bearbeitung der ARC-Aufgaben.
Neben den "Kosten pro Anfrage" würde mich mal der "Energiebedarf pro Anfrage" interessieren (in kWh).
Und wenn künftig auch "digitale Zölle" erhoben werden, kommen die ja auch noch obendrauf (pro Anfrage).
Ich glaube die gucken erstmal ganz schön doof aus der Röhre, sollten die mal kein Gratis GBT mehr anbieten, wie wenig leute dann noch in der Rechenzentren für Anfragen sorgen
Dann springt man zum nächsten Gratis-Modell und dann wieder und dann wieder.
Ich Frage mich ernstlich woher der ganze Wert kommt.
Doch sicher zum großen Teil wegen dem Potenzial an Werbung (die mal kommen kann) und Zensur oder Massenkontrolle, die das ganze bietet.
Für Software-Entwickler werden sich bis dahin eigene Programmierassistenten gebildet haben.
Auch Googles neuer KI Text über der Suchanfrage macht GBT für ne große Masse an Usern wieder uninteressant.
Neben den "Kosten pro Anfrage" würde mich mal der "Energiebedarf pro Anfrage" interessieren (in kWh).
Und wenn künftig auch "digitale Zölle" erhoben werden, kommen die ja auch noch obendrauf (pro Anfrage).
Kosten sind aber nur Momentaufnahmen, bei AI werden die USA sicher nicht gegen China zurückfallen wollen - Kosten denke ich werden da am Ende sekundär sein.
Verstehe ich nicht? Claude Sonnet 3.7 schlägt aktuelle Modelle bei Programmieraufgaben mit 70 zu 49 Punkten. Wo ist da der o3 nutzen? Dann müsste o3 schon ohne menschlichen zutun Projekte anfertigen?
Solange der Markt noch so offen ist und auch neue Spieler jederzeit die Führung übernehmen können sind diese Kostenangaben doch immer für die aktuelle Position geschönt. In China kann man das scheinbar mit einem Bruchteil der Kosten/Hardware usw. und die Regierung muss kaum was zuschiessen. In Amerika wird das Modell schon verkauft und kostet natürlich viel mehr im Betrieb wodurch die hohen Gebühren gerechtfertigt sind.
Wenn sich später mal die Gewinner herauskristallisieren und es darum geht konkurrenzfähig zu sein werden wir da eher reale Daten sehen.
@pseudopseudonym LLMs machen keine Arbeit. Die Leute die Prompt Engineering machen, machen die Arbeit. Und Zeit sparen tut man da bislang auch nicht wenn es um Programmieren geht. Denn man muss so einen Chatbot andauernd wegen blödsinniger kleiner Programmierfehler korrigieren. Und es besteht die Gefahr, dass man sich mit einem LLM ständig im Kreis dreht ohne mit der Aufgabe vorwärts zu kommen.