News OpenAI o3: KI-Modell könnte für mehr Kosten sorgen als gedacht

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
7.045
  • Gefällt mir
Reaktionen: hamuchen, aid0nex, BrollyLSSJ und 2 andere
Allein dass openai mit o3 rumdoktert statt chatgpt 5 rauszubringen, zeigt doch, dass die Entwicklung stagniert.
 
  • Gefällt mir
Reaktionen: Project 2501
Zur Überraschung von niemandem. Das hat OpenAI einfach nur gemacht, damit man mehr "Wert" hat und die nächste Finanzierungsrunde üppiger ausfällt. Dass das ganze noch für lange Zeit unwirtschaftlich sein wird, sollte den meisten ja bekannt sein. Die Frage ist, ob es jemals wirtschaftlich sein wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai, hamuchen, slow_snail und 11 andere
Pippen123 schrieb:
Allein dass openai mit o3 rumdoktert statt chatgpt 5 rauszubringen, zeigt doch, dass die Entwicklung stagniert.
Momentan spricht doch alles dafür die Reasoning-Modelle weiter zu entwickeln und den Weg weiter in Richtung Mixture-of-Agents zu beschreiten.
 
Mich würde mal interessieren, wie diese 30k zusammenkommen. Also... redet man hier einfach nur von x-fachen GPUs oder schon eher Richtung "Supercomputer"? Und was wären dann wohl die Anzahl Kerne, VRAM, RAM, Durchsatz oder ähnliches pro Abfrage? So dass eine Person nicht vom Fach was damit anfangen könnte?
 
  • Gefällt mir
Reaktionen: Spike Py und gartenriese
Google zeigt mit Gemini, dass der Wechsel von GPUs auf TPUs einerseits deutlich größere Kontextfenster zu einem Bruchteil der Kosten ermöglicht und gleichzeitig ein State-of-the-Art-Modell liefert.
 
  • Gefällt mir
Reaktionen: pacifico
Damit bestätigt sich mein Eindruck, dass OpenAI weiterhin auf dem falschen Weg ist und vermutlich nicht mehr lange mithalten können wird. Endlose Skalierung mit massig Hardware Ressourcen ist nicht die Lösung, sondern effizientere Modelle, die man dadurch groß skalieren kann.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, hamuchen, konkretor und 3 andere
Ich kann mich @gartenriese hier nur anschließen, nüchtern analysiert war das ein reiner PR Move um weiter Geld zu bekommen um weiter den Schneeball des Schneeball-Systems rollen zu lassen damit die Lichter an bleiben, weil es bisher keinerlei Pläne oder nur Ansätze gibt wie das "KI"-Business wie es bisher ist jemals nen positiven Cash-Flow erzeugen kann.

Letztlich bleibt immer noch die Frage wann die Hype-Welle stirbt und ein Großteil der Anbieter umsatteln müssen, da ihre aktuelle Idee von "Wirtschaften" mit der versuchten Monopolisierung des Markts und späteren Monetarisierung in den Größenordnungen der Kosten die sie haben hier mit hoher Sicherheit niemals funktionieren wird.

Oder aber das Urheberrechts-Problem kommt dem zuvor und man wird gezwungen die Urheberrechts-Lasser zu entlohnen, dass wäre genau so ein Wegweiser das eigene dysfunktionale Modell umzustellen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, nuego, gartenriese und 3 andere
Immer größere mechanische Papageien zu bauen wird auf Dauer halt auch nicht die Lösung sein.

Nichts anderes sind LLMs nämlich.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Erwähnenswert ist auch, dass die Leute hinter ARC durch die Erfahrungen mit OpenAI den Test anpassen werden, weil er eben in der bisherigen Form doch durch „Brute Force“ lösbar ist - daher auch die hohen Kosten in Bezug auf die Bearbeitung der ARC-Aufgaben.
 
Neben den "Kosten pro Anfrage" würde mich mal der "Energiebedarf pro Anfrage" interessieren (in kWh).
Und wenn künftig auch "digitale Zölle" erhoben werden, kommen die ja auch noch obendrauf (pro Anfrage). :hammer_alt:
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und nuego
gartenriese schrieb:
Die Frage ist, ob es jemals wirtschaftlich sein wird.
Ich glaube die gucken erstmal ganz schön doof aus der Röhre, sollten die mal kein Gratis GBT mehr anbieten, wie wenig leute dann noch in der Rechenzentren für Anfragen sorgen :)
Dann springt man zum nächsten Gratis-Modell und dann wieder und dann wieder.
Ich Frage mich ernstlich woher der ganze Wert kommt.
Doch sicher zum großen Teil wegen dem Potenzial an Werbung (die mal kommen kann) und Zensur oder Massenkontrolle, die das ganze bietet.
Für Software-Entwickler werden sich bis dahin eigene Programmierassistenten gebildet haben.
Auch Googles neuer KI Text über der Suchanfrage macht GBT für ne große Masse an Usern wieder uninteressant.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und gartenriese
Weyoun schrieb:
Neben den "Kosten pro Anfrage" würde mich mal der "Energiebedarf pro Anfrage" interessieren (in kWh).
Und wenn künftig auch "digitale Zölle" erhoben werden, kommen die ja auch noch obendrauf (pro Anfrage). :hammer_alt:
Ich hoffe auch, dass die EU genau das durchsetzten wird. So können europäische Alternativen auch ohne die selbe Summe Geld konkurrenzfähig bleiben…
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, LuxSkywalker, Weyoun und eine weitere Person
Hat man für die Ausrechnung der Kosten der KI die KI fragen sollen, oder hat man dies getan 🤪 ?
 
Kosten sind aber nur Momentaufnahmen, bei AI werden die USA sicher nicht gegen China zurückfallen wollen - Kosten denke ich werden da am Ende sekundär sein.

China wird sein "3o", "4o" und "5o" bringen
 
Verstehe ich nicht? Claude Sonnet 3.7 schlägt aktuelle Modelle bei Programmieraufgaben mit 70 zu 49 Punkten. Wo ist da der o3 nutzen? Dann müsste o3 schon ohne menschlichen zutun Projekte anfertigen?
 
Solange der Markt noch so offen ist und auch neue Spieler jederzeit die Führung übernehmen können sind diese Kostenangaben doch immer für die aktuelle Position geschönt. In China kann man das scheinbar mit einem Bruchteil der Kosten/Hardware usw. und die Regierung muss kaum was zuschiessen. In Amerika wird das Modell schon verkauft und kostet natürlich viel mehr im Betrieb wodurch die hohen Gebühren gerechtfertigt sind.

Wenn sich später mal die Gewinner herauskristallisieren und es darum geht konkurrenzfähig zu sein werden wir da eher reale Daten sehen.
 
Project 2501 schrieb:
Immer größere mechanische Papageien zu bauen wird auf Dauer halt auch nicht die Lösung sein.

Nichts anderes sind LLMs nämlich.
Dafür, dass es bloß Papageien sind, machen die ne verdammt gute Arbeit.
 
  • Gefällt mir
Reaktionen: Sweepi, FrAGgi, stotheb und eine weitere Person
@pseudopseudonym LLMs machen keine Arbeit. Die Leute die Prompt Engineering machen, machen die Arbeit. Und Zeit sparen tut man da bislang auch nicht wenn es um Programmieren geht. Denn man muss so einen Chatbot andauernd wegen blödsinniger kleiner Programmierfehler korrigieren. Und es besteht die Gefahr, dass man sich mit einem LLM ständig im Kreis dreht ohne mit der Aufgabe vorwärts zu kommen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, chaopanda, slow_snail und 4 andere
Zurück
Oben