News Sprung auf dem Weg zur AGI?: OpenAI stellt neues Spitzenmodell o3 vor

Krik schrieb:
Es werden kleine KIs entstehen, die man lokal flüssig (genug) ausführen kann, sodass jeder seinen persönlichen Assistenten auf dem PC oder Handy dabei haben kann. Ei
gibt es doch schon :)

jetbrains liefert seit mindestens einem Jahr seine IDEs mit einem Ca. 1B Parameter Modell für lokale Code completion aus.

Bei rockchip embedded NPUs geht seit einem halben Jahr die Post ab.
inzwischen kann man auf einem 70 Euros sbc 7B Modelle inklusive llama 3.2 und qwen2.5 mit 5w Stromverbrauch annehmbar schnell laufen lassen
 
  • Gefällt mir
Reaktionen: Eisenoxid, Redirion, dideldei und 7 andere
Es ist mal gut dass der Hypeoil-Seller Altman zugibt, dass eine Frage an einen Chatbot tausende Dollares kostet und sie ist immer noch schlechter als an einen Menschen gerichtet, den man womöglich für umsonst in einem Forum wie Stackoverflow gefragt hat.
 
  • Gefällt mir
Reaktionen: Metalyzed, Kitsune-Senpai, Askalon42 und eine weitere Person
madmax2010 schrieb:
inzwischen kann man auf einem 70 Euros sbc 7B Modelle inklusive llama 3.2 und qwen2.5 mit 5w Stromverbrauch annehmbar schnell laufen lassen
Welches SBC ist es?
Ergänzung ()

Und wieviel Tokens/Sec gibt es dann?
 
  • Gefällt mir
Reaktionen: Metalyzed
Ach, was hab ich schon für dumme Antworten bekommen und zack, war das GPT4 Limit erreicht.
Gemini ist leider auch nicht zu gebrauchen. Für Hausaufgaben vielleicht i.O. aber ich schätze die Fehlerquote auf 25%.
 
pioneer3001 schrieb:
Als Programmierer bin ich mir immer noch nicht sicher ob ChatGPT mir Zeit spart oder mich mehr Zeit kostet.

Spart natürlich enorm Zeit, richtig eingesetzt. Wenn ich denke, was man alles für Dokumentation suchen und lesen muss und wie schlecht teilweise der Programmcode dokumentiert wird, dann ist alleine in dem Bereich jede Menge Potenzial um Zeit zu sparen.

Ich gebe dir aber Recht. Bei größeren Projekten muss man aktuell noch Ahnung haben und muss dann gezielt und richtig KI einsetzen. Aber das ist ja gerade auch immer noch erst der Anfang...

Rickmer schrieb:
Es bleibt erstmal abzuwarten, wie die Ergebnisse bei unabhängigen Tests aussehen...

Und auf der Kostenskala sehe ich zwei Zehnerpotenzen zum 'besten' Modell. Wer will das denn noch bezahlen?

Mal schauen was es am Ende kostet, das richtige o3 Modell sieht eher nach einem eingeschränkten Modell für den 200$ Monatsplan aus, so teuer ist das Ding. Das o3-mini Modell ist aber interessant, besonders weil man auch die Kosten (low bis high) wählen kann.

Könnte mir auch eine Mischung vorstellen, quasi die ganzen Teilaufgaben werden von kleineren Modellen erledigt und am Ende findet dann die Endabnahme einmalig vom großen o3 Modell statt.
 
  • Gefällt mir
Reaktionen: Shad82, nyster, DefconDev und 2 andere
Ayo34 schrieb:
Spart natürlich enorm Zeit, richtig eingesetzt. Wenn ich denke, was man alles für Dokumentation suchen und lesen muss und wie schlecht teilweise der Programmcode dokumentiert wird, dann ist alleine in dem Bereich jede Menge Potenzial um Zeit zu sparen.

Ich gebe dir aber Recht. Bei größeren Projekten muss man aktuell noch Ahnung haben und muss dann gezielt und richtig KI einsetzen. Aber das ist ja gerade auch immer noch erst der Anfang...
All meine Versuche mit ChatGPT haben Code ausgespuckt der relevante Fehlerbehandlung komplett ignoriert hat und es waren simpelste Scripte mit 10 Zeilen Logik. Die Zeit die es braucht den Code zu lesen, mit der Dokumentation abzugleichen um ein Verständnis aufzubauen und danach alles zu korrigieren spart Imho kaum Zeit.

Was die ChatGPT bisher ersetzt ist die Suche nach Ansätzen, also dass was die Suchmaschinen dank SEO-Spam nicht mehr liefern :/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai, LamaTux, Alter_Falter und 9 andere
Na jetzt wo man ordentlich neues Geld eingesammelt hat muss man eben auch liefern.

AGI... Any day now... Ganz bestimmt.

Wer vestanden hat, wie LLMs funktionieren, kommt nach ein bisschen nachdenken schnell darauf, dass eine AGI auf dieser Basis nichts weiter als stumpfes marketing Blabla ist.

Die Fortschritte sind cool. Aber das Marketing drumrum furchtbar durchschaubar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dragnod0, Kitsune-Senpai, Alter_Falter und 10 andere
Aber Manfred ist sich doch sicher das die Blase jetzt aber wirklich bald platzen wird, und alle Beteiligten so gut wie pleite sind. ;-)
 
  • Gefällt mir
Reaktionen: Nahkampfschaf, Kuristina, DefconDev und eine weitere Person
X!X schrieb:
Wer vestanden hat, wie LLMs funktionieren, kommt nach ein bisschen nachdenken schnell darauf, dass eine AGI auf dieser Basis nichts weiter als stumpfes marketing Blabla ist.
Der Knackpunkt ist dass wir greifbar nah an einen Punkt kommen, an dem LLMs für Forschung genutzt werden können. Und wenn das passiert dürfte sich die Geschwindigkeit des Fortschritts noch einmal drastisch erhöhen.

Weltverändernde KIs sind mMn in den nächsten Jahren möglich. Und das sehen viele Experten mittlerweile genauso.

Den massiven Fortschritt zwischen o1 und o3 (wenn auch aktuell noch zu viel höheren Kosten) gab's innerhalb von Monaten...
 
  • Gefällt mir
Reaktionen: DefconDev, Teckler und Alioth
X!X schrieb:
Aber das Marketing drumrum furchtbar durchschaubar.
Immer diese unnötig abwertenden Kommentare, also ob das alles Taschenspielertricks wären und nur Marketing bla bla. Welches marketing betreibt denn Open AI? Oder Anthropic? Selbst von Google und MS kommt da kaum großangelegtes Markenting abgesehen von ein paar Interviews, Pressemeldungen oder Infos zu Veröffentlichungen. Das Marketing ist sehr limitiert. Da betreiber Möbelhersteller (Ikea) und ähliche Unternehmen ohne jede Innovation 1000mal mehr Marketing. Und wenn du persönlich glaubst, dass bei LLMs keine großen Entwicklungen mehr stattfinden werden, ist das deine Meinung – das kann man auch anders sehen.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk, kim88, gollum_krumen und 3 andere
LLMs besitzen nicht den Hauch einer Intelligenz. Wer das nicht versteht, hat sich nicht ein einziges paper zu LLMs durch gelesen und verstanden.
 
  • Gefällt mir
Reaktionen: dragnod0, Kitsune-Senpai und X!X
Als Laie klingt das für mich so, als ob man "einfach" X Generierungen im Hintergrund durchspielt und dann den gemeinsamen Nenner als Lösung anbietet, sodass die Wahrscheinlichkeit für eine korrekte Antwort höher ist.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, X!X, Brrr und eine weitere Person
@jonathansmith Ja und nein. Man probiert einfach verschiedene Lösungsansätze und Wege aus. Im Grunde machen wir Menschen ja auch nicht anderes. Wir haben ein Problem, versuchen es zu lösen und wenn es nicht klappt, dann versuchen wir einen anderen Weg. Am Ende haben wir dann eine Lösung oder einen Kompromiss.

In der Wissenschaft gibt es ja auch jede Menge Probleme wo seit Jahrhunderten die klügsten Leute dran sitzen und trotzdem hat bisher noch kein Lösungsweg Erfolg gebracht.

Es ist aber nicht so, dass er 100x 10+10 rechnet und die häufigste Lösung wird dann am Ende herausgegeben.
 
  • Gefällt mir
Reaktionen: Shad82, jonathansmith und Alioth
@jonathansmith Vereinfacht:
Das System bewertet mögliche Antworten durch ein Zusammenspiel von Wahrscheinlichkeitsberechnungen und gewichteten neuronalen Entscheidungsbäumen. Dabei werden Wahrscheinlichkeiten in verschiedenen Schichten des Modells propagiert und gewichtet um die plausibelste Antwort zu finden. Zusätzlich erfolgt eine Art Backpropagation, bei der Fehler oder Abweichungen bei der Generierung genutzt werden, um Gewichtungen und letztlich die Outputs zu optimieren. Es sucht also nicht den "gemeinsamen Nenner", sondern die wahrscheinlichste Lösung basierend auf den Trainingsdaten.
 
  • Gefällt mir
Reaktionen: Cruentatus, nyster, DefconDev und 3 andere
Blaexe schrieb:
Warum wird gefühlt nur über OpenAI berichtet? Es gab eine große News zu Sora aber nicht zu Googles Veo 2 was Sora deutlich überlegen ist...

Und zu Gemini 2.0 gab es auch keine.

Ich bin auch verwundert. Auf uns kommt vllt einer der krassesten technologischen Entwicklungen überhaupt zu und die Medien berichten darüber als wäre das irgendein Bitcoin-Kram. Dass die Öffis da komplett versagen, ist erwartenswert, aber von Techaeiten erwarte ich da mehr.
 
  • Gefällt mir
Reaktionen: Kuristina, nyster, DefconDev und eine weitere Person
@Alpenbruder
Was erwartest du ;)? (vor allem in Deutschland)
Man würde meinen, hier im Forum sind die Leute tech-begeistert- und affin und dennoch ist ein bedeutsamer Teil der Leute selbst hier Forum überzeugt davon, dass es ewig dauern wird, bis auch nur mittelklassige Programmierer ersetzt werden könnten. Begriffe wie AGI wurden noch nie gehört. Was soll man da noch groß dazu sagen? Da wird es noch einige auf dem falschen Fuß erwischen, das ist zu befürchten.
 
  • Gefällt mir
Reaktionen: Shad82, Kuristina, WuuulF und 4 andere
Alioth schrieb:
Da wird es noch einige auf dem falschen Fuß erwischen, das ist zu befürchten.
Im Endeffekt aber auch egal. Selbst wenn man sich damit beschäftigt und erwartet kann man sich nicht wirklich darauf vorbereiten - einfach weil die Zukunft damit vollkommen unmöglich abzuschätzen ist.

Zum Beispiel frage ich mich schon länger wo man sein Geld anlegen sollte? Was könnte einem in einer Post-AGI Welt noch einen Vorteil verschaffen? Was hat Geld dann überhaupt noch für eine Bedeutung? Ganz ehrlich - keine Ahnung...
 
  • Gefällt mir
Reaktionen: Metalyzed
Alioth schrieb:
Man würde meinen, hier im Forum sind die Leute tech-begeistert- und affin und dennoch ist ein bedeutsamer Teil der Leute selbst hier Forum überzeugt davon, dass es ewig dauern wird, bis auch nur mittelklassige Programmierer ersetzt werden könnten.

Nicht dennoch, sondern genau deswegen.

Es ist, wie der von Dir kritisierte Vorposter schrieb, auf Basis eines LLMs kann es keine AGI geben.

Alioth schrieb:
Begriffe wie AGI wurden noch nie gehört.

Ähm. Das schließt Du jetzt aus EINEM einzigen Post, der gesagt hat, dass es eine unbekannte Abkürzung ist, ja?

xpad
 
  • Gefällt mir
Reaktionen: Metalyzed, Kitsune-Senpai und nyster
Zurück
Oben