News „Die Illusion des Denkens“: Wie limitiert Reasoning-Modelle wie o3 und Claude 3.7 sind

@KitKat::new() Oh je. Ja, allerdings reicht mein Verständnis nur so für die groben Konzepte.

Wenn Gödel stimmt, wovon wir ausgehen, da er noch nicht widerlegt wurde, dann können sich endliche, in Algorithmen „gefangene“ Systeme nicht selbst validieren.
Menschen können das. Menschen haben allerdings AUCH Gefühle, die ganz offensichtlich mit dazugehören.

Davon abgesehen ist Intelligenz und insbesondere Bewusstsein bis heute nicht wirklich verstanden.

Das Research-Paper, welches ich gepostet habe, deutet darauf hin, dass menschliche Signal- und Datenverarbeitung nicht nur chemo-elektrisch funktioniert, sondern auch auf der Photonenebene, also holographisch und weitaus schneller.

Um also auch nur in die Nähe von Intelligenz kommen zu können, brauchen wir einen holographischen Ansatz.

Ob hierzu dann Quantencomputer ausreichen werden …?

Das was wir jetzt haben ist Statistik.
Beeindruckende Statistik. Und eben auch nicht mehr.
Dazu packen wir jetzt noch den extremen Drang des Homo Sapiens alles irgendwie menschlich scheinen zu lassen und schwups, haben wir jetzt schon AGI.

Was natürlich völliger Blödsinn ist.
 
  • Gefällt mir
Reaktionen: Vigilant
Das, was ich hier zu diesem Thema herauslese, zeigt den Alpha- oder im besten Falle Beta-Status der aktuellen KI-Technologie. Und wir haben es den heutigen (teils dystopischen) Zuständen auf der Welt zu verdanken, dass Tech-Unternehmen damit bereits auf den Markt drängen. Normalerweise geschieht so etwas erst bei der sogenannten "Marktreife"...
 
  • Gefällt mir
Reaktionen: Unnu
Millennial_24K schrieb:
Normalerweise geschieht so etwas erst bei der sogenannten "Marktreife"...
Willkommen in der Realität. Normal ist (mittlerweile, leider), dass sich bei Produkten, insbesondere Software, an Bananen orientiert wird.
 
  • Gefällt mir
Reaktionen: Unnu
Millennial_24K schrieb:
Normalerweise geschieht so etwas erst bei der sogenannten "Marktreife"...
Hmmmmm, das ist hier zweischneidig.
KI, also fast alles was mit LLM/LRM wenig bis nix zu tun hat, ist teilweise schon „sehr“ marktreif und kann für den jeweiligen Zweck durchaus gut und nutzbringend eingesetzt werden.

Das, was diese ganzen „KI“-Propheten so vor sich hin fantasieren, diese ominöse AGI (die es schlicht noch nicht gibt!), also Chatbots auf Speed, taugen für nur sehr begrenzte Anwendungsfälle, wie eben … chatbots. Mit Fehlerraten von bis zu 70% in Anwendungsfällen die Präzision benötigen haben diese Dinger nichts verloren.
Und besser wird’s auch nicht!
 
Zurück
Oben