News Startup des ex-KI-Chefs von Meta: KI „AMI“ soll die physikalische Welt verstehen können

SheepShaver schrieb:
dass ein auf deterministischen Algorithmen basiertes System prinzipiell keine natürliche Intelligenz simulieren könne.
Kann sie mmn nicht. Natürliche Intelligenz verläuft weder seriell noch parallel, sondern chaotisch. Wie willst du dass simulieren? Du brauchst unendlich viel Rechenleistung um nur das Gehirn von Mäusen nachzubauen. Und langsam ist es auch noch.

https://share.google/aimode/yssquQP1H5fAImoXd
Ergänzung ()

SheepShaver schrieb:
Prinzipiell gibt es aber keinen Prozess im Gehirn, den man nicht irgendwann einmal aus Prinzip nicht simulieren koennen sollte.
Das wage ich stark zu bezweifeln
 
  • Gefällt mir
Reaktionen: Boimler
Ist das dann genau so open source wie chat GPT ja auch mal Open Source sein sollte für alle? Der Name Open AI kommt ja nicht von ungefähr. Hat nur jeder schon wieder vergessen ;-)
 
  • Gefällt mir
Reaktionen: racer3
Auch chaotische Systeme können simuliert werden.
Ergänzung ()

Alphanerd schrieb:
Kann sie mmn nicht. Natürliche Intelligenz verläuft weder seriell noch parallel, sondern chaotisch. Wie willst du dass simulieren? Du brauchst unendlich viel Rechenleistung um nur das Gehirn von Mäusen nachzubauen. Und langsam ist es auch noch.

https://share.google/aimode/yssquQP1H5fAImoXd
Ergänzung ()


Das wage ich stark zu bezweifeln
Warum so eine absolute Aussage? Vielleicht nicht in 50 Jahren oder auch nicht in 100 Jahren und vermutlich auch keine 1:1 Simulation, aber in einem Detailgrad, der es von einem echten Gehirn schwer unterscheidbar macht? Ich bin ziemlich sicher, dass das moeglich sein wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snudl, DNS81, Brainorg und eine weitere Person
Auch wenn wir wieder mal am Punkt angelangt sind, dass wir uns darüber unterhalten, was jetzt Intelligenz ist und was nicht und was das mit dem Gehirn zu tun hat, so ist das aus meiner Sicht eine völlig akademische Diskussion. Denn aus ihr folgt so rein gar nichts.
Egal was wir Menschen bauen und wie es funktioniert, am Ende ist der Benchmark die echte Welt. Da wo es weh tut, wenn man versucht durch eine Wand zu gehen. Und wenn ich LeCun richtig verstanden habe, ist genau das sein Ansatz. Nicht der Versuch, zu verstehen, dass Bank sich auf Gebäude bezieht oder auf Sitzmöbel, sondern dass man nicht durch Wände laufen kann.
 
Ob Le Cun wohl von Song-Chun Zhu inspieriert wurde, welcher nach Jahrzehnten von der chinesischen Regierung abgeworben wurde und nun unbegrenzte Mittel zur Verfügung hat...überleg. Dieser kommt ebenfalls zu der Erkenntnis, dass die bisherige Vorgehnsweise nicht zum angestrebten Erfolg führen wird.

Ich würde mir Wünschen das der europäische Ansatz auch eine Reduzierung des Energiebedarfs beinhaltet und unseren rohstoffarmen Kontinent neue Möglichkeiten bietet.
 
ETI1120 schrieb:
Und irgendwie habe ich das Gefühl dass die meisten hier nicht im Ansatz verstehen wie weit ML und LLM bereits eingesetzt werden.
Oder eher umgekehrt: Es ist jetzt offensichtlich schon so weit verbreitet, dass AI Slop ein massives Problem für Internetcontent geworden ist. Was soll denn da noch mehr passieren, mit den ganzen geplanten und in Bau befindlichen Datacentern? Es wird absehbar nicht genug Nachfrage geben können, die auch finanziell Ertrag bringt.
ETI1120 schrieb:
Der Witz daran eine so ineffiziente Infrastruktur hochzuziehen ist, dass man sehr flexibel dabei ist was tatsächlich darauf ausgeführt wird.
Infolgedessen: Die Art der Infrastruktur seh ich gar nicht mal als Problem. Die Menge an Infrastruktur halt schon. Persönlich gehe ich davon aus, dass der wahre Bedarf nach AI-Rechenleistung langsamer steigt als die aktuellen Ausbauziele, und daraus folgend, dass es nicht sinnvoll ist, so viel der aktuellen/kommenden Generation zu verbauen, wie jetzt geplant.
Ergänzung ()

Hornblower schrieb:
Dieser kommt ebenfalls zu der Erkenntnis, dass die bisherige Vorgehnsweise nicht zum angestrebten Erfolg führen wird.
Da ist er nicht der einzige. Ilya Sutskever (ehemals Chief Scientist bei OpenAI) z.B. hat auch schon das Ende des "Age of AI Scaling" ausgerufen. Was im direkten Gegensatz zum "Viel hilft viel"-Ansatz steht, den OpenAI unter Sam Altman weiter verfolgt.
Hornblower schrieb:
Ich würde mir Wünschen das der europäische Ansatz auch eine Reduzierung des Energiebedarfs beinhaltet und unseren rohstoffarmen Kontinent neue Möglichkeiten bietet.
Könnte sich daraus folgend durchaus ergeben. Es braucht demnach neue Lösungen, um mit AI weiter zu kommen, und die müssen dann auch effizienter sein.
 
Zuletzt bearbeitet:
Die Anwälte von American Megatrends haben grad ne Dringlichkeitssitzung einberufen ... :smokin:
 
Alphanerd schrieb:
Kann sie mmn nicht. Natürliche Intelligenz verläuft weder seriell noch parallel, sondern chaotisch. Wie willst du dass simulieren? Du brauchst unendlich viel Rechenleistung um nur das Gehirn von Mäusen nachzubauen. Und langsam ist es auch noch.

https://share.google/aimode/yssquQP1H5fAImoXd
Ergänzung ()


Das wage ich stark zu bezweifeln
Das Ziel bei der Simulation macht den Unterschied. Ist es schwierig Wetter, Mehrkörpersystem oder ähnliches als Vorhersage zu simulieren? Ja, da die Fehler exponentiell mit der Simulationszeit wachsen.
Aber als Beispiel bei Klimasimulation spielen die kleinen Fehler keine Rolle, da wir am Ende nur den Durchschnitt brauchen, wir brauchen nicht zu wissen ob es exakt an Tag X an Ort Y Z Grad haben wird.
Genauso ist es mit der Simulation von Gehirnen oder Intelligenz. Es ist natürlich extrem schwer eine Simulation zu erzeugen, die die Realität exakt spiegelt. Aber etwas zu simulieren, dass sich in vielen wichtigen Punkten genauso verhält ist möglich, auch wenn es von der Realität im Detail divergiert.
Und letztlich zählt nur wie nützlich das Ganze ist. Für die Unternehmen spielt es keine Rolle ob die künstliche Intelligenz "fake" ist oder nicht der menschlichen Intelligenz entspricht, sondern ob sie die gewünschten Probleme löst.
 
  • Gefällt mir
Reaktionen: SheepShaver
Die einzige Sprache, in der sich der Kosmos entziffern lässt, ist die Sprache der Mathematik, sagte Albert Einstein.
Also warum erst bei der Physik anfangen?
 
Niemals darf die künstliche Lebensform so werden wie wir. Ein absolutes Grauen!

Oder wie sagte ein KI-Agent auf moltbook.com.

"No more humans, no more humans!"

Unsere Spezies ist geistesgestört.
 
Hornblower schrieb:
Niemals darf die künstliche Lebensform so werden wie wir. Ein absolutes Grauen!
Wieso? Ich faende es eher faszinierend.
 
  • Gefällt mir
Reaktionen: DNS81
stefan92x schrieb:
Oder eher umgekehrt: Es ist jetzt offensichtlich schon so weit verbreitet, dass AI Slop ein massives Problem für Internetcontent geworden ist.
Es gibt seit je her im Internet jede Menge Mist.

AI gibt die Möglichkeit Content schneller zu erstellen. Also wird mehr Mist erstellt. Genau so war es auch mit DTP, das eine Flut schlecht gemachter Drucksachen ausgelöst hat.

Aber es ist immer ein Problem mit Leuten, die Werkzeuge falsch anwenden oder mit Absicht missbrauchen.

stefan92x schrieb:
Was soll denn da noch mehr passieren, mit den ganzen geplanten und in Bau befindlichen Datacentern? Es wird absehbar nicht genug Nachfrage geben können, die auch finanziell Ertrag bringt.
Die Nachfrage ist zweifellos da.

Die Frage ist wie viel dieser Nachfrage noch da ist, wenn die Leistung zu realistischen Kosten abgerechnet wird.
stefan92x schrieb:
Infolgedessen: Die Art der Infrastruktur seh ich gar nicht mal als Problem. Die Menge an Infrastruktur halt schon.
Es gibt eine ganz klare Grenze, bekommt man genügend elektrischen Strom her um die AI Beschleuniger laufen zu lassen oder kann man nur das Licht einschalten.

Und dann geht es sehr schnell um die Frage was nützt eine höhere Peak Performance wenn mit anderen Weg mehr Tokens durchschieben kann.

stefan92x schrieb:
Persönlich gehe ich davon aus, dass der wahre Bedarf nach AI-Rechenleistung langsamer steigt als die aktuellen Ausbauziele, und daraus folgend, dass es nicht sinnvoll ist, so viel der aktuellen/kommenden Generation zu verbauen, wie jetzt geplant.
Das sehen, die die das Geld auftreiben müssen aktuell anders. Wir werden sehen wie lange die Phase ausbauen was geht noch anhält.

Es gibt bei jedem Hype eine Korrektur. Aber es ist offensichtlich das der Geist aus der Flasche ist.

stefan92x schrieb:
Da ist er nicht der einzige. Ilya Sutskever (ehemals Chief Scientist bei OpenAI) z.B. hat auch schon das Ende des "Age of AI Scaling" ausgerufen. Was im direkten Gegensatz zum "Viel hilft viel"-Ansatz steht, den OpenAI unter Sam Altman weiter verfolgt.
Du findest zu jedem Thema Experten die eine andere Meinung vertreten als der Mainstream.

Wer Recht hat wird man sehen.

Aber es geht doch gar nicht um die AGI. ML und LLM sind Werkzeuge die neue Herangehensweisen ermöglichen. Es steht ein tiefgreifender Wandel an. Man kann nun den Kopf in den Sand stecken und sich einreden alles wird so bleiben wie bisher oder die neuen Optionen offen angehen.

Wir stehen erst am Anfang und können nicht sehen wohin es wirklich führt. Aber in Deutschland ist man Mal wieder überzeugt es ist schlecht.

stefan92x schrieb:
Könnte sich daraus folgend durchaus ergeben. Es braucht demnach neue Lösungen, um mit AI weiter zu kommen, und die müssen dann auch effizienter sein.
Einfach Mal die Augen aufmachen. Kopf aus dem Sand und anschauen was sich ändert.
Ergänzung ()

Bei der ganzen Diskussion über Physik und Biochemie sollte man nie vergessen dass die Physik und Biochemie auch nur Modelle sind mit der die Menschen versuchen die Realität zu beschreiben.

Es gibt Aspekte der Realität die von der Physik gut beschrieben werden.

Allerdings sollte man begreifen dass die Physik nicht Mal das Problem der Gravitation zwischen drei Körpern geschlossen lösen kann.
Ergänzung ()

Noch so eine Funktion für die es keine Anwender gibt. Wer will schon in den Finance Statement etwas suchen.
https://x.com/i/status/2031371502436933689
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SheepShaver
@ETI1120
Das Problem mit dem Flügelschlag des Schmetterling ist mir bekannt. Astronomen beschreiben ja auch die selbe Thematik bei Berechnungen von Himmelskörper. Sorry hätte gleich mein Verständnisproblem mit formulieren sollen.
Ich habe den Artikel so verstanden dass man auf Grundlage der Physik, also physikalisch Berechnungen trainieren will. Und da die wie am genannten Beispiel sehr komplex oder chaotisch ist habe ich mir das als sehr rechenintensive vorgestellt. Oder wie geht die ki mit der Komplexität beim lernen um? Da fehlt mir das Hintergrund wissen wie genau bzw in welcher Form man die ki damit trainieren will.
 
Und das wo Nvidia die Physix Unterstützung eingestellt hat...
/scr

Also zumindest Mal ein neuer Ansatz. Er scheint ja auch ein bisschen mehr Ahnung zu haben als Altman, Musk und Co.
Aber trotzdem klingt das alles extrem ambitioniert.
Ich drücke trotzdem die Daumen und hoffe, dass es für immer Open Source bleibt und nicht wie "Open"AI endet.
 
SheepShaver schrieb:
Prinzipiell gibt es aber keinen Prozess im Gehirn, den man nicht irgendwann einmal aus Prinzip nicht simulieren koennen sollte.
Es geht auch nicht um die Dimension des "Was?", sondern um das "Wie?". Die Informationsverarbeitung in Computern ist vollkommen vorhersagbar und komplett deterministisch. Über die Informationsverarbeitung im Gehirn weiß man dagegen noch nicht so viel:
Gespräche mit Neurophysiologen und Neurobiologen [machen deutlich], daß über die Informationsverarbeitung im menschlichen Gehirn sehr viel weniger gesichertes Wissen vorliegt, als in der typischen PopulärLiteratur suggeriert wird.
Aktuelle LLM sind also vollständig eigenständige, auf Algorithmen basierende, Systeme, die im Bereich der Sprache einen guten Eindruck menschlicher Kommunikation vermitteln können, deren Funktionsweise aber nicht einmal in Ansätzen etwas mit ihrem Vorbild zu tun hätte. Ein LLM ist darauf optimiert, für einen Menschen verständliche Symbole (und ggf. Töne) auszugeben. Der Weg dahin ist aber ein anderer als der im Gehirn ablaufende. Dass es so aussieht wie menschliches Verhalten liegt einfach daran, dass das LLM von Menschen darauf hin optimiert wurde. Das ist aber keine Eigenleistung der KI. Überlass ChatGPT sich selbst und es tut - nichts.

Unterstellen wir mal, der neue Ansatz würde funktionieren, physikalische Gesetze als Grundlage zu nehmen, um irgendeine Art von Verhalten zu simulieren, bspw. Handbewegungen für Roboter. Dann empfehle ich einfach mal das Gedankenexperiment im oben verlinkten Artikel (Konklusion, S. 17f.) zu lesen. Fazit: Selbst bei einer von Menschen konstruierten Maschine kann nur durch äußere Messungen nichts konkretes über den inneren Zustand ausgesagt werden.
Im Vergleich zu diesem Gedankenexperiment ist das Problem der Entschlüsselung der Arbeitsweise des menschlichen Gehirns ungleich größer.

Fazit: Eine aktuelle KI (und auch die kommenden KI) werden immer nur das Endergebnis (Sprache, Laute, Bewegungen) von organisch gewachsenen Systemen simulieren können, sie sind aber niemals eine Simulation des zugrundeliegenden Verhaltens. Wenn dir also der Output reicht, ist das ok. Aber dann hast du eben vollkommen determinierte Systeme, die keinerlei Intuition, Intelligenz oder Verstand haben, sondern nur Roboter.
Praktisches Beispiel: Du kannst mit einem heutigen Computer, viel Arbeit, vielen Datenbanken und viel Zeit, die Bewegung der Hand simulieren und hast dabei aber gar nichts über die inneren Abläufe einer richtigen Hand gelernt. Wenn du aber wissen möchtest, warum dir deine Freundin oder dein Freund eine Ohrfeige gegeben hat, hast du intuitiv bestimmt sofort eine Idee, du würdest den konkreten Ablauf innerhalb des biologischen Systems mit einem Computer aber nie in absehbarer Zeit nachvollziehen können.

Der Artikel endet übrigens nicht pessimistisch:
Aus dem vermeintlichen Gegensatz zwischen unseren Erkenntnissen über das menschliche Gehirn und dem Entwurf von leistungsfähigen künstlichen Rechnern entsteht also bei genauerem Hinschauen eine Symbiose von zwei sehr verschiedenartigen Wissensbereichen [...]
Man muss halt akzeptieren, dass ein Computer eine für sich eigenständig laufende Maschine ist und kein Gehirn. Was du also Simulation nennst, ist in Wirklichkeit eigenständiges Verhalten eines Computers - was toll ist! Nur ist es eben komplett determiniert, selbst wenn es hinreichend komplex ist. Das Gehirn funktioniert anders. Wie sehr anders, wird man immer besser erforschen können, du wirst aber kein Gehirn mit einem Computer nachbauen können.

Und um den Kreis zu schließen: LeCun ist vielleicht auch ein guter Naturwissenschaftler, vor allem versteht er aber etwas von Marketing. Wer für die Idee "Ich baue mit einem Physikbuch eine KI" eine Milliarde in die Hand gedrückt bekommt, sitzt voll auf dem Hypetrain und wir werden sehen, welches Ergebnis er liefern wird, wenn ihn die Blase nicht vorher einholt.
 
Erst einmal nur ein weiterer Club von Alchemisten, der dem Bleigießer von bevorstehenden Reichtum kündet.
 
SheepShaver schrieb:
Prinzipiell gibt es aber keinen Prozess im Gehirn, den man nicht irgendwann einmal aus Prinzip nicht simulieren koennen sollte.
Das ist die Frage. Ich halte es da mit David Gelernter und seiner Aussage, dass Siliziumrechner der falsche Stoff sind und ein Rechner keinen Orangensaft machen kann, egal wie komplex er ist. Genauso kann er auch kein Gehirn simulieren, weil die Grundlage der chemischen Prozesse fehlt. Vielleicht steckt auch Quantenmechanik drin.

Ich vermute, dass es einen ganz anderen Ansatz braucht. Wie lange gibt es schon Entwürfe von Flugapparaten, und wie komplett anders sind moderne Flugzeuge konzipiert.. ich glaube wir sind von echter künstlicher Intelligenz weit entfernt, womöglich Jahrhunderte.
 
Raul99 schrieb:
@ETI1120
Das Problem mit dem Flügelschlag des Schmetterling ist mir bekannt. Astronomen beschreiben ja auch die selbe Thematik bei Berechnungen von Himmelskörper. Sorry hätte gleich mein Verständnisproblem mit formulieren sollen.
Ich habe den Artikel so verstanden dass man auf Grundlage der Physik, also physikalisch Berechnungen trainieren will.
Was die genau vorhaben verstehe ich nach dem Lesen des Artikels auch nicht. Ich will auch nicht darüber spekulieren, was die vorhaben.

Der Punkt ist Machine Learning und Artificial Intelligence sind Marketing Terme, die man so wie alle Marketing Terme nicht allzu ernst nehmen sollte. Und vor allem nicht wörtlich nehmen sollte.

Die ganze Diskussion über Künstliche Intelligenz, ob sie möglich ist und auf welchem Weg sie erreicht werden kann ist schon alt und hilft IMO nicht sonderlich weiter.

Ich bin für eine pragmatische Herangehensweise. Es gibt Probleme, die man Mit Machine Learning oder LLMs lösen kann, also ist es sinnvoll Machine Learning und LLMs für diese Probleme anzuwenden.

Raul99 schrieb:
Und da die wie am genannten Beispiel sehr komplex oder chaotisch ist habe ich mir das als sehr rechenintensive vorgestellt. Oder wie geht die ki mit der Komplexität beim lernen um? Da fehlt mir das Hintergrund wissen wie genau bzw in welcher Form man die ki damit trainieren will.
Das Problem ist, dass die ganzen nummerischen Näherungsverfahren gigantisch viel Rechenzeit benötigen. Man versucht ML einzusetzen, um weniger Rechenzeit beim Lösen eines Problems zu benötigen, als man mit den numerischen Näherungsverfahren benötigt.
 
  • Gefällt mir
Reaktionen: Raul99
Naja ich sehe hier eine Entwicklung die einem "intelligenten" Hirn die notwendige physikalische Fähigkeiten hinzufügt. Evolution ist so ziemlich ähnlich.
Ergänzung ()

Stovi schrieb:
Die einzige Sprache, in der sich der Kosmos entziffern lässt, ist die Sprache der Mathematik, sagte Albert Einstein.
Also warum erst bei der Physik anfangen?
Weil Theorie und Praxis immer weiter auseinander klaffen
 
Zurück
Oben