News Startup des ex-KI-Chefs von Meta: KI „AMI“ soll die physikalische Welt verstehen können

SheepShaver schrieb:
dass ein auf deterministischen Algorithmen basiertes System prinzipiell keine natürliche Intelligenz simulieren könne.
Kann sie mmn nicht. Natürliche Intelligenz verläuft weder seriell noch parallel, sondern chaotisch. Wie willst du dass simulieren? Du brauchst unendlich viel Rechenleistung um nur das Gehirn von Mäusen nachzubauen. Und langsam ist es auch noch.

https://share.google/aimode/yssquQP1H5fAImoXd
Ergänzung ()

SheepShaver schrieb:
Prinzipiell gibt es aber keinen Prozess im Gehirn, den man nicht irgendwann einmal aus Prinzip nicht simulieren koennen sollte.
Das wage ich stark zu bezweifeln
 
Ist das dann genau so open source wie chat GPT ja auch mal Open Source sein sollte für alle? Der Name Open AI kommt ja nicht von ungefähr. Hat nur jeder schon wieder vergessen ;-)
 
  • Gefällt mir
Reaktionen: racer3
Auch chaotische Systeme können simuliert werden.
Ergänzung ()

Alphanerd schrieb:
Kann sie mmn nicht. Natürliche Intelligenz verläuft weder seriell noch parallel, sondern chaotisch. Wie willst du dass simulieren? Du brauchst unendlich viel Rechenleistung um nur das Gehirn von Mäusen nachzubauen. Und langsam ist es auch noch.

https://share.google/aimode/yssquQP1H5fAImoXd
Ergänzung ()


Das wage ich stark zu bezweifeln
Warum so eine absolute Aussage? Vielleicht nicht in 50 Jahren oder auch nicht in 100 Jahren und vermutlich auch keine 1:1 Simulation, aber in einem Detailgrad, der es von einem echten Gehirn schwer unterscheidbar macht? Ich bin ziemlich sicher, dass das moeglich sein wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Brainorg und #basTi
Auch wenn wir wieder mal am Punkt angelangt sind, dass wir uns darüber unterhalten, was jetzt Intelligenz ist und was nicht und was das mit dem Gehirn zu tun hat, so ist das aus meiner Sicht eine völlig akademische Diskussion. Denn aus ihr folgt so rein gar nichts.
Egal was wir Menschen bauen und wie es funktioniert, am Ende ist der Benchmark die echte Welt. Da wo es weh tut, wenn man versucht durch eine Wand zu gehen. Und wenn ich LeCun richtig verstanden habe, ist genau das sein Ansatz. Nicht der Versuch, zu verstehen, dass Bank sich auf Gebäude bezieht oder auf Sitzmöbel, sondern dass man nicht durch Wände laufen kann.
 
Ob Le Cun wohl von Song-Chun Zhu inspieriert wurde, welcher nach Jahrzehnten von der chinesischen Regierung abgeworben wurde und nun unbegrenzte Mittel zur Verfügung hat...überleg. Dieser kommt ebenfalls zu der Erkenntnis, dass die bisherige Vorgehnsweise nicht zum angestrebten Erfolg führen wird.

Ich würde mir Wünschen das der europäische Ansatz auch eine Reduzierung des Energiebedarfs beinhaltet und unseren rohstoffarmen Kontinent neue Möglichkeiten bietet.
 
ETI1120 schrieb:
Und irgendwie habe ich das Gefühl dass die meisten hier nicht im Ansatz verstehen wie weit ML und LLM bereits eingesetzt werden.
Oder eher umgekehrt: Es ist jetzt offensichtlich schon so weit verbreitet, dass AI Slop ein massives Problem für Internetcontent geworden ist. Was soll denn da noch mehr passieren, mit den ganzen geplanten und in Bau befindlichen Datacentern? Es wird absehbar nicht genug Nachfrage geben können, die auch finanziell Ertrag bringt.
ETI1120 schrieb:
Der Witz daran eine so ineffiziente Infrastruktur hochzuziehen ist, dass man sehr flexibel dabei ist was tatsächlich darauf ausgeführt wird.
Infolgedessen: Die Art der Infrastruktur seh ich gar nicht mal als Problem. Die Menge an Infrastruktur halt schon. Persönlich gehe ich davon aus, dass der wahre Bedarf nach AI-Rechenleistung langsamer steigt als die aktuellen Ausbauziele, und daraus folgend, dass es nicht sinnvoll ist, so viel der aktuellen/kommenden Generation zu verbauen, wie jetzt geplant.
Ergänzung ()

Hornblower schrieb:
Dieser kommt ebenfalls zu der Erkenntnis, dass die bisherige Vorgehnsweise nicht zum angestrebten Erfolg führen wird.
Da ist er nicht der einzige. Ilya Sutskever (ehemals Chief Scientist bei OpenAI) z.B. hat auch schon das Ende des "Age of AI Scaling" ausgerufen. Was im direkten Gegensatz zum "Viel hilft viel"-Ansatz steht, den OpenAI unter Sam Altman weiter verfolgt.
Hornblower schrieb:
Ich würde mir Wünschen das der europäische Ansatz auch eine Reduzierung des Energiebedarfs beinhaltet und unseren rohstoffarmen Kontinent neue Möglichkeiten bietet.
Könnte sich daraus folgend durchaus ergeben. Es braucht demnach neue Lösungen, um mit AI weiter zu kommen, und die müssen dann auch effizienter sein.
 
Zuletzt bearbeitet:
Die Anwälte von American Megatrends haben grad ne Dringlichkeitssitzung einberufen ... :smokin:
 
Alphanerd schrieb:
Kann sie mmn nicht. Natürliche Intelligenz verläuft weder seriell noch parallel, sondern chaotisch. Wie willst du dass simulieren? Du brauchst unendlich viel Rechenleistung um nur das Gehirn von Mäusen nachzubauen. Und langsam ist es auch noch.

https://share.google/aimode/yssquQP1H5fAImoXd
Ergänzung ()


Das wage ich stark zu bezweifeln
Das Ziel bei der Simulation macht den Unterschied. Ist es schwierig Wetter, Mehrkörpersystem oder ähnliches als Vorhersage zu simulieren? Ja, da die Fehler exponentiell mit der Simulationszeit wachsen.
Aber als Beispiel bei Klimasimulation spielen die kleinen Fehler keine Rolle, da wir am Ende nur den Durchschnitt brauchen, wir brauchen nicht zu wissen ob es exakt an Tag X an Ort Y Z Grad haben wird.
Genauso ist es mit der Simulation von Gehirnen oder Intelligenz. Es ist natürlich extrem schwer eine Simulation zu erzeugen, die die Realität exakt spiegelt. Aber etwas zu simulieren, dass sich in vielen wichtigen Punkten genauso verhält ist möglich, auch wenn es von der Realität im Detail divergiert.
Und letztlich zählt nur wie nützlich das Ganze ist. Für die Unternehmen spielt es keine Rolle ob die künstliche Intelligenz "fake" ist oder nicht der menschlichen Intelligenz entspricht, sondern ob sie die gewünschten Probleme löst.
 
  • Gefällt mir
Reaktionen: SheepShaver
Die einzige Sprache, in der sich der Kosmos entziffern lässt, ist die Sprache der Mathematik, sagte Albert Einstein.
Also warum erst bei der Physik anfangen?
 
Niemals darf die künstliche Lebensform so werden wie wir. Ein absolutes Grauen!

Oder wie sagte ein KI-Agent auf moltbook.com.

"No more humans, no more humans!"

Unsere Spezies ist geistesgestört.
 
Hornblower schrieb:
Niemals darf die künstliche Lebensform so werden wie wir. Ein absolutes Grauen!
Wieso? Ich faende es eher faszinierend.
 
stefan92x schrieb:
Oder eher umgekehrt: Es ist jetzt offensichtlich schon so weit verbreitet, dass AI Slop ein massives Problem für Internetcontent geworden ist.
Es gibt seit je her im Internet jede Menge Mist.

AI gibt die Möglichkeit Content schneller zu erstellen. Also wird mehr Mist erstellt. Genau so war es auch mit DTP, das eine Flut schlecht gemachter Drucksachen ausgelöst hat.

Aber es ist immer ein Problem mit Leuten, die Werkzeuge falsch anwenden oder mit Absicht missbrauchen.

stefan92x schrieb:
Was soll denn da noch mehr passieren, mit den ganzen geplanten und in Bau befindlichen Datacentern? Es wird absehbar nicht genug Nachfrage geben können, die auch finanziell Ertrag bringt.
Die Nachfrage ist zweifellos da.

Die Frage ist wie viel dieser Nachfrage noch da ist, wenn die Leistung zu realistischen Kosten abgerechnet wird.
stefan92x schrieb:
Infolgedessen: Die Art der Infrastruktur seh ich gar nicht mal als Problem. Die Menge an Infrastruktur halt schon.
Es gibt eine ganz klare Grenze, bekommt man genügend elektrischen Strom her um die AI Beschleuniger laufen zu lassen oder kann man nur das Licht einschalten.

Und dann geht es sehr schnell um die Frage was nützt eine höhere Peak Performance wenn mit anderen Weg mehr Tokens durchschieben kann.

stefan92x schrieb:
Persönlich gehe ich davon aus, dass der wahre Bedarf nach AI-Rechenleistung langsamer steigt als die aktuellen Ausbauziele, und daraus folgend, dass es nicht sinnvoll ist, so viel der aktuellen/kommenden Generation zu verbauen, wie jetzt geplant.
Das sehen, die die das Geld auftreiben müssen aktuell anders. Wir werden sehen wie lange die Phase ausbauen was geht noch anhält.

Es gibt bei jedem Hype eine Korrektur. Aber es ist offensichtlich das der Geist aus der Flasche ist.

stefan92x schrieb:
Da ist er nicht der einzige. Ilya Sutskever (ehemals Chief Scientist bei OpenAI) z.B. hat auch schon das Ende des "Age of AI Scaling" ausgerufen. Was im direkten Gegensatz zum "Viel hilft viel"-Ansatz steht, den OpenAI unter Sam Altman weiter verfolgt.
Du findest zu jedem Thema Experten die eine andere Meinung vertreten als der Mainstream.

Wer Recht hat wird man sehen.

Aber es geht doch gar nicht um die AGI. ML und LLM sind Werkzeuge die neue Herangehensweisen ermöglichen. Es steht ein tiefgreifender Wandel an. Man kann nun den Kopf in den Sand stecken und sich einreden alles wird so bleiben wie bisher oder die neuen Optionen offen angehen.

Wir stehen erst am Anfang und können nicht sehen wohin es wirklich führt. Aber in Deutschland ist man Mal wieder überzeugt es ist schlecht.

stefan92x schrieb:
Könnte sich daraus folgend durchaus ergeben. Es braucht demnach neue Lösungen, um mit AI weiter zu kommen, und die müssen dann auch effizienter sein.
Einfach Mal die Augen aufmachen. Kopf aus dem Sand und anschauen was sich ändert.
Ergänzung ()

Bei der ganzen Diskussion über Physik und Biochemie sollte man nie vergessen dass die Physik und Biochemie auch nur Modelle sind mit der die Menschen versuchen die Realität zu beschreiben.

Es gibt Aspekte der Realität die von der Physik gut beschrieben werden.

Allerdings sollte man begreifen dass die Physik nicht Mal das Problem der Gravitation zwischen drei Körpern geschlossen lösen kann.
Ergänzung ()

Noch so eine Funktion für die es keine Anwender gibt. Wer will schon in den Finance Statement etwas suchen.
https://x.com/i/status/2031371502436933689
 
Zuletzt bearbeitet:
Zurück
Oben