Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsStartup des ex-KI-Chefs von Meta: KI „AMI“ soll die physikalische Welt verstehen können
Kann sie mmn nicht. Natürliche Intelligenz verläuft weder seriell noch parallel, sondern chaotisch. Wie willst du dass simulieren? Du brauchst unendlich viel Rechenleistung um nur das Gehirn von Mäusen nachzubauen. Und langsam ist es auch noch.
Ist das dann genau so open source wie chat GPT ja auch mal Open Source sein sollte für alle? Der Name Open AI kommt ja nicht von ungefähr. Hat nur jeder schon wieder vergessen ;-)
Kann sie mmn nicht. Natürliche Intelligenz verläuft weder seriell noch parallel, sondern chaotisch. Wie willst du dass simulieren? Du brauchst unendlich viel Rechenleistung um nur das Gehirn von Mäusen nachzubauen. Und langsam ist es auch noch.
Warum so eine absolute Aussage? Vielleicht nicht in 50 Jahren oder auch nicht in 100 Jahren und vermutlich auch keine 1:1 Simulation, aber in einem Detailgrad, der es von einem echten Gehirn schwer unterscheidbar macht? Ich bin ziemlich sicher, dass das moeglich sein wird.
Auch wenn wir wieder mal am Punkt angelangt sind, dass wir uns darüber unterhalten, was jetzt Intelligenz ist und was nicht und was das mit dem Gehirn zu tun hat, so ist das aus meiner Sicht eine völlig akademische Diskussion. Denn aus ihr folgt so rein gar nichts.
Egal was wir Menschen bauen und wie es funktioniert, am Ende ist der Benchmark die echte Welt. Da wo es weh tut, wenn man versucht durch eine Wand zu gehen. Und wenn ich LeCun richtig verstanden habe, ist genau das sein Ansatz. Nicht der Versuch, zu verstehen, dass Bank sich auf Gebäude bezieht oder auf Sitzmöbel, sondern dass man nicht durch Wände laufen kann.
Ob Le Cun wohl von Song-Chun Zhu inspieriert wurde, welcher nach Jahrzehnten von der chinesischen Regierung abgeworben wurde und nun unbegrenzte Mittel zur Verfügung hat...überleg. Dieser kommt ebenfalls zu der Erkenntnis, dass die bisherige Vorgehnsweise nicht zum angestrebten Erfolg führen wird.
Ich würde mir Wünschen das der europäische Ansatz auch eine Reduzierung des Energiebedarfs beinhaltet und unseren rohstoffarmen Kontinent neue Möglichkeiten bietet.
Oder eher umgekehrt: Es ist jetzt offensichtlich schon so weit verbreitet, dass AI Slop ein massives Problem für Internetcontent geworden ist. Was soll denn da noch mehr passieren, mit den ganzen geplanten und in Bau befindlichen Datacentern? Es wird absehbar nicht genug Nachfrage geben können, die auch finanziell Ertrag bringt.
ETI1120 schrieb:
Der Witz daran eine so ineffiziente Infrastruktur hochzuziehen ist, dass man sehr flexibel dabei ist was tatsächlich darauf ausgeführt wird.
Infolgedessen: Die Art der Infrastruktur seh ich gar nicht mal als Problem. Die Menge an Infrastruktur halt schon. Persönlich gehe ich davon aus, dass der wahre Bedarf nach AI-Rechenleistung langsamer steigt als die aktuellen Ausbauziele, und daraus folgend, dass es nicht sinnvoll ist, so viel der aktuellen/kommenden Generation zu verbauen, wie jetzt geplant.
Ergänzung ()
Hornblower schrieb:
Dieser kommt ebenfalls zu der Erkenntnis, dass die bisherige Vorgehnsweise nicht zum angestrebten Erfolg führen wird.
Da ist er nicht der einzige. Ilya Sutskever (ehemals Chief Scientist bei OpenAI) z.B. hat auch schon das Ende des "Age of AI Scaling" ausgerufen. Was im direkten Gegensatz zum "Viel hilft viel"-Ansatz steht, den OpenAI unter Sam Altman weiter verfolgt.
Hornblower schrieb:
Ich würde mir Wünschen das der europäische Ansatz auch eine Reduzierung des Energiebedarfs beinhaltet und unseren rohstoffarmen Kontinent neue Möglichkeiten bietet.
Kann sie mmn nicht. Natürliche Intelligenz verläuft weder seriell noch parallel, sondern chaotisch. Wie willst du dass simulieren? Du brauchst unendlich viel Rechenleistung um nur das Gehirn von Mäusen nachzubauen. Und langsam ist es auch noch.
Das Ziel bei der Simulation macht den Unterschied. Ist es schwierig Wetter, Mehrkörpersystem oder ähnliches als Vorhersage zu simulieren? Ja, da die Fehler exponentiell mit der Simulationszeit wachsen.
Aber als Beispiel bei Klimasimulation spielen die kleinen Fehler keine Rolle, da wir am Ende nur den Durchschnitt brauchen, wir brauchen nicht zu wissen ob es exakt an Tag X an Ort Y Z Grad haben wird.
Genauso ist es mit der Simulation von Gehirnen oder Intelligenz. Es ist natürlich extrem schwer eine Simulation zu erzeugen, die die Realität exakt spiegelt. Aber etwas zu simulieren, dass sich in vielen wichtigen Punkten genauso verhält ist möglich, auch wenn es von der Realität im Detail divergiert.
Und letztlich zählt nur wie nützlich das Ganze ist. Für die Unternehmen spielt es keine Rolle ob die künstliche Intelligenz "fake" ist oder nicht der menschlichen Intelligenz entspricht, sondern ob sie die gewünschten Probleme löst.
Die einzige Sprache, in der sich der Kosmos entziffern lässt, ist die Sprache der Mathematik, sagte Albert Einstein.
Also warum erst bei der Physik anfangen?
AI gibt die Möglichkeit Content schneller zu erstellen. Also wird mehr Mist erstellt. Genau so war es auch mit DTP, das eine Flut schlecht gemachter Drucksachen ausgelöst hat.
Aber es ist immer ein Problem mit Leuten, die Werkzeuge falsch anwenden oder mit Absicht missbrauchen.
stefan92x schrieb:
Was soll denn da noch mehr passieren, mit den ganzen geplanten und in Bau befindlichen Datacentern? Es wird absehbar nicht genug Nachfrage geben können, die auch finanziell Ertrag bringt.
Es gibt eine ganz klare Grenze, bekommt man genügend elektrischen Strom her um die AI Beschleuniger laufen zu lassen oder kann man nur das Licht einschalten.
Und dann geht es sehr schnell um die Frage was nützt eine höhere Peak Performance wenn mit anderen Weg mehr Tokens durchschieben kann.
stefan92x schrieb:
Persönlich gehe ich davon aus, dass der wahre Bedarf nach AI-Rechenleistung langsamer steigt als die aktuellen Ausbauziele, und daraus folgend, dass es nicht sinnvoll ist, so viel der aktuellen/kommenden Generation zu verbauen, wie jetzt geplant.
Das sehen, die die das Geld auftreiben müssen aktuell anders. Wir werden sehen wie lange die Phase ausbauen was geht noch anhält.
Es gibt bei jedem Hype eine Korrektur. Aber es ist offensichtlich das der Geist aus der Flasche ist.
stefan92x schrieb:
Da ist er nicht der einzige. Ilya Sutskever (ehemals Chief Scientist bei OpenAI) z.B. hat auch schon das Ende des "Age of AI Scaling" ausgerufen. Was im direkten Gegensatz zum "Viel hilft viel"-Ansatz steht, den OpenAI unter Sam Altman weiter verfolgt.
Du findest zu jedem Thema Experten die eine andere Meinung vertreten als der Mainstream.
Wer Recht hat wird man sehen.
Aber es geht doch gar nicht um die AGI. ML und LLM sind Werkzeuge die neue Herangehensweisen ermöglichen. Es steht ein tiefgreifender Wandel an. Man kann nun den Kopf in den Sand stecken und sich einreden alles wird so bleiben wie bisher oder die neuen Optionen offen angehen.
Wir stehen erst am Anfang und können nicht sehen wohin es wirklich führt. Aber in Deutschland ist man Mal wieder überzeugt es ist schlecht.
stefan92x schrieb:
Könnte sich daraus folgend durchaus ergeben. Es braucht demnach neue Lösungen, um mit AI weiter zu kommen, und die müssen dann auch effizienter sein.
Einfach Mal die Augen aufmachen. Kopf aus dem Sand und anschauen was sich ändert.
Ergänzung ()
Bei der ganzen Diskussion über Physik und Biochemie sollte man nie vergessen dass die Physik und Biochemie auch nur Modelle sind mit der die Menschen versuchen die Realität zu beschreiben.
Es gibt Aspekte der Realität die von der Physik gut beschrieben werden.
Allerdings sollte man begreifen dass die Physik nicht Mal das Problem der Gravitation zwischen drei Körpern geschlossen lösen kann.