News Startup des ex-KI-Chefs von Meta: KI „AMI“ soll die physikalische Welt verstehen können

RMS_der_Zweite schrieb:
Physische oder physikalische Welt? ;)
Ich wollte auch gleich losmeckern, aber dann war explizit von der Physik und ihren Gesetzen die Rede.
 
RMS_der_Zweite schrieb:
Physische oder physikalische Welt? ;)
Es kann nur die physische Welt gemeint sein da die Physik nur ein Modell ist mit dem die reale Welt beschrieben werden soll.

In vielen Aspekten ist dieses Modell so gut dass Physik und Realität zusammenfallen aber es gibt eben auch Aspekte der Realität die die Physik nicht beschreiben kann oder nur mit großer Ungenauigkeiten beschreiben kann.
 
  • Gefällt mir
Reaktionen: Azdak und RMS_der_Zweite
ETI1120 schrieb:
In vielen Aspekten ist dieses Modell so gut dass Physik und Realität zusammenfallen
Physik und Realität fallen nie zusammen, wir sind es nur gewohnt in einer Welt zu leben, die vorhersagbar ist. Das ist doch der Witz an der KI: Es soll ein Ergebnis herauskommen, das wir von Vornherein haben wollen, es soll aber so aussehen, als wären wir da nicht selbst drauf gekommen.
 
@Boimler

Habe mir den Artikel hier nicht durchgelesen, da ich genug Vorträge von LeCun gesehen habe - dort sagt er, dass er KIs anhand des sensorischen Inputs trainieren will … d.h. die Modelle sollen, ähnlich wie schon Babys mit 8 Monaten, ein Grundverständnis von der Welt und ihrer „Physik“ entwickeln. Mit Physik ist dabei nicht die Wissenschaft bzw. theoretisches Wissen gemeint, sondern das „Modellwissen“ eines Babys, welches bereits recht gut weiß, wie sich physische Objekte verhalten sollten - dazu gibt es genug Experimente aus der evolutionären Anthropologie und kognitiven Psychologie.

Die bisherigen KIs sind nur durch menschliche kulturelle Artefakte trainiert … und in diesem Sinn ist auch das „simuliert“ zu verstehen.

Was sein Ansatz bringt… ich gespannt… er folgt da der Theorie der „Verkörperten Kognition“, die manche Philosophen bezogen auf Lebewesen vertreten.

Und in Frankreich ist diese Art von Philosophie auch dominanter.
Ergänzung ()

PS: … habe mir jetzt doch den Artikel angeschaut … ist dort sehr unglücklich formuliert.

Wie gesagt… es geht darum, dass die KIs durch sensorischen Input und Feedback lernen… also durch einen Kontakt mit der physischen Welt… und nicht einfach nur aus kulturellen Artefakten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azdak und Boimler
Ich bin mal gespannt, was genau die KI denn leisten soll. Es gibt ja bereits abseits von LLM KI, die komplexe Probleme lösen kann und nicht erst mit der Ursuppe trainiert werden muss.
 
Boimler schrieb:
Physik und Realität fallen nie zusammen, wir sind es nur gewohnt in einer Welt zu leben, die vorhersagbar ist.
Du weißt genau was ich mit zusammenfallen meine: das physikalische Modell beschreibt die Realität hinreichend genau.

Wir leben in einer Welt in der nur wenig vorhersagbar ist.

Boimler schrieb:
Das ist doch der Witz an der KI: Es soll ein Ergebnis herauskommen, das wir von Vornherein haben wollen, es soll aber so aussehen, als wären wir da nicht selbst drauf gekommen.
Der Witz an Maschine Learning und LLM ist, dass man damit Dinge automatisieren kann, die mit klassischer Programmierung nicht automatisiert werden können.
 
  • Gefällt mir
Reaktionen: Boimler
ETI1120 schrieb:
Der Witz an Maschine Learning und LLM ist, dass man damit Dinge automatisieren kann, die mit klassischer Programmierung nicht automatisiert werden können.
Tatsächlich funktionieren die meisten dieser KIs entweder lokal oder in überschaubaren Rechenzentren, weil die Datenbank relativ klein ist. Ein großes Thema in der Astronomie sind bspw. Himmelsdurchmusterungen unter bestimmten Kriterien, wobei die Datenbanken schon alle existieren, die Suche aber extrem aufwendig ist. So etwas lässt sich durch KI sehr effizient gestalten.
Das was gerade so gehyped wird, sind die LLMs, die im Vergleich extrem ineffektiv sind. Für den einzelnen Nutzer mag die Zeitersparnis eines durch die KI entworfenen Beitrags oder Briefes enorm sein, auf die Größe der Datenbank projiziert, ist es so, als würde man im Keller einen 1000l Wassertank installieren, um damit einmal die Woche einen Floh zu duschen.
 
Boimler schrieb:
Tatsächlich funktionieren die meisten dieser KIs entweder lokal oder in überschaubaren Rechenzentren, weil die Datenbank relativ klein ist. Ein großes Thema in der Astronomie sind bspw. Himmelsdurchmusterungen unter bestimmten Kriterien, wobei die Datenbanken schon alle existieren, die Suche aber extrem aufwendig ist. So etwas lässt sich durch KI sehr effizient gestalten.
Die Liste der Anwendungen von ML ist sehr sehr lang. Man kann die stetige Zunahme der Anwendungen in den 2010er Jahren auch am stetig wachsenden Umsatz von Nvidia Data Center Segment ablesen.

ChatGPT hat dann einen Hype ausgelöst.

Boimler schrieb:
Das was gerade so gehyped wird, sind die LLMs, die im Vergleich extrem ineffektiv sind. Für den einzelnen Nutzer mag die Zeitersparnis eines durch die KI entworfenen Beitrags oder Briefes enorm sein,
Dieses Briefe oder EMails mit LLMs aufzublaßen ist Unsinn. Ein xkcd Comic hat dies treffend beschrieben der Schreiber blässt mit Hilfe von LLM auf und der Leser fischt mit Hilfe vom LLM die Infohäppchen wieder heraus. Falls alles gut geht.

Was mir hier in den Sinn kommt ist eher der Foliensatz den ein Chief Software Architect erstellen muss. Im Alleingang kostet es 2 Arbeitstage und jede Menge Frust. Mit Hilfe eines LLM kommt in 2, 3 Stunden ein viel besseres Ergebnis raus.

Boimler schrieb:
auf die Größe der Datenbank projiziert, ist es so, als würde man im Keller einen 1000l Wassertank installieren, um damit einmal die Woche einen Floh zu duschen.
Nettes Bild. Aber vollkommen an der Realität vorbei.

Es geht nicht um einen User. es geht bei OpenAI um 900 Millionen User je Woche. Das reicht von Zeitvertreib um mit der KI zu spielen über konkrete Frage zu komplexe Aufgaben.

Wie ich schon mehrfach angemerkt habe, die eigentliche Farge ist wie viel bleibt übrig wenn zu realistischen Kosten abgerechnet wird. Was eher früher als später passieren wird.

Und noch eine Anmerkung: Gerade bei LLMs gilt, wer blöde Fragen stellt bekommt blöde Antworten.
 
ETI1120 schrieb:
Wie ich schon mehrfach angemerkt habe, die eigentliche Farge ist wie viel bleibt übrig wenn zu realistischen Kosten abgerechnet wird. Was eher früher als später passieren wird.
Darum ging es mir. LLMs sind viel damit beschäftigt, Begriffe auszusortieren (allein das Wort "Bitte" in einer Anfrage ist ein Leistungsfresser, weil die KI es erst aus dem Kontext entfernen muss) und Antworten zu verwerfen, die unwahrscheinlich sind. Egal ob es 1 oder 900 Mio. Nutzer sind. Die Menge an verworfenen Antworten skaliert ja nur mit der Anzahl und irgendwann muss man dann ein neues Sprachmodell herausbringen, weil der Algorithmus sich in den statistisch wahrscheinlichsten Antworten festgefahren hat.
 
Zurück
Oben