News Autonomes Fahren: Tesla entwickelt eigenen AI-Chip mit AMD-Technologie

Warum sucht sich Tesla eigentlich keinen Partner der auch wirklich Ahnung hat?


weil sie jemanden suchten, der Ahnung hat, ueber die IP verfuegt und CPUs und GPUs / Custom-Loesungen daraus designen kann.
 
Feine Sache, für AMD ist es bestimmt nicht das schlechteste ein neues/weitere Standbein zu finden, und mit Tesla zusammenzuarbeiten finde ich sehr nice Elin Musik finde ich genial weil er Visionen hat und vieles in die Tat umsetzt....
 
Was ist denn ein AI-Chip?

Neuronale Netze: lineare Algebra, von der Schwellwertfunktion abgesehen --> also ist ein AI-Chip ein Prozessor, der sehr gut Matrizen variabler Größe multiplizieren kann... also entweder eine GPU oder etwas in der Art wie der Xeon Phi.
 
calluna schrieb:
Was ist denn ein AI-Chip?

Neuronale Netze: lineare Algebra, von der Schwellwertfunktion abgesehen --> also ist ein AI-Chip ein Prozessor, der sehr gut Matrizen variabler Größe multiplizieren kann... also entweder eine GPU oder etwas in der Art wie der Xeon Phi.

Kann auch ein x86-SoC mit zusätzlichem DSP oder FPGA sein.
 
Im Steuergerät von meinem 3er Golf befand sich auch AMD... zum Thema Eintrittskarte ;)
 
GrooveXT schrieb:
Von KI, im Sinne von eigenständiges Denken auf menschlichem Niveau sind wir noch Jahrzehnte entfernt


https://www.cnet.com/news/what-happens-when-ai-bots-invent-their-own-language/

https://qz.com/911843/googles-ai-go...tition-got-stressful-in-a-fruit-picking-game/

Gab auch ein Experiment, wo KI´s interpretieren sollten, was sie in einem "Punktehaufen" sehen, also ähnlich dem was wir in Wolken usw meinen zu sehen.
Als Basis dienten diverse Bilder mit denen sie gefüttert wurden. Heraus kam sowas wie Entenfische, Katzenelefanten etc etc.

Also ich finde schon, dass sich die KI-Forschung erschreckend schnell genähert hat und man nicht unbedingt mehr von "Jahrzehnten" sprechen kann! ;)

Gruß

Alef
 
@Alefthau

Neuronale Netze interpretieren und sehen nichts... das sind nur Metaphern. Was du meinst, dieses Experiment, ist eine Rückwärtsabfrage.

Doch, man kann von Jahrzehnten sprechen. Logik, Mathematik etc. sind Inhalte unseres Denkens, nicht das Denken selbst. Um Computer in unserem Sinne Denken zu lassen, muss man zuerst das Denken durch Logik rekonstruieren bzw. wird das in der "Philosophie des Geistes", die mit der "harten KI Forschung" eng verwoben ist, als "Naturalisierung des Geistes" bezeichnet. Ein Projekt das auch nach 50+ Jahren nichts vorzuweisen hat. Vielleicht, weil es nicht möglich ist?

Aber zumindest haben sich mit der genialen Idee der künstlichen Neuronalen Netze Möglichkeiten ergeben, wie man auf relativ einfache Weise lernende Algorithmen realisiert. Damit lässt sich sehr viel anstellen, aber "menschliches Denken" ist nicht einfach eine Frage der Rechenleistung, da biologische neuronale Netze nichts berechnen und dort z.B. Zeit eine Rolle spielt, was bei den Algorithmen für künstliche neuronale Netze nicht der Fall ist... die können beliebig schnell oder langsam ausgeführt werden.
 
Zuletzt bearbeitet:
Als ob AMD in dem Bereich nichts vorzuweisen hätte.
Sie haben damals nur ganz knapp gegen Nvidia verloren als es um die ersten Aufträge bei Tesla ging.
Anscheinend hat sich jetzt etwas geändert falls die News wirklich stimmen sollte.

Und in dem Fall kennen sich die die Manschaften... Keller kennt AMD, AMD kennt Keller. Tesla wird durch die Zusammenarbeit mit Nvidia oder den AI-Futzis vorher auch Know-How haben, das AMD hilft. Win-Win und AMD ist billiger als Nvidia.

Was eine AI-CPU ausmacht?
So wie ich es verstanden habe extreme Parallelisierung.
 
Geil, Keller und AMD arbeiten bei Tesla wieder zusammen. Heißt im Umkehrschluss, dass der Sweetpot bei 130 km/h liegt, er aber nie schneller als 200 km/h fährt. Und wenn, dann nur mit Stickstoffkühlung! :-D
 
Zuletzt bearbeitet:
calluna schrieb:
@Alefthau

Neuronale Netze interpretieren und sehen nichts... das sind nur Metaphern. Was du meinst, dieses Experiment, ist eine Rückwärtsabfrage.

Doch, man kann von Jahrzehnten sprechen. Logik, Mathematik etc. sind Inhalte unseres Denkens, nicht das Denken selbst. Um Computer in unserem Sinne Denken zu lassen, muss man zuerst das Denken durch Logik rekonstruieren bzw. wird das in der "Philosophie des Geistes", die mit der "harten KI Forschung" eng verwoben ist, als "Naturalisierung des Geistes" bezeichnet. Ein Projekt das auch nach 50+ Jahren nichts vorzuweisen hat.

Aber zumindest haben sich mit der genialen Idee der künstlichen Neuronalen Netze Möglichkeiten ergeben, wie man auf relativ einfache Weise lernende Algorithmen realisiert. Damit lässt sich sehr viel anstellen, aber "menschliches Denken" ist nicht einfach eine Frage der Rechenleistung, da biologische neuronale Netze nichts berechnen und dort die Zeit eine Rolle spielt, was bei den Algorithmen für künstliche neuronale Netze nicht der Fall ist... die können beliebig schnell oder langsam ausgeführt werden.

http://www.telegraph.co.uk/technolo...ts-photos-as-animals-with-creepy-results.html

http://www.iflscience.com/technology/artificial-intelligence-dreams/

http://www.businessinsider.com/thes...network-that-was-taught-to-look-for-animals-1

Gruß

Alef
 
@Alefthau

Hast du überhaupt gelesen, was ich geschrieben habe? Offensichtlich nicht! Ich kenne DeepDreaming... das ist eine Rückwärtsabfrage des neuronalen Netzes. Hast du schon einmal ein neuronales Netz programmiert? Ohne irgendwelche Bibliotheken zu nutzen, außer welche für lineare Algebra, ist das nicht besonders viel Python Code.

Und DeepDreaming kannst du dir auch als Python Code herunterladen.

Dir fehlt das fachliche Wissen für die Beurteilung, die du abgegeben hast, was den Stand der KI-Forschung betrifft, wenn es um das "menschliche Denken" geht.
 
@Alefthau
Doch kann man. Bitte guck dir mal die Experimente genauer an. Bei dem Facebook Experiment z.B. ist nur Gebrabbel rumgekommen und es ist nirgends dokumentiert ob die erfundene Sprache überhaupt zu einem Ziel geführt hat. Für mich sieht das eher danach aus, dass die KIs im Grunde überhaupt nicht miteinander kommuniziert haben und die Forscher deswegen das Experiment abgebrochen haben.

Und Bilderkennungsalgorithmen wie z.B. Gesichtserkennung gibt es schon Jahre. Lass sowas mal auf eine Pixelwolke los. Es sind nach wie vor Algorithmen nur das sie halt meist jetzt auf einer neuralen Strukturen laufen, aber ausser das sie ineffizienter als zuvor arbeiten kommt da noch nichts bei rum. Wenn wir mal von der Evolutionstheorie ausgehen und annehmen das unser Gehirn eine der effizientesten Formen ist um eine menschliche Intelligenz unterzubringen, so reden wir über ein neuronales Netz mit mehreren 10 Milliarden Neuronen. Supercomputer können heute gerade mal ein paar 1000 simulieren. Auch bei exponentiellem Leistungswachstum wird es noch einige Zeit dauern bis wir soviel Kapazität aufbringen können geschweige denn bis die Hardware so handlich ist, dass man nicht Megawatts zum Betrieb braucht. Und dann kommt noch die kleine aber nicht zu unterschätzende Hürde der Programmierung hinzu. Mit heutigen Mitteln sehe ich das noch nicht.
 
Zuletzt bearbeitet:
GrooveXT schrieb:
... Wenn wir mal von der Evolutionstheorie ausgehen und annehmen das unser Gehirn eine der effizientesten Formen ist um eine menschliche Intelligenz unterzubringen, so reden wir über ein neuronales Netz mit mehreren 10 Milliarden Neuronen.
Du hast vergessen zu erwähnen, dass diese 10 Mrd. Neuronen mehrere Verbindungen als nur 2, zu auch weiter entfernten "Knotenpunkten" unterhalten und das Gehirn als NN sich nonstop umbildet, um den jeweils gestellten Aufgaben optimal gewachsen zu sein.

Ansonsten könnte man zu Alefs Sicht hinzufügen, dass die Neuronen nicht mehr von SCs simuliert werden (müssen), sondern mittlerweile dank Vernetzung in der Cloud wachsen (können). Und damit sind dem Ganzen durchaus exponentielle Wachstumschancen gegeben.
 
Zuletzt bearbeitet: (Typo)
Unnu schrieb:
Ansonsten könnte man zu Alefs Sicht hinzufügen, dass die Neuronen nicht mehr von SCs simuliert werden (müssen), sondern mittlerweile dank Vernetzung in der Cloud wachsen (können). Und damit sind dem Ganzen durchaus exponentielle Wachstumschancen gegeben.
Wobei du die Bandbreitenbeschränkung der Cloud nicht vernachlässigen darfst. Ein paar milliarden Neuronen mit 2 oder mehr Verbindungen übers Internet? Man tauscht eine Limitierung gegen eine Andere. Supercomputer haben ja heute schon mit Interconnect-Problemen zu kämpfen und das wohlgemerkt intern mit weit effizienteren Methoden als einem Internetanschluss auf IP-Basis.
So oder so liegt da noch ein ordentlich Weg vor uns. Und selbst wenn es irgendwann mal soweit ist das wir ein komplettes Gehirn nachbauen können bleibt noch die Frage ob sich ein Bewusstsein bildet, denn ohne das bleibt auch ein Gehirn nur ein besserer Computer der auf Anfrage A mit Lösung B antwortet.
 
Nichtsdestotrotz kann man mit dem, was wir aktuell als KI bezeichnen in Kombination mit dem nächsten Buzzword, big data, viel scheiße anrichten
 
edenjung schrieb:
Tja der Running-Man Jim Keller. Einer der besten auf diesem Gebiet. :D
Und wenn der hilft sehe ich schon was großes auf uns zu kommen ;D

Diese Entwicklung ist sicherlich nicht (allein) Keller zuzurechnen.
Bereits 2013, ausgelöst durch den Playstation-Chip kam die Entscheidung für die Semi-Custom-Schiene.
https://www.golem.de/news/semi-custom-amd-gruendet-entwicklungsabteilung-fuer-socs-1305-99056.html

Aktuell hat auch nur AMD diese Möglichkeiten, also hochflexible SoCs mit hoher Leistung zu liefern. Nvidia ist auf die ARM-Basis angewiesen, Intel hat keine Hochleistungschips, zumindest nicht als Einheit wie die APUs von AMD.

Ich denke mal, dass die Nvidia-Lösung für Tesla im kommenden Massenmarkt zum einen zu teuer war/ist, zum anderen man selbst entscheiden will, was so ein Chip oder System alles leisten soll. Die Nvidia-Lösung ist wohl nicht so individuell konfigurierbar wie es AMDs Semi-Custom-Sparte anbieten kann.
Sicherlich auch zu einem günstigen Preis. AMD macht ja auch bei den Konsolen-Chips keinen großen Reibach, kann damit aber zumindest die Entwicklungskosten auf mehr Produkt umlegen und die Auslastung erhöhen. Unterm Strich also doch wieder ein gutes Geschäft, wenn auch nur Nischenmärkte sind.

Mit Ryzen und Vega ist natürlich mit Einführung der Infinity Fabric ein Grundstein gelegt worden für künftige hochflexible Aufbauten. Das Zauberwort ist hierbei HSA.

Klar, die Verbindung zu Keller mag die Verbindung zu Tesla nun erleichtert haben. Ob das aber nun wirklich sein Verdienst ist oder es auch ohne ihn so gekommen wäre ist nicht unklar. Die Palette der AMD-Angebote ist davon unabhängig attraktiv genug.
Ergänzung ()

Piep00 schrieb:
Geil, Keller und AMD arbeiten bei Tesla wieder zusammen. Heißt im Umkehrschluss, dass der Sweetpot bei 130 km/h liegt, er aber nie schneller als 200 km/hat fährt. Und wenn, dann nur mit Stickstoffkühlung! :-D

Was auch immer du rauchst, nimm weniger davon, oder gib mir zumindest was ab.
 
Zuletzt bearbeitet:
Piep00 schrieb:
Geil, Keller und AMD arbeiten bei Tesla wieder zusammen. Heißt im Umkehrschluss, dass der Sweetpot bei 130 km/h liegt, er aber nie schneller als 200 km/hat fährt. Und wenn, dann nur mit Stickstoffkühlung! :-D

Ich musste echt lachen. YMMD :D
 
nur mal so nebenbei, das Gerücht wurde von allen Seiten dementiert ;) Da haben sich wieder ein paar scheiss Kapitalisten bereichert um gestern ein port Shorts und heute ein paar KO Calls abzufischen und um heute beim Asntieg teuer ein paar Aktien leerzuverkaufen. Manipulation par exelance
 
GrooveXT schrieb:
Wobei du die Bandbreitenbeschränkung der Cloud nicht vernachlässigen darfst. Ein paar milliarden Neuronen mit 2 oder mehr Verbindungen übers Internet? Man tauscht eine Limitierung gegen eine Andere. ...
Da hast Du natürlich recht. Da müssen die Knoten und Verbindungen schon noch aufgebohrt werden. Und auch das mit den ICs der CPUs ist natürlich so eine Sache.
Andererseits ist es nicht so drakonisch auszuschließen wie das manche hier tun.
Ist ja nicht so, als ob nur ein paar einsame Forscher da herumdoktern würden. Da stecken die reichsten Unternehmen der Welt jede Menge Kohle rein und befeuern die Entwicklung.
Jepp, es ist gut möglich, dass sie die lediglich verheizen und nicht mehr als ein paar "intelligente Tomatenpflanzer" bei rumkommen, jedoch, wie heißt es so schön: Fail fast, try harder.

Vielleicht findet einer in der Heerschar der KI-Schreiber ja den goldenen Weg?
Und dann kann es ganz schnell gehen.
 
Unnu schrieb:
Ist ja nicht so, als ob nur ein paar einsame Forscher da herumdoktern würden. Da stecken die reichsten Unternehmen der Welt jede Menge Kohle rein und befeuern die Entwicklung.
Also bei den Unternehmen wäre ich vorsichtig. Ich glaube nicht das dort jemand ernsthaft an einer echte KI in diesem Umfang interessiert ist. Forschung in Unternehmen ist immer gewinnorientiert. Man sehe sich mal an was IBM für Probleme hat/hatte mit Watson irgendwas sinnvolles anzufangen. Was nützt einem Apple/Google/Amazon/Microsoft eine KI die quasi alle ihre Serverfarmen auslastet und wahrscheinlich erstmal nicht über die Intelligenz eines Chimpansen hinaus kommt?! KI wird kommerzielle erst interessant wenn sie einen Nutzen hat der sich gewinnbringend verkaufen lässt und das ist mit Stand der Technik heute nicht möglich.
Die Forschung muss da von anderen übernommen werden und die Unis/Forscher haben nicht die Ressourcen die dafür notwendig wären, sowas heute auf die Beine zu stellen. Vorerst sind intelligente Algorithmen wie Sprach- oder Bilderkennung wesentlich lukrativer für Unternehmen und damit es sich besser verkaufen lässt schreiben wir wie gesagt KI drauf, fertig.
 
Zurück
Oben