News GTC: Nvidia ergänzt Drive-Lösungen für autonomes Fahren

"Ist jetzt einsatzbereit", aber Fahrzeuge damit kommen erst in 3 Jahren....

Irgendwie scheint das Zusammenspiel von Nvidia mit den Herstellern noch nicht so zu funktionieren, wenn die offenbar erst jetzt damit testen und entwickeln können. So ist es dann schon veraltet, bevor es jemals beim Kunden angekommen ist...

Das spricht wohl für den Ansatz von Tesla, sowas gleich mit eigenem SoC zu machen...
 
  • Gefällt mir
Reaktionen: Odysseus277
Vernünftig dass nVidia vom reinen Hardwarelieferanten jetzt zum Systemlieferanten für autonomes Fahren aufsteigen möchte.
Aber ich frage mich ob sie dafür nicht schon zu spät sind. Software wird eines DER Schlüsselelemente in der künftigen user experience und eigentlich alle big player haben bereits massiv Projekte angestoßen - oder zumindest Geld versenkt.
Diese "generische" KI von nVidia für alle Anbieter muss entweder besser sein als vieles andere um der quasi-Standard zu werden - oder nVidia verdongelt die Leistung seiner Hardware mal wieder mit der eigenen Software.

Aber gerade die großen Automobilfirmen hätten mit dem Chauffeur und Concierge eher einen technologischen Rückschritt...
Ergänzung ()

Nozuka schrieb:
So ist es dann schon veraltet, bevor es jemals beim Kunden angekommen ist...
Nein. Der Kunde sind die Firmen. Und für die war die Vorstellung. Oder interessiert Dich wie Dein Golf automatisch einparkt?
Kauft sich jemand einen Mercedes weil da ein Parker-SoC drin arbeitet?
Noch sind wir nicht so weit dass wir Autos nach Rechenleistung bewerten, wichtig ist was auf die Straße kommt.
 
  • Gefällt mir
Reaktionen: foo_1337
TenDance schrieb:
Nein. Der Kunde sind die Firmen. Und für die war die Vorstellung. Oder interessiert Dich wie Dein Golf automatisch einparkt?
Kauft sich jemand einen Mercedes weil da ein Parker-SoC drin arbeitet?
Noch sind wir nicht so weit dass wir Autos nach Rechenleistung bewerten, wichtig ist was auf die Straße kommt.

Und für die Firmen sind wir die Kunden. Und sie können uns damit nur etwas veraltetes liefern.

Je mehr Autos mit Softwareupdates nachträchlich verbessert werden können, desto wichtiger wird die Rechenleistung.

Die Entwicklung wird sich in diesem Bereich wohl stark beschleunigen und wer am Anfang gleich 3 Jahre verliert, wird kein Leader.
 
Nozuka schrieb:
Irgendwie scheint das Zusammenspiel von Nvidia mit den Herstellern noch nicht so zu funktionieren, wenn die offenbar erst jetzt damit testen und entwickeln können.

Die konnten schon davor testen und entwickeln das ist nun die finale Version. Das ist wie mit Reviews und CPUs. Die Reviewer (CB, Linus Tech Tips und co.) bekommen Engineering Samples ergo Prototypen / fast fertige Produkte. So ist es auch bei Nvidia. Die Teile gab es schon savor als Engineering Sample/Prototyp und nun gibt es die Finale Version welche Hersteller kaufen können.
 
Ich find den Omniverse Replicator interessant. Damit will man Tesla wohl sythetisch einholen, also deren Daten, die bereits durch die Tesla Flotte gesammelt wurden. Aber ob das reicht, eine KI zu trainieren? Ich vermute mal nein, ist wie im echten Training: Reale Welt und die Kreativität der verrückten Verkehrsteilnehmer kann nicht simuliert werden, für so doof hält uns noch nicht einmal eine KI. Es wird spannend.
 
"Mein nächstes Auto wird nicht mein eigenes werden." - zumindest hoffe ich das. Selbstfahrende Taxis die man per App anfordern kann und die mich dann im Schlaf dorthin bringen wo ich möchte.
Meine Doppelgarage mit über 40m² werde ich dann zu einem Kino/VR-Raum umbauen 🙃
 
Nozuka schrieb:
"Ist jetzt einsatzbereit", aber Fahrzeuge damit kommen erst in 3 Jahren....

Irgendwie scheint das Zusammenspiel von Nvidia mit den Herstellern noch nicht so zu funktionieren, wenn die offenbar erst jetzt damit testen und entwickeln können. So ist es dann schon veraltet, bevor es jemals beim Kunden angekommen ist...

Das spricht wohl für den Ansatz von Tesla, sowas gleich mit eigenem SoC zu machen...
Du vergisst die extrem langen Entwicklungszyklen im Automotive-Sektor!
Ein neues Auto kommt im Schnitt alle 7 Jahre, nach der Hälfte dieser Zeit gibt es in der Regel ein großes MoPf (Modellpflege) und im Jahresrhythmus kleinere MoPfs (wobei bei letzteren keine wirklichen Neuheiten verbaut werden).

Wenn ein Hersteller einen neuen ASIC, einen µC oder ein anderes "intelligentes" Bauteil vorstellt, dann beginnen die Automotive-Zulieferer erst, damit Steuergeräte zu entwickeln. Und erst wenn die letzten extrem aufwendige Qualifikation zufriedenstellend absolviert wurde, wird das Steuergerät mit dem neuen Bauteil auch tatsächlich freigegeben und vom Kunden (also dem Autohersteller) abgenommen und verbaut.

Von daher sind die "drei Jahre" völlig normal.
 
Das ist ein Henne-Ei-Problem: Nvidia will die hier präsentierte Lösung liefern, aber es gibt keine echten Autos, in denen das in Kürze eingesetzt werden kann/wird. Die bräuchte es jedoch, um die Software im realen Fahrbetrieb großflächig zu validieren. Immerhin plant man nicht nur Level2/Level-3 Autonomie, sondern auch Level 5. Gerade für letzteres sind immens viele Trainings-Daten erforderlich, aber die können mangels Flotte nicht produziert werden. Also lebt die Entwicklung des Systems von reinen Simulationen.
Auf der anderen Seite wollen die Auto-Hersteller gerne ein ausgereiftes und v.a. aktuelles System einkaufen.
Außerdem muss die Sensorik kompatibel und leistungsfähig sein.

Tesla hat hier einen immensen Vorteil, weil sie alles aus einer Hand anbieten: Fahrzeug, Sensorik, FSD-Computer und FSD-Software. Darüber hinaus haben sie bereits >1 Mio (!) dieser vollintegrierten Systeme auf der Straße, die ständig im Shadow-Mode mitlaufen, Daten sammeln, und Situationen für Fine-Tuning und erweitere Simulationen auf explizite Nachfrage ans Mutterschiff liefern können.

Ich halte Nvidias Ansatz für vielversprechend, weil sie sehr hohe Hardware-Leistung (sowohl im Fahrzeug, als auch im Backend fürs Training der KI) und viel Software-Kompetenz auf sich vereinen. Es hapert jedoch gewaltig an der Anbindung an die reale Welt, sprich: Autos auf echten Straßen.
 
Was ich sehr schade finde ist, dass hier viele Firmen unterschiedliche Produkte entwickeln, statt an einem Strang zu ziehen. Den wirtschaftlichen Reiz verstehe ich durchaus, aber Sinn für die genrelle Umsetzung der Technik ist halt weg.
Die Chip-Hersteller haben sich doch mit ASML und der EUV Technik ja auch alle zusammengetan und die Technik gefördert, damit Sie alle davon profitieren können. Wäre hier bei diesem Thema aber für "Jeden" auf dem Planeten eine bessere Lösung. Eine große generische Datenbasis für jeden Hersteller. Alle würden davon profitieren.

Letztenendes wird man irgendwann nicht mehr ein Auto kaufen, was man schick findet, sondern welche die beste Softwarebasis hat. Das wäre schade.
 
badfallenangel schrieb:
Ich find den Omniverse Replicator interessant. Damit will man Tesla wohl sythetisch einholen, also deren Daten, die bereits durch die Tesla Flotte gesammelt wurden.
Synthetisch einholen? Wie meinst du das?
Wo soll Tesla voraus sein?
Ergänzung ()

Odysseus277 schrieb:
Tesla hat hier einen immensen Vorteil, weil sie alles aus einer Hand anbieten: Fahrzeug, Sensorik, FSD-Computer und FSD-Software. Darüber hinaus haben sie bereits >1 Mio (!) dieser vollintegrierten Systeme auf der Straße, die ständig im Shadow-Mode mitlaufen, Daten sammeln, und Situationen für Fine-Tuning und erweitere Simulationen auf explizite Nachfrage ans Mutterschiff liefern können.
Was Daten angeht hat Tesla allem Anschein nach noch einen Vorteil. Und die Integration ist auch vorteilhaft.
Aber das Tesla diesen Vorteil bisher genutzt hat, sehe ich nicht.
 
chartmix schrieb:
Synthetisch einholen? Wie meinst du das?
Wo soll Tesla voraus sein?
Der Omniverse, so wie ich es verstanden habe, "simuliert" Alltassytuationen, um die KI zu trainieren. Daher synthetisch, da keine echten Situationen.

Tesla nimmt (seit 2014?) ALLE Fahrten mit ALLEN Teslas mit Kamera auf und analysiert das Fahrverhalten, um die KI davon lernen zu lassen. Tesla hat also schon Jahrelang echte Trainigsdaten gesammelt, während die anderen noch darüber senieren, wie es funktionieren könnte. Und der Vorsprung an Daten muss erst mal eingeholt werden, denn ohne Daten bleibt die KI dumm.

Ist wie im echten Leben und Training: Der eine hat ne Freundin, der andere schaut Pornos. :evillol:
 
  • Gefällt mir
Reaktionen: chartmix
badfallenangel schrieb:
Und der Vorsprung an Daten muss erst mal eingeholt werden, denn ohne Daten bleibt die KI dumm.
Der Vorsprung an Daten ist aber keine Konstante und nicht per se von Vorteil.
Der Vorteil muss auch genutzt werden und da sehe ich keinen signifikanten Vorsprung.
 
chartmix schrieb:
Der Vorteil muss auch genutzt werden und da sehe ich keinen signifikanten Vorsprung.
Joa, zur Zeit ist das System noch ne grüne Banane, Beta.

Es ist halt Tesla, (mal wieder) Wette auf die Zukunft. Es ist wie mit den E-Antrieben, zum Zeitpunkt, wenn die davon schwätzen, kann sichs keiner vorstellen, und wenn die Kisten erstmal fahren, fragen sich alle, wie Tesla diesen Vorsprung vor deren Nase hinbekommen hat und fragen sich, wie sie vermeiden können, wie Nokia zu enden. Und bei Tesla schreiben die auch mal die ganze Software um. Der Kunde ist das Versuchskaninchen.

Finden das die Telsa-Fahrer toll? Ne. Wir hätten gern heute schon den Level4 oder 5 Autopiloten. Fluchen alle über die Tesla Schildererkennung? Ja. Aber warum wollen trotzdem die wenigsten wieder zurück? Nachdem mich mein nigelnagelneuer Hyundai in gefühlt suizidaler Absicht in einer einfachen Rechtskurve ohne Vorwarnung auf die Gegenfahrbahn abdriftete, hab ich drei Kreuze gemacht und den Lane Assist nie wieder außerhalb einer geraden Autobahn aktiviert. Die Teslas fahren da souverän die gesamte Strecke, wo die legacy systeme -Stand heute - aussteigen.

Wenn die von Tesla das System nicht hinbekommen, haben die Ressourcen in den Sand gesetzt. Wenn die den Autopiloten rein kamerabasiert mit Software auf Level 4 hinkriegen, sind alle anderen Hersteller mal wieder am A****. Denn die dürfen dann teure Systeme von Nvidia, Qualcomm oder Intel nehmen, mit noch teurerer Hardware (Lidar usw). Tesla kauf 5 Kameras für 2,50$, rest ist Software, die faktisch ohne Folgekosten skaliert werden kann.

Die Zeit wird zeigen, welcher Ansatz der Richtige war.
 
badfallenangel schrieb:
Nachdem mich mein nigelnagelneuer Hyundai in gefühlt suizidaler Absicht in einer einfachen Rechtskurve ohne Vorwarnung auf die Gegenfahrbahn abdriftete, hab ich drei Kreuze gemacht und den Lane Assist nie wieder außerhalb einer geraden Autobahn aktiviert. Die Teslas fahren da souverän die gesamte Strecke, wo die legacy systeme -Stand heute - aussteigen.
Dafür steigen Teslas Systeme woanders aus.
Du hast doch die volle Kontrolle über dein Auto und konntest ohne Probleme übernehmen.
Vielleicht war es auch außerhalb der Spezifikation. Who knows.
badfallenangel schrieb:
Wenn die den Autopiloten rein kamerabasiert mit Software auf Level 4 hinkriegen, sind alle anderen Hersteller mal wieder am A****.
Wieso wieder?
 
Zurück
Oben