News Autopilot: Tesla macht Full Self-Driving für jedermann verfügbar

neuhier08 schrieb:
Lustig was hier abgegeben wird an Unwissenheit. Ich fahre seit Monaten mit dem Autopilot auf der Autobahn (geht bei mir noch bis 150, weil ich nicht upgedated habe) und bin sehr zufrieden. Ich habe den Hack, dass ich die Hände nicht mehr ans Lenkrad geben muss.
Und damit hat dein Fahrzeug die Allgemeine Betriebserlaubnis verloren. Wenn es dann kracht, sitzt du im Gefängnis, egal ob du schuld warst.
 
  • Gefällt mir
Reaktionen: Weyoun
Wechsler schrieb:
Und damit hat dein Fahrzeug die Allgemeine Betriebserlaubnis verloren. Wenn es dann kracht, sitzt du im Gefängnis, egal ob du schuld warst.
und? Sag das mal den ganzen Chiptunern bzw. den Leuten die die Airbaglämpchen ausmontieren usw. Davon abgesehen, handelt es sich in einem bekannten Fall um eine physische Modifikation (kein Softwarehack) und somit nicht nachweisbar.
Wenn es kracht, würde es auch ohne Autopilot krachen, da ich ja nach wie vor (wenn auch wesentlich entspannter) davor sitze und jederzeit eingreifen kann.
Ergänzung ()

Kenshin_01 schrieb:
Tja... BMW: Freude am Zahlen 🤪 Bleib ich bei meinem Astra. Der kostet gut ausgestattet als Rückläufer grade mal 14k. Und bis ich den "abgefahren" hab...derweil könnte es tatsächlich brauchbar funktionierende Autopiloten geben ^^
Ich hatte 2 Opel - Nie wieder. War die Hölle. Jeder * fährt einen Opel, weißt Bescheid? :-)
 
Zuletzt bearbeitet:
neuhier08 schrieb:
und? #whocares? Sag das mal den ganzen Chiptunern, den Leuten die die Airbaglämpchen ausmontieren usw. Davon abgesehen, handelt es sich in meinem Fall um eine physische Modifikation (kein Softwarehack) und somit nicht nachweisbar.
Wenn es kracht, würde es auch ohne Autopilot krachen, da ich ja nach wie vor (wenn auch wesentlich entspannter) davor sitze und jederzeit eingreifen kann.
Schön dass direkt im Internetforum demonstriest, dass Dir die charakterliche Eignung zum Führen eines KFZ fehlt. Gleich nochn whataboutism hinterher.
 
  • Gefällt mir
Reaktionen: Blade_user, Weyoun, mae1cum77 und 3 andere
Wenigstens bringen die immer neue Innovationen, unsere deutschen Autobauer sind ja bei dem Thema ganz früh dran 🧐.
 
DerRico schrieb:
Kann ich nur unterschreiben. Das fachliche IT-Konzept schreibe ich in einer Woche runter. Bis es umgesetzt und programmiert ist, dauert es ein halbes Jahr und da fallen schon gerne mal die Hälfte der von mir als cool erwachteten Features weg wegen geht nicht. Nach dem Testing, wieder ein halbes Jahr, noch einmal 10%.

Aber mein Konzept ist immer Fancy

Hehe naja wer nicht erst mal nach den Sternen greift sitzt ja nur im Keller rum xD

Ich finde es eigentlich ganz gut dass es Tesla gibt, auch wenn die Funktionen für den Alltag einfach zu unzuverlässig sind, solange der Hersteller selber nicht wirklich an sie glaubt.

Aber man kann schon mal sehen was eventuell mal kommen kann - ich seh das eher als coolen Showeffekt.

Bei den Assistenzsystemen ohne andere Sensorik Redundanz .... ich würde dem nicht unbedingt das Leben meiner Familie anvertrauen - aber ich mach auch Backups auf M-Disc zusätzlich zu Doppel-RAID-Z3 xD

Auch wenn man erst mal denkt ja der Mensch hat doch auch nur Augen dann reicht das doch - jo das schon aber Teslas AI hat vielleicht im Höchstfall die Rechenleistung eines Hamsters ....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kenshin_01
Erkekjetter schrieb:
....

PS: Im Falle eines toten Motorradfahrer war es auch "nur" der Abstandshalter, der versagt hat, nichtmal der Autopilot an sich. Die Kameras können vor allem nachts Probleme bekommen, grade bei Motorrädern, die nur ein Rücklicht haben und dadurch die KI den Abstand nicht richtig berechnen kann. Der Grund, warum rein optische Sensoren nicht ausreichend sind für solche Systeme.

Der Tesla hat Scheinwerfer und fährt bei aktivem Autopilot auf Sicht (und bei Bedarf auch langsamer als eingestellt). Und jeder Spurführungsassistent (egal ob mit Radar oder ohne) muss auch die Fahrspuren sehen um die Objekte darauf der eigenen Spur zuzuordnen. Da sieht die Kamera zwangsläufig auch mehr als nur das Rücklicht.
Hast du irgendeine seriöse Quelle die diesen Fehler reproduzierbar beschreibt?

Aber auch bei Verwendung des Abstandstempomat/Autopilot ist natürlich der Mensch dahinter verantwortlich - auch wenn er mit Abstandstempomat fährt muss dieser natürlich überwacht werden. Weder bei Tesla noch bei VW oder Mercedes (abgesehen von Drivepilot) ist der Abstandstempomat "schuld" an den Unfällen wenn der Fahrer währenddessen nicht aufpasst und was passiert.
 
corvus schrieb:
Schön dass direkt im Internetforum demonstriest, dass Dir die charakterliche Eignung zum Führen eines KFZ fehlt. Gleich nochn whataboutism hinterher.
Was ich so unterhaltsam finde ist, daß er einen Tesla manipuliert und nicht wie ein Chiptuner irgendeinen Benz oder BMW ohne Kameras. Beim Tesla sind innen und außen haufenweise Überwachungskameras verbaut und durchgehend an. Alles, was der Besitzer und Fahrer treibt wird aufgezeichnet und an den Hersteller übermittelt.

Dieser (und damit auch die Staatsanwaltschaft) wissen im Falle eines Unfalls, haargenau was er getrieben hat.

So dumm kann man doch nicht sein, ausgerechnet einen Tesla zum Begehen von Verkehrsstraftaten zu benutzen. Das ist ja quasi Selbstanzeige.
 
  • Gefällt mir
Reaktionen: corvus, Weyoun, mae1cum77 und eine weitere Person
neuhier08 schrieb:
Da lachen ja die Hühner. "Ein Fünftel" - haha, wenn man irgendeine Rotzkarre fährt. Mein BMW kostete nicht mal voll ausgestattet 95k neu.

Solche Aussagen sind doch wirklich nicht nötig hier.

neuhier08 schrieb:
und? #whocares? Sag das mal den ganzen Chiptunern, den Leuten die die Airbaglämpchen ausmontieren usw. Davon abgesehen, handelt es sich in meinem Fall um eine physische Modifikation (kein Softwarehack) und somit nicht nachweisbar.

Welche "Chiptuner" bauen Airbaglämpchen aus?

Das "nicht nachweisbar" würde ich so auch nicht sagen.
 
Wechsler schrieb:
Was ich so unterhaltsam finde ist, daß er einen Tesla manipuliert und nicht wie ein Chiptuner irgendeinen Benz oder BMW ohne Kameras. Beim Tesla sind innen und außen haufenweise Überwachungskameras verbaut und durchgehend an. Alles, was der Besitzer und Fahrer treibt wird aufgezeichnet und an den Hersteller übermittelt.
Das auto so zu tunen ist zwar dumm. Die Videoaufzeichnungen werden aber aus Datenschutzgründen aber nicht an Tesla übermittelt (weder Dashcam noch Wächtervideos).

Die Anleitung ist da sehr klar:
https://www.tesla.com/de_at/support/car-safety-security-features

Werden die von meinem Fahrzeug aufgenommenen Dashcam-Aufnahmen an Tesla weitergegeben?

Nein. Die Dashcam ist ein Ausstattungsmerkmal, das Kunden zur Verfügung steht, sofern ein ordnungsgemäß konfiguriertes USB-Laufwerk in einen der vorderen USB-Anschlüsse einführt ist. Alle aufgezeichneten Videos werden lokal auf dem USB-Laufwerk gespeichert und nicht zu Tesla übertragen.

Aber die Videos werden bei einem Unfall auf einem USB Stick im Handschuhfach gespeichert (standardmässig aktiviert). Damit kann die Polizei wenn sie das Auto sicherstellt natürlich leicht nachsehen was passiert ist.
Und von Tesla ist bekannt das sie Daten wie Position, Geschwindigkeit, Pedalbetätigung usw. nach Polizeianforderung sogar remote abrufen können.
 
  • Gefällt mir
Reaktionen: Kenshin_01
corvus schrieb:
Schön dass direkt im Internetforum demonstriest, dass Dir die charakterliche Eignung zum Führen eines KFZ fehlt. Gleich nochn whataboutism hinterher.
Sorry mein Fehler. Ich dachte immer man braucht einen Führerschein um ein Auto zu lenken und nicht einen bestimmten Charakter :rolleyes: Dein Versuch, mir hier whataboutism zu unterstellen, ist ja mal ordentlich schief gelaufen. Les lieber mal meine anderen Beiträge.
So jetzt wieder back to topic.
 
Gargamehl schrieb:
Hast du irgendeine seriöse Quelle die diesen Fehler reproduzierbar beschreibt?
Reicht cnn? https://amp.cnn.com/cnn/2022/10/17/business/tesla-motorcycle-crashes-autopilot/index.html

Ansonsten sollte es nun ein leichtes sein, weiteres zu googlen. Was man mit den angaben hätte vorher tun können bevor man meint, jemand denkt sich so etwas aus.

Kleiner tipp: wie wird die ki wohl die entfernung zu einem auto vor sich berechnen wenn sie nur optische signale bekommt? Direkt messen wie mit radar oder laser ist nicht drin…
 
naTmeg schrieb:
Also ich würde lieber bei einem besoffenen Fahranfänger ohne Führerscherin mitfahren, als mich auf so ein System zu verlassen.

  • Hunderte Bugs in Soft- und Hardware.
  • Ungenaue und limitierte Sensortechnik.
  • Kein "Bewusstsein" zur richtigen Einschätzung der derzeitigen Situation.
  • Nicht ausfallsicher. Ist zwar ein Mensch auch nicht, aber das Risiko eines Herzeinfakts während des Fahrens ist schon sehr gering.

das Ding kann dich rückwärts in ner Milionstel Sekunde auf zwei Rädern im Handstand durch ne Massenkarabolage in die Parklücke ohne Blechschaden bugsieren und hat die Positionen aller Autos im Umkreis von 1 km mit einkalkuliert...zeig mir mal diesen pro Fahrer der DAS kann

und Elons Raketen wissen schon wie man rückwärts nen Handstand macht :D
 
Zuletzt bearbeitet:
Denniss schrieb:
Wird das hierzulande auch verfügbar und ist das so überhaupt von den Behörden genehmigt hier und drüben überm Teich?
Oder ist das mal wieder so eine Musksche Freigabe egal was die Behörden sagen oder verlangen?
Hierzulande eh nicht. Deutschland ist in allem rückständig da smkt Technik zu tun hat. In den USA ja. Dort gibt es schon self driving Taxis.
 
Denniss schrieb:
Wird das hierzulande auch verfügbar und ist das so überhaupt von den Behörden genehmigt hier und drüben überm Teich?
Oder ist das mal wieder so eine Musksche Freigabe egal was die Behörden sagen oder verlangen?
Hier dürfte das noch ewig dauern. Bedenke das wir in dem Land leben, wo die Fahrgestellnummer deines Autos unter personenbezogene Daten fällt. (Das macht es u.a. Totalschadenautos aus dem Ausland möglich, hier wieder halbherzig repariert und zugelassen zu werden) Datenschutztechnisch wird das in Europa allgemein ne spannende Kiste.
Ergänzung ()

naTmeg schrieb:
Also ich würde lieber bei einem besoffenen Fahranfänger ohne Führerscherin mitfahren, als mich auf so ein System zu verlassen.

  • Hunderte Bugs in Soft- und Hardware.
  • Ungenaue und limitierte Sensortechnik.
  • Kein "Bewusstsein" zur richtigen Einschätzung der derzeitigen Situation.
  • Nicht ausfallsicher. Ist zwar ein Mensch auch nicht, aber das Risiko eines Herzeinfakts während des Fahrens ist schon sehr gering.
Das ist die selbe Firma die Raketen ins All schießt, die dann selbständig auf nem (für diese Raketen) Minipad landen. Also ich vertrau diesem System lieber als nem Fahranfänger, und erst recht nem besoffenen.

Aber du bist wohl das beste Beispiel dafür, warum in diesem Land alles so lang braucht.
 
Gargamehl schrieb:
Die Videoaufzeichnungen werden aber aus Datenschutzgründen aber nicht an Tesla übermittelt (weder Dashcam noch Wächtervideos).
Wenn der Nutzer zugestimmt hat, behält sich Tesla das Recht vor Daten zu erheben, zu speichern und weiterzuleiten (an entsprechende Behörden). Dies geschieht nach Aussage von Tesla ausschließlich nach eigenem Ermessen. Wäre das nicht der Fall, hätte der ermittelnde Anwalt (im Video auf der vorherigen Seite) nicht die Daten von Tesla erhalten können.

Am Beispiel des Rennens eines Motorrades mit einem Tesla auf der Avus sogar ohne Unfall oder Notsituation. Bei einem Unfall mit Fahrerflucht, gab man nicht nur direkt unfallbezogene Daten heraus, sondern Aufnahmen aus dem Parkhaus, auf denen der Fahrer und der Beifahrer identifiziert werden konnten.

Wie geht das, wenn nichts gespeichert wird. Nicht umsonst gab es die Diskussion, daß Teslas auf bestimmten sicherheitskritischen Plätzen verboten werden sollten.
 
  • Gefällt mir
Reaktionen: Kenshin_01
Ja des gibt eine Studie von Tesla das der'Autopilot' weniger tödliche Unfälle macht wie menschliche Fahrer.
Dabei gilt: menschliche Fahrer sind alle Strecken genommen worden. Gerade Stadt und Baustellen sind aber höhere Unfallquoten, Autopilot nur auf Highway ohne Baustelle. Also wo Menschen auch weniger tödliche Unfälle haben ( nämlich so gut wie keine).
Autopilot ist mir 100% gefahren, sondern immer von Menschen überwacht.
Die US Straßenbehörde ermittelt gerade, weil Falle bekannt geworden sind, bei denen sich Teslas Autopilot kurz vor einem Crash abgeschaltet, v deswegen beim Crash nicht als aktiv gilt.
Gleichzeitig auch viele Berichte über merkwürdiges Verhalten der Autopiloten, missachten von Verkehrszeichen, übersehen von Feuerwehr Einsatzfahrzeugen.
Etc.pp Traue keiner Studie, die du nicht selbst gefälscht hat.
Ergänzung ()

Hyper bin ich nicht. Wabbelige Türen am X. Klappzeuge Verarbeitung. Innen sehr niedrig.
Die Abkürzung der Autos wirkt unter der Mittelklasse. Regensensoren auswerten können ganz ehrlich alle anderen seit Jahren besser. Bericht auf alle Sensoren außer Kamera ist mehr als mutig. Man sieht bei der Scheibenwischfunktion wie gut die Software wirklich ist.

Was ein Tesla kann ist beschleunigen. Und wenn man langsam fährt Energie sparen.

Musk verkauft an der Stelle Gläubigen nur Alternative Fakten. Ist damit ein Teil des Problems. Aussetzen von Bremsentest bei den Modell 3 weil zu viele durchgefallen sind.... Geht es noch ?
 
Zuletzt bearbeitet:
Da sieht man einmal wieder, Musk/Tesla reagiert in kritischen Zeiten mit Marketingmaßnahmen und Versprechungen.
Zum Thema FSD, egal welcher Hersteller, noch wäre mir mein Leben das autonome Fahren nicht wert. Klar halten aktuelle ACC-Systeme recht gut die Spur, halten Abstand, bremsen und beschleunigen recht gut, die Anzahl der irritierenden, unsauberen Fahrmanöver ist m.E. immer noch zu hoch. Nach meinen Erfahrungen ist kein System aktuell in einer Stadt sauber nutzbar, auf der Landstraße eingeschränkt nutzbar, einzig auf der Autobahn kann man sich aktuell gut unterstützen lassen. Tesla ist ein bisschen wir ein Ferwerksverkäufer, steht ja auf der Verpackung, dass man es nicht an Kinder geben soll und nur im Freien verendet, selber schuld, wer sich nicht daran hält und sich verletzt, Schuld hat nicht das Produkt immer der Nutzer.
Immerhin gibt es alternative Anbieter, nicht dass diese besser FSD können, aber in anderen Dingen bieten sie schöne Alternativen, da muss man diesen Quatsch nicht mitmachen und schon gar nicht mitfinanzieren.
 
Das Problem ist eine falsche Erwartungshaltung.
Das ist zum Teil aber auch die Schuld von Elon Musk, der vollmundige Versprechen macht, die manchmal eintreffen, oft aber auch nicht.

Tesla hat da auch eine bewegte Vergangenheit hinter sich.
Die dem "Autopiloten" zu Grunde liegende Technik, wurde in den letzten Jahren mehrfach komplett umgekrempelt.
Von MobilEye - ein israelischer Entwickler von Automobilassistenzsystemen, gehört zu Intel - hin zu einer Eigenentwicklung.
Mehrfache Umstellung der Rechner, mal von AMD, dann von nVidia usw.
Mehrfache Umstellung der Sensorik, von einer Kamera zu mehreren, mit Radar, ohne Radar usw. Aktuell arbeitet man bei Tesla wohl an einem Lidar.

Dann natürlich die Schwierigkeit das europäische Straßenverhältnisse ganz anders sind als amerikanische.
In den USA sind die Straßen viel breiter, gehen oft kilometerlang schnur-geradeaus, es gibt kein Rechtsfahrgebot und das Temolimit ist viel niedriger.
Unter diesen Bedingungen ist das alles viel einfacher.

Dazu kommt das die europäischen (und asiatischen) Autobauer nicht stehengeblieben sind.
Als das System ursprünglich von Tesla vorgestellt wurde, war es wirklich bahnbrechend und einmalig.
Heute sind die Systeme von Mercedes & Co. mindestens genauso gut, teilweise besser.

Tesla macht es aber eigentlich richtig(er). Sie erfahren sich Erfahrung.
Jeder Kilometer, den jeder Teslafahrer weltweit mit dem Autopiloten zurücklegt, wird protokolliert und ausgewertet.
Damit kann man die KI, die letztlich das Fahren übernehmen soll, mit realen Daten trainieren.

Das System an sich ist nichts besonderes, einfach die Kombination aus einem adaptiven Abstandtempomaten und einem aktiven Spurhalteassistenten.
Bleibt in der Spur und hält Abstand. Plus noch ein paar Kleinigkeiten oben drauf.
Das ist nicht schwer.

Schwer ist die situative Aufmerksamkeit oder Situationsbewusstsein. Eine Situation, in der man gerade steckt oder auf die man zufährt,
sofort und spontan richtig einzuschätzen und auf dieser Grundlage eine sinnvolle Handlungsentscheidung zu treffen.
Ein Mensch macht das intuitiv auf Grund von sensorischer Wahrnehmung und Verbindung mit Wissen und Erfahrung.

Einer KI muss ich nicht nur beibringen wie man richtig fährt, also was die richtige Entscheidung wäre,
sondern auch die Interpretation von Sensordaten, damit überhaupt eine Entscheidungsgrundlage vorliegt.
Das muss ich einem Menschen in der Fahrschule nicht beibringen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DNS81 und mae1cum77
Zurück
Oben