IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla demande le retrait en ligne d'une vidéo montrant ses véhicules qui heurtent des mannequins de la taille d'un enfant
Et ravive le débat sur la fiabilité de son système de conduite dit autonome

Le , par Patrick Ruiz

2PARTAGES

14  0 
Tesla demande à un groupe de pression de retirer les vidéos de ses véhicules percutant des mannequins de la taille d'un enfant, affirmant que les images sont diffamatoires et donnent une fausse image de son logiciel d'aide à la conduite le plus avancé. Les développements en cours surviennent en effet après des plaintes d’Elon Musk de ne pas voir plus de cas de vie sauvées par l’Autopilot mis en avant par les médias.


Tesla s'oppose à une vidéo publicitaire du groupe Dawn Project qui montre ses véhicules heurtant des mannequins à plus de 30 km par heure. La publicité préconise l'interdiction par les autorités compétentes du logiciel Full Self Driving Beta de Tesla, qui permet aux véhicules du constructeur de circuler en ville et dans les rues résidentielles en maintenant automatiquement leur trajectoire, en changeant de voie et en se dirigeant.


Cette publicité a suscité une vague d'articles et de critiques à l'égard du logiciel de Tesla, qui fait l’objet de tests dans une version préliminaire par plus de 100 000 utilisateurs sur la voie publique dans des pays comme les États-Unis et le Canada.

L'homme à l'origine du projet Dawn, le milliardaire et fondateur d'entreprise technologique Dan O'Dowd, dirige Green Hills Software, qui développe des systèmes d'exploitation pour les avions et les voitures, ce qui fait de lui un concurrent potentiel sur le marché des logiciels automobiles. Il s'est également présenté au Sénat américain cette année. O'Dowd explique qu'il s'en prend à Tesla parce qu'il est convaincu que la technologie, comme de nombreux autres logiciels sur lesquels les gens comptent dans le monde moderne, n'est pas assez sûre et doit être repensée - et dans ce cas, doit être interdite. « Le logiciel FSD de Tesla est le pire projet commercial que j’ai jamais vu », lance-t-il.

La vidéo suscite des réactions de la part des partisans de Tesla qui déclarent que le test du groupe Dawn Project est susceptible d’être manipulé. Certains ont d’ailleurs cherché à reproduire les démonstrations - impliquant parfois de vrais enfants - afin de montrer que le logiciel de conduite autonome proposé par Tesla fonctionne. Une expérience en faveur de la réputation du logiciel Autopilot de Tesla est celle de la naissance d’un bébé sur le siège avant d’un véhicule de l’entreprise en mode pilote automatique.

Au cours du mois de décembre de l’année précédente, des médias ont rapporté que la poche des eaux de Yiran Sherry s'est rompue alors que la famille était coincée dans les embouteillages. Les contractions augmentant rapidement et la circulation étant à peine fluide, le couple a réalisé qu'il n'arriverait pas à temps. Keating Sherry (son conjoint) a mis le véhicule en pilotage automatique après avoir réglé le système de navigation – dont la dernière version bêta du Full Self Driving lancée au terme du mois de novembre est équipée – vers l'hôpital, situé à 20 minutes de là. Il n’a ensuite eu qu’à poser la main sur le volant du véhicule qui les a menés jusqu’à la formation hospitalière pendant qu’il s’occupait de sa femme. La prise en charge de la dame s’est faite dans le véhicule.


Le cas Keating et Yirran faisait suite à celui d’un propriétaire de Tesla Model 3 qui avait affirmé devoir la vie à la technologie Autopilot : « Je suis sur la voie de droite, c’est une zone [où la vitesse limite minimale est] de 90 km/h et le pilote automatique est réglé à 102 km/h, quand un imbécile roulant probablement à 150 peut-être 160 km/h surgit de nulle part. Je suppose qu’il a l’intention de se faufiler entre moi et la voiture sur la voie de gauche, mais il n’y avait pas assez d’espace et le pilote automatique a pris des mesures évasives et a probablement sauvé ma vie aujourd’hui. »

Il a partagé une séquence filmée par l’enregistreur vidéo de conduite (dashcam) de sa Tesla Model 3 dans laquelle on peut voir la voiture apparemment fautive qui essaye de le dépasser en s’engouffrant dans un trou de souris. Pendant sa manœuvre de dépassement, la voiture noire surgit brusquement depuis la voie située à l’extrême gauche sur l’autoroute pour doubler le véhicule gris qui la précède, mais menace au même moment de percuter la Tesla Model 3 à droite.

Le système d’évitement de collision latérale automatique de la Tesla Model 3 a réagi de façon très rapide tout en gardant la voiture sous contrôle : d’abord en orientant la Tesla plus à droite vers une voie temporaire d'accélération/bretelle d'entrée libre à ce moment-là, puis en faisant revenir la Tesla à sa position initiale.


Les blâmes dont l’entreprise est la cible peuvent néanmoins être la résultante d’une politique publicitaire à problème. L’entreprise fait usage du terme Autopilot susceptible d’induire ses clients en erreur quant aux capacités réelles du système. Le constructeur laisse par exemple la possibilité aux conducteurs de jouer à des jeux vidéo tout en conduisant et renforce ainsi l’image du véhicule autonome qu’il vend à ses clients. C’est d’avis des autorités américaines de la publicité mensongère susceptible d’amener les conducteurs à surestimer les capacités réelles des Tesla. Elon Musk pour sa part répond que les notices d’information qui accompagnent les véhicules de l’entreprise sont claires sur les capacités réelles de l’Autopilot : c’est de l’aide à la conduite.

Source : O’Dowd

Et vous ?

Quel commentaire faites-vous de la position de Dan O’Dowd selon laquelle « le logiciel FSD de Tesla est le pire projet commercial qu’il ait jamais vu » ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Juste retour des choses pour Tesla en raison de sa politique publicitaire ?

Voir aussi :

L'Autopilote des Tesla plus sûr que la conduite manuelle, d'après une enquête commandée par une société d'assurances
Autopilot : la dernière mise à jour de Tesla oblige à garder les mains sur le volant, par un renforcement du harcèlement des conducteurs
Un hacker lance FreedomEV, un projet open source qui apporte de nouvelles fonctionnalités aux voitures Tesla, dont un mode de confidentialité
La Model 3 de Tesla peut désormais rouler sur les routes européennes, elle obtient le feu vert de la part des autorités de l'UE

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 12/09/2022 à 13:45
Un pirate qualifie le FSD de Tesla d'escroquerie flagrante et conseille de l'éviter
Les capacités du FSD sont largement remises en cause, mais le prix du logiciel n'a pas cessé d'augmenter

Les détracteurs du Full Self-Driving (FSD) se multiplient et continuent à sensibiliser les consommateurs sur les dangers du logiciel de conduite autonome de Tesla. Jason Hughes, un pirate informatique bien connu dans le monde Tesla, a récemment qualifié le FSD de Tesla d'"escroquerie flagrante à l'argent". Le pirate a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel "défectueux" qui est en version bêta depuis sa sortie en 2016. Les clients doivent désormais débourser 15 000 dollars pour utiliser la version bêta FSD, mais le logiciel est loin d'avoir tenu les promesses faites par Tesla et le PDG Elon Musk.

L'Autopilot de Tesla est ce que l'on appelle un système d'aide à la conduite autonome. En termes simples, il s'agit d'une fonction qui permet à une Tesla de "voir" les voitures et la route qui l'entourent, et de se conduire elle-même dans une certaine mesure. Depuis 2016, Tesla commercialise une version coûteuse appelée Full Self-Driving (FSD). Une personne raisonnable pourrait déduire du nom que le progiciel permet à une voiture de se conduire entièrement. Mais ce n'est pas le cas. En réalité, aucune voiture disponible à l'achat pour les consommateurs n'est actuellement capable de se conduire entièrement de manière autonome.

Le coût du Full Self Driving de Tesla a augmenté de 300 % depuis qu'il a été remanié et rendu disponible à l'achat en 2019. Ceux qui ont eu la chance d'acheter le FSD en avril 2019 l'ont obtenu au prix bradé de 5 000 dollars - il coûte désormais 15 000 dollars aux États-Unis. Hughes a déclaré qu'il était ridicule que Tesla ait augmenté "le prix d'un produit que vous ne pouvez même pas obtenir en réalité lorsque vous le payez plusieurs fois". Même si les clients pouvaient payer 15 000 dollars pour le FSD et commencer à l'utiliser immédiatement, Hughes aurait toujours des problèmes avec lui. Il a récemment exposé un certain nombre de ces problèmes.



Le premier est que Tesla a vendu le logiciel depuis octobre 2016, lorsque la société a déclaré que toutes les voitures vendues à partir de ce moment-là seraient prêtes à devenir des robotaxis. Elon Musk a promis la même chose le 22 avril 2019, lors du Tesla Autonomy Day. Selon le PDG de Tesla, tous ses véhicules électriques fabriqués à partir de ce jour seraient dotés d'un ordinateur appelé HW 3.0 au lieu du précédent, HW 2.5. Cela ne s'est pas produit. L'entreprise continue de livrer des véhicules équipés du HW 2.5 dans plusieurs pays. En Chine, le gouvernement a exigé que Tesla donne aux clients ce qu'il avait annoncé en remplaçant les mauvais ordinateurs.

Pour tous les autres clients dans le monde, Tesla dit simplement qu'ils recevront le matériel approprié sans frais supplémentaires lorsqu'ils pourront utiliser la FSD. Mais tout le monde ignore quand le logiciel quittera la version bêta. Hughes a déclaré que certains propriétaires doivent en fait payer 1000 dollars ou plus pour obtenir le bon matériel dans leurs voitures. Pour aggraver les choses, Tesla décide qui peut utiliser le FSD. Jusqu'à présent, seules les personnes basées aux États-Unis ont accès au logiciel bêta, mais elles doivent avoir un score spécifique dans une application appelée Safety Score Beta, qui est elle-même en version bêta.

En second lieu, Hughes pense que "le FSD n'est qu'un gadget". Le pirate a déclaré que, selon son "expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire". « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela "finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même". En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui la paient.

Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seule Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir - un abonnement mensuel ou 15 000 dollars - n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.

Les experts en véhicules autonomes (VA), les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar de sécurité et veulent l'empêcher à tout prix. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.



Selon eux, les conducteurs ordinaires ne devraient obtenir le FSD que lorsqu'il n'a plus rien de bêta. Cela dit, ils exhortent le gouvernement américain à prendre des mesures et à retirer le FSD des routes publiques. Seule une fraction des acheteurs du FSD a accès au logiciel jusqu'à présent, mais ils seraient déjà plus de 100 000. Certains utilisateurs du FSD estiment que "le logiciel de Tesla agit comme un conducteur ivre". Les experts en VA déclarent que, si le FSD avait une compétence minimale, cela entraînerait une confiance excessive, un facteur qui a été jugé crucial dans certains accidents mortels impliquant l'Autopilot.

Ralph Nader, l'un des militants américains les plus connus en matière de droits des consommateurs et du grand public, a demandé à la National Highway Traffic Safety Administration (NHTSA) "d'ordonner que la technologie FSD soit retirée dans chaque Tesla". Le milliardaire Dan O'Dowd semble dépenser des sommes importantes dans une campagne nationale visant à faire interdire le FSD. Au début du mois de septembre, les législateurs californiens ont également adopté un projet de loi qui pourrait forcer Tesla à cesser d'appeler son logiciel "Full Self-Driving" dans l'État. Selon les sources, le gouverneur devrait signer le projet de loi très prochainement.

La NHTSA enquête déjà sur le FSD et sur l'Autopilot. En juin, elle a fait passer son évaluation préliminaire d'Autopilot à une analyse technique - la dernière étape avant un rappel. Si l'organisme de réglementation de la sécurité ordonne à Tesla de retirer l'Autopilot de ses voitures, le FSD pourrait faire de même, privant ainsi de cette fonction toutes les personnes qui ont payé jusqu'à 15 000 dollars pour l'acquérir. Tesla pourrait avoir à rembourser ces clients si cela se produisait. Hughes n'a pas mentionné ces problèmes juridiques dans la série de tweets qu'il a partagée la semaine dernière pour exprimer son mécontentement.

Ce qui semble vraiment le déranger, c'est que Tesla reçoive de l'argent pour quelque chose qu'il ne fournit pas à la plupart des acheteurs. Si quelqu'un achetait un produit coûteux et ne le recevait jamais, il essaierait sans aucun doute d'annuler son achat. La différence est que Tesla ne vend pas un produit : il vend une promesse bêta en affirmant qu'il sera plus cher quand il sera prêt - ce qui n'a jamais été le cas depuis 2016 malgré les promesses récurrentes de Musk. Hughes a déclaré que "rien de ce que Tesla a produit à ce jour n'est capable, quelle que soit la quantité de logiciels qu'ils publient, d'être un robotaxi sans conducteur".

« Est-il [le FSD] réellement utile aujourd'hui ? Non. Est-il réellement disponible ? Non. Est-ce qu'il vaut 15 000 dollars en l'état ? Pas du tout. À 15 000 dollars, il doit tout faire, et je ne devrais pas être responsable s'il se plante. Au moins au prix original de 3 000 dollars, l'aspect conducteur-responsable serait acceptable. Dépenser 15 000 dollars pour avoir peut-être accès à un logiciel qui essaie de conduire à votre place, tout en vous pénalisant si vous ne prêtez pas toute votre attention à ce qu'il fait, et en vous rendant responsable s'il se plante, ça me semble plutôt arriéré », a conclu Hughes.

Source : Jason Hughes

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations de Jason Hughes ?
Que pensez-vous de l'Autopilot de Tesla et du Full Sefl-Driving ?
Pensez-vous que le FSD devrait être autorisé sur les routes publiques ?
Pensez-vous que Tesla puisse survivre si les régulateurs interdisaient le FSD ?
Quelle comparaison faites-vous entre Tesla et ses concurrents, notamment Waymo et Cruise ?

Voir aussi

Elon Musk tente de vendre le robot Optimus de Tesla à la Chine comme un agent autonome capable de prodiguer des soins aux personnes âgées, s'occuper de la maison et travailler dans les usines

Les législateurs californiens adoptent un projet de loi qui pourrait forcer Tesla à cesser d'appeler son logiciel "Full Self-Driving" dans l'État, il ne manque plus que la signature du gouverneur

« L'une des actions les plus dangereuses et irresponsables d'une entreprise automobile depuis des décennies », l'activiste Ralph Nader demande aux régulateurs de rappeler la technologie FSD de Tesla

Tesla augmente le prix de son logiciel Full Self-Driving qui va passer à 15 000 $ dès le 5 septembre, soit une augmentation de 3 000 $

Une vidéo semble montrer le système Autopilot d'une Tesla confondant une calèche avec un camion, le système piloté par l'IA n'a peut-être pas été formé à cette façon rudimentaire de se déplacer
8  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
9  2 
Avatar de Patrick Ruiz
Chroniqueur Actualités https://www.developpez.com
Le 15/09/2022 à 4:12
Tesla fait l'objet d'une action en justice au sujet de l'Autopilot et des prévisions d'Elon Musk en matière de Full Self Driving
Et ravive le débat autour des véhicules dits autonomes

Le terme Autopilot seul semble amener les conducteurs à surestimer les capacités des véhicules de marque Tesla et donc à provoquer des accidents de la circulation. De multiples sources s’accordent désormais sur la publicité mensongère et qualifient le logiciel Full Self Driving du constructeur automobile d’escroquerie flagrante à éviter. Ce sont autant d’aspects qu’une récente action en justice initiée contre le constructeur automobile résume, ce, même si ce dernier se défend de ce que les cas où les voitures Tesla sauvent des vies sont très peu mis en avant.

La plainte affirme que Tesla et Musk « ont trompé et induit en erreur les consommateurs en ce qui concerne les capacités actuelles de sa technologie ADAS [système avancé d'assistance au conducteur] et en déclarant qu'ils étaient perpétuellement sur le point de perfectionner cette technologie et de tenir enfin leur promesse de produire une voiture entièrement autonome », et que « contrairement aux promesses répétées de Tesla selon lesquelles elle aurait une voiture entièrement autonome dans quelques mois ou un an, Tesla n'a jamais été très près d'atteindre cet objectif. »

Le plaignant, Briggs Matsko, dit avoir dépensé 5000 dollars pour le forfait en 2018, comme de nombreux conducteurs de Tesla qui ont payé des milliers de dollars pour le pilote automatique amélioré. Ce dernier a été vendu comme un précurseur de la technologie Full Self Driving, un logiciel complémentaire d'une valeur de 15 000 dollars qui n'est toujours pas prêt à être livré. Matsko cherche à obtenir le statut de recours collectif pour cette action en justice, alors que la société est déjà confrontée à un autre recours collectif visant de précédents incidents qui ont affecté les fonctions de régulateur de vitesse adaptatif des Tesla pendant des années.

L'action en justice dénonce la terminologie utilisée par Tesla, notamment le terme "Autopilot", ainsi que les déclarations publiques et les tweets d'Elon Musk concernant le système de conduite autonome, toujours inachevé. Elle mentionne de façon spécifique l'affirmation de Musk selon laquelle un voyage autonome à travers les États-Unis sera effectué d'ici 2018, et ses affirmations de 2019 concernant la mise en circulation d'un million de robotaxis : « Dans un an, nous aurons plus d'un million de voitures avec une conduite autonome complète. »

Le voyage en question a finalement été mis en attente de façon indéfinie, Musk admettant qu'il aurait besoin d'un itinéraire spécialisé pour fonctionner, et déclarant qu'il préférait que l'équipe Autopilot se concentre sur les fonctions de sécurité. Les robotaxis continuent donc de se faire attendre.


Elon Musk pour sa part se plaint de ce que les médias ne mettent pas en avant les cas où les véhicules Tesla sauvent des vies. En effet, la poche des eaux de Yiran Sherry s'est rompue alors que la famille était coincée dans les embouteillages. Les contractions augmentant rapidement et la circulation étant à peine fluide, son époux a réalisé qu'il n'arriverait pas à temps. Keating Sherry (son conjoint) a donc mis le véhicule en pilotage automatique après avoir réglé le système de navigation vers l'hôpital, situé à 20 minutes de là. Il n’a ensuite eu qu’à poser la main sur le volant du véhicule qui les a menés jusqu’à la formation hospitalière pendant qu’il s’occupait de sa femme. La prise en charge de la dame s’est faite dans le véhicule.

Le cas Keating et Yirran fait suite à celui d’un propriétaire de Tesla Model 3 qui affirme devoir la vie à la technologie Autopilot : « Je suis sur la voie de droite, c’est une zone [où la vitesse limite minimale est] de 90 km/h et le pilote automatique est réglé à 102 km/h, quand un imbécile roulant probablement à 150 peut-être 160 km/h surgit de nulle part. Je suppose qu’il a l’intention de se faufiler entre moi et la voiture sur la voie de gauche, mais il n’y avait pas assez d’espace et le pilote automatique a pris des mesures évasives et a probablement sauvé ma vie aujourd’hui. »

Il a partagé une séquence filmée par l’enregistreur vidéo de conduite (dashcam) de sa Tesla Model 3 dans laquelle on peut voir la voiture apparemment fautive qui essaye de le dépasser en s’engouffrant dans un trou de souris. Pendant sa manœuvre de dépassement, la voiture noire surgit brusquement depuis la voie située à l’extrême gauche sur l’autoroute pour doubler le véhicule gris qui la précède, mais menace au même moment de percuter la Tesla Model 3 à droite.

Le système d’évitement de collision latérale automatique de la Tesla Model 3 a réagi de façon très rapide tout en gardant la voiture sous contrôle : d’abord en orientant la Tesla plus à droite vers une voie temporaire d'accélération/bretelle d'entrée libre à ce moment-là, puis en faisant revenir la Tesla à sa position initiale.


Les blâmes dont l’entreprise est la cible peuvent néanmoins être la résultante d’une politique publicitaire à problème. Le constructeur laisse par exemple la possibilité aux conducteurs de jouer à des jeux vidéo tout en conduisant et renforce ainsi l’image du véhicule autonome qu’il vend à ses clients. C’est d’avis des autorités américaines de la publicité mensongère susceptible d’amener les conducteurs à surestimer les capacités réelles des Tesla. Elon Musk pour sa part répond que les notices d’information qui accompagnent les véhicules de l’entreprise sont claires sur les capacités réelles de l’Autopilot : c’est de l’aide à la conduite.

Source : plainte

Et vous ?

Juste retour des choses pour Tesla en raison de sa politique publicitaire ?
Quel regard jetez-vous sur les avancées en matière de mise au point de véhicules autonomes ? Partagez-vous les avis selon lesquels l'humain restera incontournable ?

Voir aussi :

L'Autopilote des Tesla plus sûr que la conduite manuelle, d'après une enquête commandée par une société d'assurances
Autopilot : la dernière mise à jour de Tesla oblige à garder les mains sur le volant, par un renforcement du harcèlement des conducteurs
Un hacker lance FreedomEV, un projet open source qui apporte de nouvelles fonctionnalités aux voitures Tesla, dont un mode de confidentialité
La Model 3 de Tesla peut désormais rouler sur les routes européennes, elle obtient le feu vert de la part des autorités de l'UE
7  0 
Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 02/09/2022 à 18:14
Les législateurs californiens adoptent un projet de loi qui pourrait forcer Tesla à cesser d'appeler son logiciel bêta "Full Self Driving" dans l'État,
il ne manque plus que la signature du gouverneur Newsom

Tesla pourrait être contraint de cesser d'utiliser le terme "Full Self Driving" (FSD) en Californie. Mardi, les législateurs californiens ont adopté un projet de loi au Sénat qui pourrait rendre illégale l'utilisation par le constructeur de voitures électriques du nom actuel du logiciel. Le projet de loi, qui a été parrainé par la présidente du comité sénatorial des transports, Lena Gonzalez (Démocrate - Long Beach), nécessite désormais la signature du gouverneur Gavin Newsom.

Depuis 2016, Tesla commercialise une option coûteuse appelée Full Self-Driving. Une personne raisonnable pourrait déduire du nom que le progiciel permet à une voiture de se conduire entièrement.

Ce n'est pas le cas. Aucune voiture disponible à l'achat pour les consommateurs n'est capable de se conduire entièrement de manière autonome. Le California Department of Motor Vehicles (DMV) a des règles dans ses livres qui interdisent de faire la publicité de voitures comme étant «*autonomes*» lorsqu'elles ne le sont pas. Mais il n'a jamais appliqué ces règles.

Ainsi, suite à l'inaction de la DMV, la législature de l'État a décidé d'intervenir et d'établir un projet de loi concernant la publicité mensongère. Le projet de loi, parrainé par la présidente du comité sénatorial des transports, Lena Gonzalez (D-Long Beach), a été adopté par le Sénat mardi et se dirige maintenant vers le gouverneur Gavin Newsom pour sa signature.

Citation Envoyé par Projet de loi
La loi en vigueur exige que tous les véhicules automobiles neufs vendus dans l'État aient certains avis au consommateur soit apposés sur le véhicule, soit fournis à l'acheteur.

La loi existante réglemente les véhicules autonomes équipés d'une technologie capable de conduire un véhicule sans le contrôle physique actif ou la surveillance par un opérateur humain. En vertu de la législation en vigueur, cela n'inclut pas les systèmes d'évitement de collision, y compris, mais sans s'y limiter, l'assistance électronique aux angles morts, les systèmes de freinage d'urgence automatisés, l'assistance au stationnement, le régulateur de vitesse adaptatif, l'assistance au maintien de voie, l'avertissement de sortie de voie, les embouteillages et l'assistance à la file d'attente, ou d'autres systèmes similaires qui améliorent la sécurité ou fournissent une assistance à la conduite, mais ne sont pas capables, collectivement ou individuellement, de conduire le véhicule sans le contrôle actif ou la surveillance d'un opérateur humain.

Ce projet de loi obligerait un concessionnaire ou un fabricant qui vend un véhicule de tourisme neuf équipé d'une fonction d'automatisation de la conduite partielle, telle que définie, ou qui fournit une mise à jour logicielle ou une mise à niveau du véhicule qui ajoute une fonction d'automatisation de la conduite partielle, à fournir à l'acheteur ou au propriétaire avec un avis au consommateur qui décrit les fonctions et les limites de ces fonctionnalités.

Toute violation de ces exigences serait passible d'une infraction.

Le projet de loi interdirait en outre à un fabricant ou à un revendeur de nommer ou de commercialiser de manière trompeuse ces fonctionnalités, comme spécifié. En créant une nouvelle infraction, ce projet de loi imposerait un programme local mandaté par l'État.
Le projet de loi ne cible pas directement Tesla, mais Gonzalez a déclaré qu'elle pense que d'autres constructeurs automobiles, dont Ford, GM et BMW, ont été plus clairs sur les limites de leur technologie.

La fausse publicité sur la technologie de conduite autonome est un grave problème de sécurité, a déclaré Gonzalez. Au moins plusieurs décès ont été liés à l'Autopilot de Tesla, la version la moins chère et la plus basique de Full Self-Driving. « Allons-nous simplement attendre qu'une autre personne soit tuée en Californie ? », a-t-elle demandé.

Le nombre d'accidents, de blessures et de décès pouvant impliquer Full-Self Driving est inconnu. Le système national de signalement des accidents, vieux de plusieurs décennies, fracturé entre les villes et les États, est mal équipé pour déterminer des faits qui sont de plus en plus centraux à l'ère des véhicules routiers contrôlés par logiciel.

Une voiture moderne telle qu'une Tesla est dotée de minuscules ordinateurs qui collectent et traitent de grandes quantités de données qui peuvent être communiquées au fabricant via des connexions cellulaires et Wi-Fi. Tesla a résisté à la divulgation de ces données aux régulateurs ou aux chercheurs en sécurité.


La pression monte

Les régulateurs commencent à exercer plus de pression. La National Highway Traffic Safety Administration mène plusieurs enquêtes sur le bilan de sécurité de l’entreprise, notamment une série de voitures Tesla qui ont percuté des véhicules d’urgence garés sur le bord de la route.

Récemment, la NHTSA a ordonné à Tesla de lui fournir des données détaillées sur les accidents pouvant impliquer ses systèmes de conduite automatisés.

La Californie « interdit déjà la commercialisation trompeuse » des véhicules automatisés, a déclaré Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud. « L'adoption de ce projet de loi, cependant, fournirait certainement des preuves assez solides de l'intention législative d'une manière qui pourrait être significative pour une agence administrative d'État ou un juge d'État », a-t-il déclaré.

Le projet de loi ne répondrait à aucun problème de sécurité concernant le logiciel, mais ciblerait simplement sa commercialisation. Cela établirait également de nouvelles normes pour les constructeurs automobiles lorsqu'il s'agit d'expliquer les capacités de la technologie d'assistance à la conduite. Cependant, on ne sait pas comment la règle sera appliquée, car la California Department of Motor Vehicles serait chargée de prendre des mesures contre Tesla).

Les législateurs ont adopté le projet de loi quelques semaines seulement après que la DMV de l'État a accusé Tesla d'avoir utilisé un marketing trompeur pour faire la publicité de ses logiciels Autopilot et FSD.

Le logiciel Autopilot agit comme une fonction d'assistance au conducteur qui permet à la Tesla de se diriger, d'accélérer et de freiner automatiquement dans sa voie, tandis que le FSD est un module complémentaire en option qui peut changer de voie et s'arrêter aux feux de circulation, ainsi que s'arrêter aux panneaux de signalisation. Tesla a dit aux conducteurs que les deux fonctionnalités nécessitent un conducteur titulaire d'un permis de conduire le véhicule afin d'être prêt à prendre le relais à tout moment.

Certains régulateurs craignent que le marketing autour du logiciel ne donne aux conducteurs un faux sentiment de sécurité. L'année dernière, un homme a été arrêté pour être monté sur la banquette arrière alors qu'il utilisait un FSD sur l'autoroute. En juin, la National Highway Traffic Safety Administration a déclaré qu'elle avait élargi ses enquêtes sur Autopilot, y compris le rôle potentiel du logiciel dans plusieurs accidents de voiture mortels.


Des accidents liés au système Autopilot de Tesla

Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. En juin 2021, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA plus d'un an avant dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.

Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.

La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars 2021. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril de l'année dernière au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier 2021, ont brûlé pendant quatre heures après.

Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai l'année dernière que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.

Un autre accident mortel survenu le 5 mai 2021 près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.

En juin 2021, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.

Source : projet de loi

Et vous ?

Que pensez-vous de ce projet de loi ?
7  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 13/09/2022 à 10:24
Citation Envoyé par Bill Fassinou Voir le message
Ce qui semble vraiment le déranger, c'est que Tesla reçoive de l'argent pour quelque chose qu'il ne fournit pas à la plupart des acheteurs. Si quelqu'un achetait un produit coûteux et ne le recevait jamais, il essaierait sans aucun doute d'annuler son achat. La différence est que Tesla ne vend pas un produit : il vend une promesse bêta en affirmant qu'il sera plus cher quand il sera prêt - ce qui n'a jamais été le cas depuis 2016 malgré les promesses récurrentes de Musk. Hughes a déclaré que "rien de ce que Tesla a produit à ce jour n'est capable, quelle que soit la quantité de logiciels qu'ils publient, d'être un robotaxi sans conducteur".
Cette histoire d'entreprise qui demande de l'argent en promettant qu'un jour le développement sera fini ça me rappelle Star Citizen.
Il y a des gens qui ont foi en Tesla et qui sont prêt à mettre 15 000$ pour un logiciel qui est pour l'instant en version Beta, parce qu'ils se disent qu'un jour une version stable va sortir.
Les fans de Tesla sont patients, apparemment ça fait depuis 2016 qu'Elon Musk répète que le logiciel sera bientôt prêt.
C'est un peu du "fake it until you make it", Tesla promet des trucs qu'il est incapable de livrer pour l'instant.

Personnellement je trouve que Tesla est une bulle financière, en réalité l'entreprise vaut beaucoup moins que son prix en bourse.
Ça ne deviendra jamais un mastodonte comme Toyota.
Utiliser des batteries géantes n'est pas la solution. C'est beaucoup trop gourmand en ressource.
4  1 
Avatar de DevTroglodyte
Membre extrêmement actif https://www.developpez.com
Le 05/09/2022 à 9:55
Citation Envoyé par HaryRoseAndMac Voir le message
Ca dépend de la robustesse du truc ...
On a tous connu le bouton de chauffage qui ne fonctionne pas et j'en passe.

J'aurais d'ailleurs tendance, contrairement à ton propos, à penser que le tout électronique est justement plus robuste, pour la simple raison que tout est centralisé en un point et peu être dupliqué à partir de ce même point (une tablette qui prends toute la largeur de la vitre qui sert de tableau de bords, de caméras de recul, ... peut avoir un autre écran qui fait la même chose si le principal n'est plus fonctionnel).

A l'instar de boutons partout, qui, pour chaque bouton physique, fait forcément appel à une mécanique derrière, avec la possibilité pour chaque mécanique de casser, tomber en panne, ...

En d'autre termes, si tu veux allumer ton chauffage de deux manières différentes avec des boutons physiques, il te faudra deux boutons, alors qu'avec de l'électronique, il te faudra que le mécanisme de chauffage
Sauf qu'il a été démontré que le tout écran, et encore plus la tablette centrale, sont bien moins ergonomiques que des boutons judicieusement placés. Mais comme ça coute moins cher aux constructeurs à faire et que c'est plus évolutif/personnalisable... Mais bizarrement, cette baisse de prix n'est pas répercutée sur le prix de la voiture
4  2 
Avatar de DevTroglodyte
Membre extrêmement actif https://www.developpez.com
Le 29/08/2022 à 9:27
Citation Envoyé par Anselme45 Voir le message
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
Pour ça, il faudrait que quelqu'un porte plainte, et on dirait que personne n'a les co*****s ou juste la volonté de le faire. Entre les fans hardcore (et les fans Apple, à côté, font juste office de légèrement intéressés par les iphones), ceux qui n'ont pas pris assez d'options pour avoir eu des problèmes, et ceux qui ont peur de ce qu'ils vont trouver en face (un type égocentrique au possible et ses fans)... On aura peut-être des plaintes un jour, mais pour l'instant, on dirait que personne ne veut faire le premier pas.

Il n'y a qu'à voir les réactions sur tweeter quand quelqu'un ose ne serait-ce que critiquer sa tesla...

Et dire qu'à côté de ça, Mercedes ou Google testent encore à fond leurs véhicules autonomes pour qu'ils soient suffisamment sûrs pour être mis en circulation partout... (oui, je sais que les Google cars circulent, mais c'est limité à certaines villes)
2  1 
Avatar de HaryRoseAndMac
Membre averti https://www.developpez.com
Le 02/09/2022 à 23:40
Citation Envoyé par totozor Voir le message
Je crois au contraire que c'est du génie.
Musk c'est inspiré de Jobs, il a créé une communauté de hardcore défenseurs sur base de pas grand chose.
Mais il a poussé le concept encore plus loin parce qu'il propose les trucs pas vraiment utiles beaucoup trop cher mais, et c'est là son concept révolutionnaire, qui en plus ne fonctionne pas.
La R&T est en général un "pari sur l'avenir" : je dépense de l'argent aujourd'hui pour espérer en gagner demain. Mais Musk ne veut pas assumer ce risque et le fait financer pas ses clients.
Et en plus il leur fait assurer la campagne de test/validation dans le milieu le plus représentatif de la réalité : le monde réel.
C'est du génie pur. Du génie du mal pur. Le paroxysme du génie capitaliste.
C'est un sujet que je suit assez peu (en dehors des news que je croise) mais mercedes semble avoir de l'avance sur le sujet.
Mais je ne sais pas à quel point leur IA s'intègre vraiment dans une circulation réelle, avec des imprévus.
Tesla fait preuve d'une prétention incroyable, il ne faut pas s'étonner de se prendre des vagues de merdes quand on en fait et qu'on la vend au prix de l'or.
Musk pousse bien trop loin son principe de "fake it till you make it"
Pour avoir énormément bosser avec de hauts responsable et tous le tralala ...
Je ne suis pas convaincu que Musk ait une stratégie aussi développée en réalité ...

En réalité les big bosses ne sont pas plus intelligent que les autres et n'ont pas de réelle stratégie, ils jouent très souvent sur ce que vont interpréter les gens et définir leur scénario devant les caméras en fonction de ce que les gens attendent qu'ils disent.

Dans la grande majorité, tout ce qu'ils veulent, c'est que leur truc marche point.
Comment faire pour que ça marche, relève très souvent non pas de tout une étude stratégique digne d'un chef de projet SI dans une boite IT, mais simplement d'une "die and retry".
2  1 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/09/2022 à 10:01
Citation Envoyé par HaryRoseAndMac Voir le message
A l'instar de boutons partout, qui, pour chaque bouton physique, fait forcément appel à une mécanique derrière, avec la possibilité pour chaque mécanique de casser, tomber en panne, ...

En d'autre termes, si tu veux allumer ton chauffage de deux manières différentes avec des boutons physiques, il te faudra deux boutons, alors qu'avec de l'électronique, il te faudra que le mécanisme de chauffage
Oui sauf que tu ne perds que le bouton chauffage et pas l'ensemble des fonctions. Et les commodos sont robustes (que le système tombe en panne doit être possible mais que ça soit le commutateur ou bouton qui tombe en panne doit être extrêmement rare). Dans les domaines de pointe curieusement (aéronautique) on reste d'ailleurs aux "vrais" boutons dans les appareils (plus rapide à utiliser en plus).
1  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 05/09/2022 à 10:02
Citation Envoyé par DevTroglodyte Voir le message
Sauf qu'il a été démontré que le tout écran, et encore plus la tablette centrale, sont bien moins ergonomiques que des boutons judicieusement placés. Mais comme ça coute moins cher aux constructeurs à faire et que c'est plus évolutif/personnalisable... Mais bizarrement, cette baisse de prix n'est pas répercutée sur le prix de la voiture
Et c'est assez fun de voir la main tenter de viser la bonne zone de l’écran sur un sol qui secoue un peu et alors que l’écran fait 10x la taille d'une main, empêchant ainsi de s'appuyer sur le bord pour viser/stabiliser par exemple.
J'ai vécu ça avec le conducteur qui ne regarde plus la chaussée avec les lunettes descendues sur le bout du nez pour s'attacher à la lourde tache.
2  1