IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla demande le retrait en ligne d'une vidéo montrant ses véhicules qui heurtent des mannequins de la taille d'un enfant
Et ravive le débat sur la fiabilité de son système de conduite dit autonome

Le , par Patrick Ruiz

6PARTAGES

14  0 
Tesla demande à un groupe de pression de retirer les vidéos de ses véhicules percutant des mannequins de la taille d'un enfant, affirmant que les images sont diffamatoires et donnent une fausse image de son logiciel d'aide à la conduite le plus avancé. Les développements en cours surviennent en effet après des plaintes d’Elon Musk de ne pas voir plus de cas de vie sauvées par l’Autopilot mis en avant par les médias.


Tesla s'oppose à une vidéo publicitaire du groupe Dawn Project qui montre ses véhicules heurtant des mannequins à plus de 30 km par heure. La publicité préconise l'interdiction par les autorités compétentes du logiciel Full Self Driving Beta de Tesla, qui permet aux véhicules du constructeur de circuler en ville et dans les rues résidentielles en maintenant automatiquement leur trajectoire, en changeant de voie et en se dirigeant.


Cette publicité a suscité une vague d'articles et de critiques à l'égard du logiciel de Tesla, qui fait l’objet de tests dans une version préliminaire par plus de 100 000 utilisateurs sur la voie publique dans des pays comme les États-Unis et le Canada.

L'homme à l'origine du projet Dawn, le milliardaire et fondateur d'entreprise technologique Dan O'Dowd, dirige Green Hills Software, qui développe des systèmes d'exploitation pour les avions et les voitures, ce qui fait de lui un concurrent potentiel sur le marché des logiciels automobiles. Il s'est également présenté au Sénat américain cette année. O'Dowd explique qu'il s'en prend à Tesla parce qu'il est convaincu que la technologie, comme de nombreux autres logiciels sur lesquels les gens comptent dans le monde moderne, n'est pas assez sûre et doit être repensée - et dans ce cas, doit être interdite. « Le logiciel FSD de Tesla est le pire projet commercial que j’ai jamais vu », lance-t-il.

La vidéo suscite des réactions de la part des partisans de Tesla qui déclarent que le test du groupe Dawn Project est susceptible d’être manipulé. Certains ont d’ailleurs cherché à reproduire les démonstrations - impliquant parfois de vrais enfants - afin de montrer que le logiciel de conduite autonome proposé par Tesla fonctionne. Une expérience en faveur de la réputation du logiciel Autopilot de Tesla est celle de la naissance d’un bébé sur le siège avant d’un véhicule de l’entreprise en mode pilote automatique.

Au cours du mois de décembre de l’année précédente, des médias ont rapporté que la poche des eaux de Yiran Sherry s'est rompue alors que la famille était coincée dans les embouteillages. Les contractions augmentant rapidement et la circulation étant à peine fluide, le couple a réalisé qu'il n'arriverait pas à temps. Keating Sherry (son conjoint) a mis le véhicule en pilotage automatique après avoir réglé le système de navigation – dont la dernière version bêta du Full Self Driving lancée au terme du mois de novembre est équipée – vers l'hôpital, situé à 20 minutes de là. Il n’a ensuite eu qu’à poser la main sur le volant du véhicule qui les a menés jusqu’à la formation hospitalière pendant qu’il s’occupait de sa femme. La prise en charge de la dame s’est faite dans le véhicule.


Le cas Keating et Yirran faisait suite à celui d’un propriétaire de Tesla Model 3 qui avait affirmé devoir la vie à la technologie Autopilot : « Je suis sur la voie de droite, c’est une zone [où la vitesse limite minimale est] de 90 km/h et le pilote automatique est réglé à 102 km/h, quand un imbécile roulant probablement à 150 peut-être 160 km/h surgit de nulle part. Je suppose qu’il a l’intention de se faufiler entre moi et la voiture sur la voie de gauche, mais il n’y avait pas assez d’espace et le pilote automatique a pris des mesures évasives et a probablement sauvé ma vie aujourd’hui. »

Il a partagé une séquence filmée par l’enregistreur vidéo de conduite (dashcam) de sa Tesla Model 3 dans laquelle on peut voir la voiture apparemment fautive qui essaye de le dépasser en s’engouffrant dans un trou de souris. Pendant sa manœuvre de dépassement, la voiture noire surgit brusquement depuis la voie située à l’extrême gauche sur l’autoroute pour doubler le véhicule gris qui la précède, mais menace au même moment de percuter la Tesla Model 3 à droite.

Le système d’évitement de collision latérale automatique de la Tesla Model 3 a réagi de façon très rapide tout en gardant la voiture sous contrôle : d’abord en orientant la Tesla plus à droite vers une voie temporaire d'accélération/bretelle d'entrée libre à ce moment-là, puis en faisant revenir la Tesla à sa position initiale.


Les blâmes dont l’entreprise est la cible peuvent néanmoins être la résultante d’une politique publicitaire à problème. L’entreprise fait usage du terme Autopilot susceptible d’induire ses clients en erreur quant aux capacités réelles du système. Le constructeur laisse par exemple la possibilité aux conducteurs de jouer à des jeux vidéo tout en conduisant et renforce ainsi l’image du véhicule autonome qu’il vend à ses clients. C’est d’avis des autorités américaines de la publicité mensongère susceptible d’amener les conducteurs à surestimer les capacités réelles des Tesla. Elon Musk pour sa part répond que les notices d’information qui accompagnent les véhicules de l’entreprise sont claires sur les capacités réelles de l’Autopilot : c’est de l’aide à la conduite.

Source : O’Dowd

Et vous ?

Quel commentaire faites-vous de la position de Dan O’Dowd selon laquelle « le logiciel FSD de Tesla est le pire projet commercial qu’il ait jamais vu » ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Juste retour des choses pour Tesla en raison de sa politique publicitaire ?

Voir aussi :

L'Autopilote des Tesla plus sûr que la conduite manuelle, d'après une enquête commandée par une société d'assurances
Autopilot : la dernière mise à jour de Tesla oblige à garder les mains sur le volant, par un renforcement du harcèlement des conducteurs
Un hacker lance FreedomEV, un projet open source qui apporte de nouvelles fonctionnalités aux voitures Tesla, dont un mode de confidentialité
La Model 3 de Tesla peut désormais rouler sur les routes européennes, elle obtient le feu vert de la part des autorités de l'UE

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
8  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 28/11/2022 à 11:21
Citation Envoyé par Nancy Rey Voir le message
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Je pense qu'il est regrettable que le plus gros obstacle à la mise en circulation d'un projet automobile peu abouti est un projet privé. Et qu'il faille passer par ce genre de lobbying pour éviter des morts.
Ils ont aussi une communication efficace, ils attaquent par la corde la plus sensible : la sécurité des enfants. Mais je suis même surpris que Tesla ne soit pas allé plus loin sur le sujet. Le premier enfant qui meure à cause du système pourrait provoquer la fin pure et simple du FSD, d'autant plus quand on voit le manque de délicatesse de communication de Musk.
On analyse trop les clés de réussite pas assez les clés d'échec.

Je pense que le FSD ne devrait être mis sur les routes qu'avec des pilotes professionnels ayant connaissances complètes de ce qu'ils font. Cette phase de test ne devrait pas être réalisé par des amateurs, d'autant plus des clients qui ont payé ce gadget, et le considèrent comme tel.
5  0 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 13/10/2022 à 10:12
Malgré les avertissements, de nombreuses personnes considèrent les véhicules partiellement automatisés comme des véhicules autonomes
Ce n'est pas la faute des usagers, mais bien celle des constructeurs automobiles.

Si je me réfère à une publicité visible actuellement sur toutes les chaînes TV de grande écoute de l'Hexagone qui fait l'apologie d'un fabricant allemand bien connu avec son logo en forme d'étoile, ce sont bien les fabricants qui annoncent disposer de systèmes de conduites autonomes.
4  0 
Avatar de steel-finger
Membre confirmé https://www.developpez.com
Le 13/12/2022 à 23:49
Les gens n'ont pas compris que ce cher Elon n'est pas un génie incompris comme il aime nous le faire croire ! Beaucoup de gens pensent qu'il a créé tesla alors que ce sont des ingénieurs aux USA (Tarpenning et Eberhardt) pareil pour l'Hyperloop mais pour celui-ci le concept existe depuis bien longtemps.

Il y a très peu de ces projets qui sont allés jusqu'au bout, sauf SpaceX.
4  0