Voiture autonome : avec Mercedes, c'est toi le maillon faible
L'algorithme a choisi : il protégera les occupants de la voiture
De vrais problèmes informatiques et éthiques se posent avec l'arrivée des voitures autonomes
La voiture autonome nous promet un avenir radieux. Si, si, ce sont tous les acteurs de l'automobile qui nous le disent. Imaginez, aller au boulot ou en vacances, en jouant à Candy Crush ou en faisant défiler des pages du Repaire des Motards sur l'écran géant, en sirotant un mojito, quel pied. En plus, l'avènement de ces voitures va considérablement chambouler tout l'écosystème : les assurances ne serviront plus à rien et les forces de l'ordre devront rivaliser d'ingéniosité pour nous pruner. Et les Mr. Sécurité Routière du Ministère de l'Intérieur vont se retrouver au chômage. Dur, parce qu'on les aime bien.
Mais les voitures autonomes posent également de nouveaux problèmes, d'ordre philosophico-informatique. Elles sont conçues pour véhiculer le risque zéro. Mais leur algorithme doit intégrer tous les scénarios : on se souvient qu'une Tesla en mode pilotage automatique a causé un mort, car elle n'avait pas vu un camion se déporter, n'ayant pas réussi à identifier sa masse dans des conditions de luminosité particulières.
Ingénieurs et philosophes, membres de bureau d'éthique, experts en tous genres doivent en effet plancher sur une question fondamentale. Bien que tout soit fait pour éviter l'accident, si celui-ci devient effectivement inévitable, comment doit se comporter la voiture ? Faucher une classe entière de petits enfants pour protéger un vieillard malade au volant ? Entrer dans de sinistres jeux comptables et décider qui doit avoir le plus de chances, comme ça, au détour d'un programme informatique ? En cas d'embrouille, vos probabilités de survie sont liées à une ligne de code commençant par c majuscule, deux points, deux slashs, pondue par un geek n'ayant même pas le permis et n'ayant pas vu le soleil depuis six mois, survivant grâce à des pizzas surgelées dans sa cave. Flippant.
Certes, la question n'est pas nouvelle : les plus érudits de nos lecteurs, en phase avec les sciences sociales anglo-saxonnes, savent que ce débat remonte à 1967 quand la philosophe oxfordienne Philippa Foot la posa en ces termes : "le problème du wagon". L'idée : un wagon de tramway est en perdition dans une descente. En bas, 5 travailleurs ne peuvent pas le voir, trop occupés, lui tournant le dos et ils vont se faire shooter. A mi-pente, un homme très corpulent pourrait arrêter le wagon. Vous êtes à côté de lui. Vous laissez faire le carnage ou vous balancez le gros pour sauver 5 vies ?
Mercedes a choisi : c'est toi le maillon faible
Aucun des grands acteurs de l'autonome, Tesla en premier, n'a encore pris position sur le sujet. Une timidité que ne connaît pas Christoph Von Hugo, directeur de l'assistance à la conduite et de la sécurité chez Mercedes :
S'il y a une certitude de sauver au moins une personne, alors nos programmes sauveront le conducteur.
Donc, dans 10 ans, quand votre trajectoire de motard croisera celle d'une Mercedes F 105 autonome, méfiance.
Commentaires
Dur choix !
14-10-2016 16:50Du coup, BMW va devoir travailler sur des équipements du futur pour sa Vision Next 100 alors ?
14-10-2016 17:04Ceci dit, les constructeurs travaillent sur leurs véhicules autonomes justement pour éviter que ce genre de situation ne se produise et que le véhicule soit capable d'anticiper et de réagir dans un maximum de cas.
Pourquoi ?
14-10-2016 17:25N'est-ce pas déjà le cas avec les véhicules non-autonomes ?
Si une situation d'urgence nécessite une manoeuvre réflexe, la décision du conducteur, dictée par son instinct de survie, ne se fait-elle pas déjà au détriment de la sécurité des éléments extérieurs ?
Isaac Asimov a écrit les 3 lois de la robotique il quelques temps de cela (1942) :
15-10-2016 07:241) «Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.»
2) «Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.»
3) «Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.»
En appliquant ces lois, la Mercedes ne pourrait ni tuer le conducteur ou ses passagers ni tuer une ou plusieurs personnes extérieures à la Mercedes, et de plus, le conducteur ne pourrait pas reprendre le contrôle du véhicule.
Mon grain de sel :
15-10-2016 15:14D'abord, on est encore à plusieurs décennies du moment où cette question deviendra pertinente, en admettant qu'elle le devienne un jour.
Ensuite, je ne pense pas que cette décision revienne au constructeur. Ils ont du faire une étude et ils se sont rendu compte que leur client étaient des connards égoïstes et égocentrique pour qui attachent plus de valeur à leur vie qu'à celle d'une 15ène d'enfants. Soit. Mais si on parle de mettre sur les route des machines qui peuvent dans des situations exceptionnel s'autoriser à tuer des gens, c'est à la société toute entière de répondre à la question « Qui tuer ? Qui sauver ? ».
Mon autre gain de sel (d'informaticien) :
15-10-2016 15:28> Entrer dans de sinistres jeux comptables et décider qui doit avoir le plus de chances, comme ça, au détour d'un programme informatique ? En cas d'embrouille, vos probabilités de survie sont liées à une ligne de code commençant par c majuscule, deux points, deux slashs, pondue par un geek n'ayant même pas le permis et n'ayant pas vu le soleil depuis six mois, survivant grâce à des pizzas surgelées dans sa cave. Flippant.
Alors, si le programme de votre voiture est un batch MS-DOS (le C:\). Cherchez pas, tout le monde mourra.
Comme je l'ai dis juste au dessus. L'informatique n'en est pas là. C'est une science très difficile, toutes les choses cool qu'on voudrait faire sont soit très difficile à faire, soit impossibles à faire. Conduire, c'est difficile, déjà en situation normale. Si on ajoute à ça des situations exceptionnelle, ça l'est encore plus. Dans le vrai monde (pas celui des marketeux de mercedes). La question qui est pertinente là, c'est pas « est-ce que la vie d'un enfant a plus de valeur que celle d'un vieux ». C'est « Comment faire pour que la voiture ne tue pas connement quelqu'un parce qu'elle a confondu un cycliste avec un panneau ».
Enfin, j'ai le permis, je ne vis pas dans une cave, et j'ai un four, donc je mange mes pizza décongelées (C'est moins croustillant comme ça).
Aurais-je forcé le trait sur ma caricature du geek ?
16-10-2016 04:46Philippe