La programmation des voitures automatiques demande d’anticiper « tous » les cas de figure, dont ceux qu’on n’aimerait pas vivre: par exemple sur l’autoroute, devoir à l’instant choisir entre percuter une voiture accidentée ou ses passagers qui traversent pour se mettre à l’abri. Le MIT Technology Review a publié un article* qui soulève le problème éthique d’une part (définir la logique pour décider comment choisir entre deux mauvaises solutions) et juridique (si le constructeur propose au propriétaire de la voiture que lui fasse le choix entre plusieurs logiques de choix, qui est responsable en cas d’accident?).

En allant plus loin, il met le doigt sur la légère incohérence de la psyché humaine: la question du choix a été soumise à des groupes d’utilisateurs qui à 90% choisissent la logique utilitariste, celle qui minimise les dégâts (choisir de tuer 1 personne plutôt que 10 par exemple). Mais bien sûr, la personne sacrifiée pour les autres pourrait théoriquement être le conducteur, et là le public n’est plus d’accord. OK pour que les autres voitures se comportent comme ça, mais pas la mienne!… Ce qui pose encore un autre problème, qui le sera surtout pour les fabricants: qu’est-ce qui se passe si personne ne veut acheter la voiture qui prend les « bons » choix?

Au-delà de cette réflexion assez passionnante et urgente, je trouve surtout bien que le problème de base soit remis sur la table: oui, conduire c’est mettre en danger la vie des gens, et accessoirement la sienne. Rappelons que l’OMS estime à 1.25 mio le nombre annuel de victimes de la route!

 

*  Why Self-Driving Cars Must Be Programmed to Kill, MIT Technology Review, 22 octobre 2015 http://www.technologyreview.com/view/542626/why-self-driving-cars-must-be-programmed-to-kill/ (consulté le 22 octobre 2015)

This post is also available in: Anglais