Véhicules autonomes

Quand la voiture décide qui sauver

Qui épargner et, par le fait même, qui sacrifier quand un grave accident devient inévitable ? Les voitures autonomes auront de difficiles choix à faire quand elles circuleront sur nos routes. Des chercheurs ont mis un point une « machine morale » pour les aider à prendre les décisions qui se rapprochent le plus de celles des humains.

Un site web qui demandait aux internautes quelles vies les véhicules autonomes impliqués dans des accidents mortels devraient sauver en premier a permis à des chercheurs universitaires de jeter les bases d’une potentielle éthique morale universelle pour l’intelligence artificielle (IA).

C’est, depuis quelques années, la question qui turlupine tant les spécialistes en IA que les professeurs en philosophie, tout comme les testeurs de Waymo et d’Uber : dans une situation où le véhicule ne peut éviter un accident mortel, qui doit-il sacrifier ? Y a-t-il des vies plus précieuses que d’autres ? Et si oui, lesquelles ?

La réponse est beaucoup plus complexe qu’il n’y paraît. « Elle change d’une personne à l’autre, d’un pays à l’autre », résume Jean-François Bonnefon, professeur de psychologie à l’École d’économie de Toulouse, l’un des cocréateurs du site Moral Machine. Le professeur français, en résidence au MIT, à Boston, explique que plusieurs facteurs culturels et sociaux, différents d’une région du monde à l’autre, empêchent d’en arriver à une grande théorie sur le comportement éthique de l’IA en général et des véhicules autonomes en particulier.

Les femmes et les enfants d’abord ?

Il y a quelques traits communs à l’ensemble des répondants, bien sûr. « Si la voiture autonome doit provoquer des morts, elle doit en minimiser le nombre ; elle devrait donner la priorité à la protection des vies humaines par rapport aux vies animales ; s’il y a des enfants, ils devraient être les premiers à être protégés. »

Alors, c’est « les femmes et les enfants d’abord », comme le veut l’expression ? « Ça dépend, car il y a des pays où les femmes sont jugées moins “importantes” que les hommes. Dans d’autres cas, ce sont les personnes âgées qui sont considérées comme plus importantes » que les autres adultes, poursuit M. Bonnefon.

Dans les pays où l’autorité est plus stricte et les lois plus sévères, on a tendance à accorder moins d’importance aux gens qui commettent des fautes. Ainsi, on sacrifiera plus facilement un piéton qui traverse la rue sur un feu rouge qu’un passager de la voiture qui le percute.

Bref, plus on définit les victimes potentielles, plus ça affecte la prise de décision, constate le professeur français. « Ça donne des millions de cas différents, ce qui rend une solution simple impossible. »

Qui prendra les décisions ?

En ce moment, la technologie derrière l’intelligence artificielle est surtout l’affaire de jeunes pousses et de grandes entreprises technologiques, qui semblent toutes absorbées par une course effrénée contre la montre pour commercialiser les premiers systèmes de conduite autonome le plus tôt possible. Si on se fie à certaines d’entre elles, ça pourrait se produire dès 2021.

La semaine dernière, Waymo, filiale d’Alphabet (Google) spécialisée dans la conduite autonome, a obtenu de l’État de la Californie un permis pour mettre sur la route publique les premiers véhicules sans humain derrière le volant.

Si on ne veut pas laisser Google, General Motors ou Uber dicter le comportement des premiers véhicules sans conducteur impliqués dans des accidents mortels, il faut agir rapidement, avertit Jean-François Bonnefon. Pour aider, la base de données du site Moral Machine comportant ses 40 millions de réponses est offerte à ceux qui voudront bien s’en servir. « La collecte continue, mais ce sera intéressant de voir comment d’autres se serviront » de ces résultats.

Bâtir une telle base de données sur un sujet aussi délicat que le rôle des ordinateurs dans une situation de vie ou de mort n’était pas une mince tâche. Et pourtant, il semble que le plus difficile reste à faire : déterminer quelles décisions ces ordinateurs devront réellement prendre.

L’éthique d’une voiture canadienne

En comparant les réponses des internautes par pays, on peut dessiner les contours d’un possible code moral canadien pour voitures autonomes. En voici les principaux traits.

Privilégier le plus grand nombre

Les réponses des Canadiens placent le pays au 12e rang de ceux qui, parmi 116, donnent avant tout la priorité au nombre de vies épargnées. Cela dit, de tous les choix offerts par le site, protéger les vies humaines est le critère le plus important à l’échelle mondiale.

Épargner les gens en santé

Dans ses priorités, le Canada s’apparente le plus au Royaume-Uni, ce qui ne devrait étonner personne. Outre le plus grand nombre, ce sont les gens en santé qui devraient être ensuite évités par les véhicules autonomes pris dans une situation d’accident fatal. En Angleterre, « privilégier l’inaction » est une position plus populaire que chez nous, en revanche.

Protéger les humains

Serez-vous à l’aise de prendre un taxi autonome aux États-Unis ? Alors que le Canada se classe au 32e rang des pays qui aiment mieux protéger les vies humaines que les vies animales, les États-Unis se trouvent au… 68e rang ! Ce qui, rappelons-le, ne prévoit pas la réaction d’un taxi autonome. Ça illustre plutôt à quel point la réflexion morale et éthique face à l’IA en est encore à ses balbutiements.

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.