Opinion : Intelligence artificielle responsable

Se connecter à la société… et à l’éthique

La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle pose des constats et des questions cruciales. Les auteurs soulignent, à juste titre, que « réduire la société à des nombres et la gouverner par des procédures algorithmiques est un vieux rêve qui nourrit encore les ambitions humaines, mais [que] les nombres ne disent pas ce qui a une valeur morale, ni ce qui est socialement désirable ».

Pour autant, les principes* énoncés manquent d’ancrages solides dans la réalité.

Pour autant, la Déclaration appelle à un développement responsable de l’intelligence artificielle sans jamais définir clairement ce que signifie être responsable.

Prêcher aux convertis

Les auteurs de la Déclaration reconnaissent d’entrée de jeu qu’elle a été élaborée à partir d’une perspective culturelle, morale et politique restreinte. En effet, les consultations citoyennes ont été essentiellement réalisées à Montréal, Québec et Paris. Autant dire dans des milieux urbanisés, au sein de sociétés démocratiques, favorisées, occidentales. Est-ce que cela entrave la portée universelle recherchée ?

Je réponds que cela fragilise cette ambition universelle.

Les notions de bien-être, de mal-être ne se définissent pas partout de la même manière. Ce qui sera intolérable pour les uns sera de l’ordre des codes sociaux pour les autres. Il en est de même pour les notions de liberté, de diversité, de transparence.

Compte tenu du biais occidental de la Déclaration, il est permis de se demander comment cette dernière saura rejoindre, et surtout inciter les puissances politiques et économiques du Moyen-Orient, d’Asie et d’Afrique à s’intéresser à la Déclaration et à la mettre réellement en œuvre.

Le risque de ne rejoindre que les convaincus est bien présent.

Qui est responsable ?

La Déclaration parle de l’intelligence artificielle, présentée à la troisième personne, comme d'un objet à part entière. L’intelligence artificielle ne doit pas faire ceci, l’intelligence artificielle ne doit pas causer cela. L’intelligence artificielle est là, posée devant nous, extérieure à nous.

Malheureusement, même si le principe 9 évoque la responsabilité humaine, il se dégage du style rédactionnel à la troisième personne une impression qu’il reviendra à l’intelligence artificielle elle-même d’être responsable. Comme si elle voguait – déjà – vers sa propre vie autonome.

En parlant de l’intelligence artificielle à la troisième personne, la Déclaration étiole les liens entre l’humain et l’intelligence artificielle.

En définitive, on ne sait plus vraiment qui sera responsable.

Afin d’éviter ce flou, nommer clairement qui devra ne pas faire ceci et qui devra ne pas causer cela (concepteur, utilisateurs, bailleurs de fonds) aurait affirmé sans équivoque la responsabilité des humains qui seront aux commandes.

Se connecter aux réalités sociologiques

Alors que les principes appellent à la réflexion avant de passer à l’action, notamment en évitant la malveillance, la manipulation et la discrimination, les principes semblent déconnectés de réelles et inévitables réalités sociologiques : pour les fins de ce texte, retenons seulement les intérêts et le pouvoir.

L’intelligence artificielle n’échappe déjà pas aux intérêts et n’y échappera pas. Du citoyen qui ne veut plus être pris dans le trafic, en passant par le gouvernement qui veut accroître sa défense nationale ou l’entreprise privée qui automatise ses entrepôts, l’intérêt est un moteur de décision, une motivation à l’action. Pourquoi développer tel robot, telle application si ce n’est pour répondre aux intérêts de futurs clients ? La Déclaration semble faire fi de l’influence fondamentale des intérêts dans les choix qui guideront le futur de l’intelligence artificielle.

D’ailleurs, les auteurs de la Déclaration illustrent eux-mêmes cette part d’influence ; leur intérêt de chercheur est nommément privilégié au principe 3.7 : « Toute personne peut faire don de ses données personnelles aux organismes de recherche afin de contribuer au progrès de la connaissance. »

L’intelligence artificielle n’échappe déjà pas au pouvoir et n’y échappera pas. Posséder une technologie, déployer une technologie, utiliser une technologie donne du pouvoir. Il apparaît simpliste de la part des auteurs de souhaiter que les institutions publiques n’utilisent pas l’intelligence artificielle pour promouvoir ou défavoriser une conception de la vie bonne (principe 2.3). À l’ère des villes dites intelligentes, n’est-il pas paradoxal d’inviter à ne pas user de ces outils de promotion au bénéfice de visions politiques ?

Où est l’éthique ?

La Déclaration se veut une boussole éthique. Hélas, en la matière, la Déclaration est incomplète.

Ce qui manque aux principes pour éviter de n’être que de belles intentions, ce sont des valeurs éthiques claires permettant de prendre une saine distance avec les intérêts et le pouvoir. Des valeurs comme l’intégrité dans la prise de décision, non pas l’intégrité pour parler de fiabilité ou l’intégrité physique et psychologique.

Le lexique proposé ne définit ni l’éthique, ni la responsabilité, ni l’équité, ni la solidarité ; il ne présente que des éléments techniques.

Sans valeurs éthiques claires et praticables, il est prévisible que le secteur de l’intelligence artificielle évoluera vers l’imposition de normes et de critères.

Pourtant, l’expérience démontre explicitement que souscrire aux meilleurs normes et critères ne garantit en rien un agir éthique fort. Parlez-en à Volkswagen.

Être responsable. Agir de façon responsable. Ce sont là de nobles engagements. Toutefois, sans davantage d’ancrages sociologiques et éthiques, le choc avec la réalité risque d’être brutal. Et la portée de la Déclaration, éthérée.

* Afin d’alléger le texte, le terme « principe » inclut les sous-principes de la Déclaration.

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.