Le développement de l’IA doit prendre une pause afin de réfléchir à son encadrement

MONTRÉAL — L’intelligence artificielle (IA) doit être soumise au même genre d’encadrement international que le sont les armes biologiques ou l’énergie nucléaire pour en mitiger les risques, qui sont déjà apparents.

C’est le cri d’alarme que lancent à nouveau des experts du domaine qui sont parmi près de 2000 signataires d’une lettre ouverte réclamant une pause de six mois dans le développement de l’IA chez les grands joueurs de l’industrie, le temps d’ouvrir la réflexion sur un tel encadrement avant qu’il ne soit trop tard.

«La donne a changé: on ne s’attendait pas à avoir des systèmes aussi compétents – encore loin de la capacité de l’être humain, mais assez pour nous faire prendre des vessies pour des lanternes – aussi rapidement. Donc, effectivement, il y a une urgence plus grande maintenant et en plus ça s’est accéléré», a déclaré Yoshua Bengio lors d’une conférence virtuelle mercredi. 

Le professeur Bengio, fondateur et directeur scientifique de Mila, l’institut québécois de l’intelligence artificielle, est l’un des signataires de la lettre aux côtés de personnalités comme le cofondateur d’Apple, Steve Wozniak ou le PDG de Tesla, Elon Musk.

«Il y a des risques, il y a des dangers»

«Il est temps de mettre en place des mécanismes au niveau international. Il y a des risques, il y a des dangers. C’est vraiment important de ne pas laisser ça à l’autorégulation, ce n’est pas suffisant (…) et ça, ça demande que les gouvernements mettent des balises, des mécanismes de surveillance, etc.» a-t-il dit.

Personne ne nie que l’IA apportera de nombreux bienfaits et que l’on commence à peine à en mesurer le potentiel, mais les experts voient bien que des esprits malveillants en font déjà un usage dangereux, notamment en matière de désinformation avec la production, entre autres, de vidéos dites «deep fake» où l’IA peut facilement mettre n’importe quels mots dans la bouche de n’importe qui. 

Les motifs pour intervenir sont bien connus, mais l’urgence s’impose tout à coup avec insistance en raison d’un développement phénoménal des capacités de l’IA. «Il faut prendre une perspective historique: où était l’IA il y a cinq ans, où est-elle maintenant et projetez-vous cinq ans dans l’avenir», dit M. Bengio.

Le test de Turing dépassé

«Il y a encore beaucoup de chemin à faire selon moi pour atteindre le niveau d’intelligence des humains, mais on a dépassé l’équivalent du test de Turing, c’est-à-dire que les gens qui interagissent avec ces systèmes peuvent facilement penser qu’ils sont en conversation avec un être humain.»

«Je ne pense pas que la société est prête à faire face à cette puissance-là au potentiel de manipulation de la population qui pourrait mettre en danger la démocratie», affirme le chercheur.

Les signataires de la lettre sont très conscients que le fait de stopper le développement technologique de l’IA durant six mois ne peut avoir qu’un impact limité, mais il faut commencer quelque part, affirme le professeur Bengio: «C’est très évident pour moi que six mois ne seront pas assez pour que la société trouve toutes les solutions pour gérer ces risques, mais il faut commencer quelque part. Nous devons prendre une pause, nous avons besoin de penser, nous devons travailler sur des solutions, sur la gouvernance et ainsi de suite.»

Le temps est venu

«L’important, c’est de lever la main et de lancer le débat», insiste-t-il, tout en soulignant qu’on «ne pourra pas arrêter le développement de l’IA, mais c’est comme pour les changements climatiques: ça peut avoir l’air décourageant des fois, mais on a un devoir de faire tout ce qu’on peut pour essayer de réduire les risques, pour faire bouger la société dans le bon sens.»

Il ne fait aucun doute que les outils d’IA sont là pour rester: «On ne peut pas arrêter le développement de la science et de la technologie. Ça n’arrivera pas. Mais nous avons vu que, collectivement, nous sommes parfois capables d’encadrer des technologies qui peuvent devenir dangereuses au niveau national et international et nous devons faire la même chose avec l’IA.»

«Ultimement, c’est vraiment le devoir des gouvernements d’établir les bonnes règles», fait valoir le professeur Bengio.

Or, c’est dans l’opposition entre deux mouvements que réside l’urgence, car si on veut se préparer face au développement fulgurant de l’IA, «se préparer prend du temps et les sociétés ne changent pas rapidement, les gouvernements n’adoptent pas des lois rapidement et les compagnies ne changent pas leur façon de faire rapidement», rappelle-t-il avec justesse.

Bien reçu en surface

Il faudra voir comment sera reçu cet appel à une pause de réflexion par les joueurs les plus importants. Personne dans l’industrie ne veut s’arrêter pour voir son concurrent le dépasser et il faut donc un mouvement commun. Un autre expert, Max Tegmark, un des initiateurs de cet appel à la pause, affirme que l’idée reçoit un accueil positif dans le milieu, du moins sur les réseaux sociaux. De là à passer aux actes, il y a un gouffre qui reste à franchir toutefois.

Un autre obstacle de taille se trouve du côté de la volonté gouvernementale. Le Canada, avec son projet de loi C-27 sur l’intelligence artificielle et les données, en cours d’adoption, pourrait être le premier État à amorcer ce genre d’encadrement. L’Union européenne est aussi avancée dans une réflexion similaire. Sauf que presque tous les joueurs majeurs de l’industrie sont aux États-Unis, où aucune démarche gouvernementale en ce sens n’est dans les cartons.