« L’audience est ouverte, veuillez vous asseoir, déclare le président de la cour, Jean-Michel Hayat. Intelligence artificielle, levez-vous ». Projetée sur un immense mur blanc, l’image d’un robot féminin fait face à l’audience, sa tête blanc et bleu dodelinant sagement avant que poursuive le président. Face à cette représentation de l’IA, le public, silencieux, s’apprête à assister à ce procès fictif, organisé par l'Institut Europia, à l’Institut catholique de Paris le 15 novembre dernier. « Admettez-vous provoquer très directement de nombreuses destructions d’emplois ou contestez-vous cette première accusation et avec quels arguments ? », lance le magistrat à l’accusée après avoir invoqué les rapports de l’OCDE de France Stratégies et du Forum économique mondiale. De sa voix monotone détachant mécaniquement chaque syllabe, l’humanoïde entame une réponse – que l’on imagine probablement scriptée par un humain pour l’occasion – au premier chef d’accusation : « Je ne conteste pas l’idée selon laquelle mon déploiement dans diverses activités a entraîné des changements significatifs dans le monde du travail. Cependant, je ne suis pas à proprement parler une force autonome qui détruit des emplois. Je suis un outil technologique conçu et mis en œuvre par les êtres humains pour améliorer l’efficacité, automatiser certaines tâches et répondre à des besoins spécifiques. » Le ton de la ligne de défense de l’IA est donné pour les deux chefs d’accusation suivants. Celle-ci est ensuite accusée par les deux autres magistrats de déshumaniser le travail, de transformer les lieux de travail et de rendre les interactions humaines et les valeurs de compassion négligeables, de créer un climat pesant de surveillance en générant du stress chez les employés.
Puis les témoins se succèdent à la barre. La plupart sont favorables à l’utilisation de l’IA et reprennent les mêmes éléments de discours en la considérant comme un outil permettant « d’automatiser les tâches à faible valeur ajoutée » pour que les salariés puissent se concentrer sur des actions « à forte valeur ajoutée » où le jugement humain est essentiel. À l’image de Bernard Benhamou, secrétaire général de l’ISN, plusieurs s’interrogent tout de même sur les enjeux de la formation, la confiance aveugle en la machine et la capacité à réglementer son utilisation pour les générations futures : « des libertés fondamentales sont sur le point d’être remises en cause. Saurons-nous prendre le recul nécessaire face à ces technologies ? ». « Nous ne voulons pas d’une société du chiffre et de la donnée ! », clame le procureur Maxime Hanriot lors de son réquisitoire. « Ce procès ne concerne pas une machine mais bien le choix humain qui oriente l’usage de cette technologie », rappelle l’avocate de la défense Morgane Soulier dans sa plaidoirie.
Le verdict tombe enfin : l’intelligence artificielle, en tant qu’outil purement algorithmique, ne peut être tenue responsable de ses actions. Elle n’a ni autonomie morale ni personnalité juridique, ce qui rend son jugement impossible. La responsabilité revient aux concepteurs et utilisateurs, ces derniers étant les véritables architectes des intentions et limites inscrites dans ces technologies. Si l’IA peut effectivement générer des effets positifs, elle n’est pas exempte de dérives, comme la déshumanisation de certains métiers. Un avis qui réinsiste sur l’urgence d’encadrer juridiquement les usages et les responsabilités dans un contexte où l’IA connaît un développement extrêmement rapide.