Dans quels domaines l’IA est-elle déjà utilisée pour décider ?
Olivier Sibony : Il serait impossible d’en dresser un inventaire exhaustif tant les choses évoluent vite, mais il existe déjà énormément de systèmes de décisions qui recourent à l’IA. Dans le trading algorithmique, par exemple, ces systèmes choisissent automatiquement de vendre ou d’acheter des actions en quelques fractions de seconde. En cybersécurité, ils repèrent et bloquent instantanément les communications malveillantes. En médecine, ils décryptent les scanners et les IRM, notamment pour détecter les tumeurs, et le font mieux que les spécialistes humains selon toute une série d’études – plusieurs centaines de ces systèmes ont été validés par l’autorité de régulation américaine, la Food and Drug Administration.
Comment décident les IA ?
Très schématiquement, il en existe deux types. D’une part, les IA symboliques, qui appliquent des règles, et dont on peut retracer le raisonnement. Jusqu’à ces dernières années, toutes les IA fonctionnaient sur ce principe, qui reste très utilisé (par exemple dans les systèmes de comptabilité). D’autre part, les IA connexionnistes, qui sont celles dont tout le monde parle aujourd’hui, et auxquelles se rattachent les modèles de langage, comme ChatGPT. Ces dernières interpolent à partir de grandes quantités de données pour prendre des décisions qui sont statistiquement assez bonnes. Elles s’adaptent mieux à l’ambiguïté et à la complexité du monde, mais leurs erreurs sont plus difficiles à détecter, car elles sont moins grossières. Quand ChatGPT se trompe, cela ressemble à un humain qui ne connaît pas la réponse et qui « pipeaute ».
Ces erreurs ne posent-elles pas un problème sérieux pour l’application de l’IA à la décision ? On pense tout de suite aux « hallucinations » de ChatGPT…
Déléguer ses décisions à ChatGPT serait effectivement une mauvaise idée. Ne serait-ce que parce que si vous posez deux fois la même question à un modèle de langage généraliste, ou si vous utilisez deux formulations légèrement différentes, vous aurez deux réponses différentes. Mais si les modèles de langage sont de très mauvais décideurs, ils peuvent être d’excellents partenaires de décision. L’idée est de s’en servir comme de membres virtuels d’une équipe, avec lesquels on échange sur les options et les scénarios possibles – éventuellement en leur donnant un rôle précis ou en leur demandant de se faire l’avocat du diable, afin d’introduire de la diversité et de la contradiction.
Quant aux IA plus spécialisées, comme celles de diagnostic médical, elles ne sont pas conçues pour dialoguer avec nous et ne risquent donc pas de nous « baratiner ». Elles peuvent tout de même se tromper – aucune n’est parfaite –, mais les recherches montrent qu’elles le font beaucoup moins souvent que les humains. Dans les domaines où nous avons à la fois une idée claire des objectifs et assez de données pour entraîner les IA, nous avons donc tout intérêt à leur faire confiance.
Au point de les laisser décider seules ? Ne faut-il pas garder une supervision humaine ?
Il faut distinguer la supervision et la responsabilité. Un médecin doit rester responsable de ses décisions, mais lui demander de superviser une IA l’incite à un comportement contreproductif : ne valider ses décisions que lorsqu’il est d’accord avec elle. Or si une IA est meilleure que moi, cela signifie précisément que c’est plus souvent elle qui a raison quand nous ne sommes pas d’accord ! Les recherches confirment que la supervision humaine dégrade la qualité des diagnostics effectués par une IA.
Pour garder le contrôle, l’important n’est donc pas de corriger chaque décision, mais de s’assurer qu’un système d’IA est digne de confiance. Nous avons besoin pour cela d’autorités indépendantes qui valident ces systèmes. En médecine, les sociétés savantes et les organismes de régulation jouent ce rôle, mais c’est plus problématique ailleurs. Dans le domaine des ressources humaines, par exemple, de nombreuses entreprises proposent des modèles d’IA pour trier les CV, voire prévoir les performances, sans réelle validation extérieure…
N’y a-t-il pas tout de même certaines décisions qui devraient rester humaines ?
Nous pensons que si. Le fait même que l’humain prenne une décision a parfois une grande valeur, assez pour que nous acceptions de faire plus d’erreurs. Cela concerne par exemple la justice pénale (s’il suffisait d’appuyer sur un bouton pour que l’assassin de Samuel Paty soit automatiquement jugé, nous aurions beaucoup de mal à l’accepter), l’art, les armes létales…
Au niveau sociétal, beaucoup de gens craignent que les IA confisquent la démocratie, en prenant des décisions opaques et dictées par les multinationales…
C’est une issue possible, mais nous sommes convaincus que les IA peuvent au contraire favoriser des choix plus démocratiques. À condition de débattre publiquement de leur programmation. Prenez Parcoursup : même si son algorithme est consultable par tous, il reste mal accepté, notamment parce que ses critères de choix (importance des notes, de la mixité sociale, etc.) n’ont pas été assez discutés. Et l’IA pourrait aider à élargir considérablement les consultations citoyennes, par exemple en agrégeant les conclusions de milliers de groupes de quelques personnes. À nous, donc, de fixer les règles pour qu’elle soit réellement à notre service.
Télécharger la version PDF de cet article
(réservé aux abonnés numériques)

il y a 7 hour
1


