Parmi les nombreux enjeux éthiques soulevés par l’intelligence artificielle, la question des biais algorithmiques est souvent pointée du doigt. Est-il possible, selon vous, d’éliminer totalement ces biais et de créer une IA neutre et objective ?
Jean-Gabriel Ganascia : L’idée d’une IA totalement objective est un leurre. Je crois qu’il faut plus que tout espérer que des biais existent toujours, car leur absence signifierait que nous devrions obéir aveuglément aux décisions des machines, prétendument objectives. Ce qu’on appelle biais est en fait une oblique – c’est ce qui n’est pas droit – autrement dit, un écart par rapport à une norme. Mais quelle est cette norme ? Les humains ont eux-mêmes des biais, inhérents à leur perception du monde. L’intelligence artificielle, qui repose sur l’apprentissage à partir de données humaines, hérite donc nécessairement de ces déformations.
Cependant, il est crucial de les comprendre et de les corriger lorsqu’ils conduisent à des discriminations. Prenons l’exemple des systèmes de reconnaissance faciale qui ont été accusés de moins bien identifier les femmes noires que les hommes blancs. Ce n’est pas un biais intentionnel, mais un problème d’échantillonnage des données. En effet, ce problème ne vient pas d’un racisme intrinsèque aux algorithmes, mais du fait que les bases de données d’apprentissage, les exemples utilisés, contiennent plus d’images d’hommes blancs. L’enjeu est donc avant tout un problème de représentativité et d’exhaustivité des données utilisées.
Au-delà des biais, on peut s’interroger sur la notion de responsabilité. Si une IA se trompe, qui est responsable ? Le concepteur, l’utilisateur ?
J-G G : C’est une question cruciale mais il n’y a pas encore de réponse universelle. Par exemple, l’Ordre des médecins a statué et défend le principe de « garantie humaine » qui veut que l’intelligence artificielle ne soit qu’un outil d’aide à la décision et que l’humain reste responsable en dernier ressort. Un médecin ne peut alors pas se retrancher derrière une IA pour justifier une erreur.
Toutefois, cette notion de garantie humaine peut-être paradoxale. Dans l’aviation notamment, des études prouvent que de nombreux accidents sont dus à des erreurs humaines et qu’ils auraient pu être évités si les pilotes avaient suivi les recommandations des systèmes automatiques. L’humain n’est donc pas toujours une garantie d’infaillibilité.
L’enjeu sera d’établir des cadres clairs : dans quels cas la décision doit-elle rester humaine ? Et dans quels cas la machine pourrait-elle être plus fiable ?
« L’idée d’une IA totalement objective est un leurre. Je crois qu’il faut plus que tout espérer que des biais existent toujours, car leur absence signifierait que nous devrions obéir aveuglément aux décisions des machines, prétendument objectives. »
Jean-Gabriel Ganascia, informaticien et philosophe, professeur émérite à la Sorbonne-Université
Certains débats récents ont porté sur l’attribution d’une personnalité juridique aux systèmes d’intelligence artificielle. Cela aurait-il du sens selon vous ?
J-G G : Cette idée a été discutée au Parlement européen, qui avait envisagé de créer un fonds d’assurance pour les accidents causés par des systèmes d’intelligence artificielle, mais elle n’a heureusement pas abouti. Attribuer une personnalité juridique aux agents artificiels programmés avec des techniques d’IA signifierait qu’une machine pourrait être tenue pour responsable. Mais une machine n’a ni conscience, ni argent, ni capacité à répondre de ses actes. La responsabilité doit toujours incomber à des humains, qu’il s’agisse des concepteurs, des entreprises ou des institutions qui les déploient. Et, il faut continuer d’enquêter systématiquement sur chaque accident pour comprendre ce qu’il s’est passé et identifier les actions humaines derrière la machine.
Vous soulignez un autre risque : celui d’un monde où la machine dicterait les normes. Dans quelle mesure cela menace-t-il nos démocraties ?
J-G G : C’est un danger majeur. Certaines entreprises développent des techniques d’IA « alignées » sur des valeurs, ce qu’on appelle l’IA constitutionnelle. L’idée est de coder dans l’algorithme des principes éthiques supposément universels. On en revient à notre discussion sur les biais : qui décide de ces valeurs ? Si l’intelligence artificielle devient gardienne de la vérité, la liberté d’opinion est en péril.
Le risque est d’autant plus grand avec l’influence de l’IA sur l’information. Les modèles de langage peuvent générer des textes convaincants, des deepfakes peuvent imiter des preuves fictives… tout cela remet au défi notre capacité à discerner le vrai du faux. Par ailleurs, les techniques d’IA conduisent à une personnalisation extrême de l’information, ce qui fragmente la société en « bulles de filtres ». Chacun reçoit des contenus qui renforcent ses croyances et perd le contact avec des points de vue divergents. Nous risquons de nous retrouver en pleine « civilisation des poissons rouges » comme le décrit Bruno Patino dans son brillant essai.
Dans une démocratie, la délibération publique, le forum sont essentiels. Mais si chaque citoyen vit dans un monde informationnel isolé, le débat devient impossible. La démocratie repose sur le dialogue, et les IA pourraient bien, si nous n’y prenons garde, le rendre caduc.
« (...) si chaque citoyen vit dans un monde informationnel isolé, le débat devient impossible. La démocratie repose sur le dialogue, et les IA pourraient bien, si nous n’y prenons garde, le rendre caduc. »
Jean-Gabriel Ganascia, informaticien et philosophe, professeur émérite à la Sorbonne-Université
Existe-t-il des solutions pour prévenir ces dérives ?
J-G G : La régulation est nécessaire, mais elle doit être équilibrée. Il y a un double danger : d’un côté, une hyper-régulation qui entraverait l’innovation et la liberté d’expression ; de l’autre, une absence de cadre qui laisserait place aux manipulations les plus cyniques. L’Europe tente de trouver un juste milieu avec un encadrement de l’intelligence artificielle et la protection des données, mais la tâche est complexe.
Il faut aussi renforcer l’éducation numérique des citoyens. Comprendre comment fonctionnent les algorithmes, apprendre à identifier les infox, à diversifier ses sources d’information… Pour l’éducation tout court, l’enjeu est aussi de taille ! Il faut redonner aux élèves la vertu de l’erreur et peut-être repenser le système de notation pour que l’usage de l’intelligence artificielle ne soit pas un recours systématique pour éviter la sanction de la mauvaise note.
L’IA est donc un outil puissant, mais son usage doit être réfléchi…
J-G G : L’intelligence artificielle n’est ni une menace en soi, ni une solution miracle. Elle peut améliorer nos vies comme les dégrader, selon la manière dont nous choisissons de l’utiliser. C’est pourquoi il est essentiel que les décisions qui entourent son développement et son intégration dans nos sociétés restent profondément humaines et réfléchies.
« (...) il est essentiel que les décisions qui entourent le développement et l'intégration de l'IA dans nos sociétés restent profondément humaines et réfléchies. »
Jean-Gabriel Ganascia, informaticien et philosophe, professeur émérite à la Sorbonne-Université