Le média des décideurs

Newsletter

Rechercher
Fermer ce champ de recherche.
Rechercher
Fermer ce champ de recherche.
20.09.22

Laurence Devillers : « Il est urgent de former à l’éthique de l’IA »

       Intelligence artificielle, métavers, robotique … Laurence Devillers en est une spécialiste depuis près de trente ans. Cette chercheuse du CNRS, auteure prolifique et reconnue, n’a de cesse de nourrir la réflexion sur les enjeux sociétaux, économiques et écologiques du numérique et de l’IA en rappelant l’importance de se saisir de ces sujets pour y réfléchir et les encadrer avant qu’il ne soit trop tard. Laurence Devillers, qui a défendu la création d’un Ministère du Numérique et de l’IA pendant la dernière campagne présidentielle, revient sur les défis des prochaines décennies et sur ce sujet complexe bien souvent incompris.

Nous parlons souvent d’IA, de robots, d’évolutions technologiques sans précédent sur le plan de la conscience des machines. Comment faire la part des choses sur ce sujet ?

S’il m’apparaît normal d’être fasciné par la machine, dire qu’une conscience émerge, me semble anxiogène. LaMDA par exemple est une IA conversationnelle, lancée récemment par Google, capable d’aborder n’importe quel sujet de discussion. Le 11 juin dernier, un ingénieur travaillant chez Google a déclaré que cette IA était devenue sensible. Selon lui, LaMDA avait acquis une conscience de soi. Si certains chercheurs parlent d’émotions et de conscience des machines, c’est un leurre avec souvent un effet marketing. Une machine n’a pas de conscience ou d’émotions au sens humain, elle est sans intention, désir et conatus (c’est-à-dire l’effort pour persévérer dans son être), concept cher à Spinoza. Cela reste de la simulation à base de 0 et de 1. Ces systèmes conversationnels créent un engouement certain mais peut-on dire qu’on crée une nouvelle espèce, avec une conscience d’elle-même, et des émotions propres simplement parce qu’elle imite notre langage.

Pour autant, il ne faut pas tout balayer d’un revers de main. Il faut être mesuré et réfléchir aux enjeux technologiques et éthiques. À l’heure actuelle, même si nous avons des systèmes d’IA conversationnelle qui répondent à une question quelconque de façon extrêmement affutée, mieux peut-être que bon nombre d’entre nous, même en ayant engrangé toutes les données du monde, toutes les conversations des plus éminents professeurs, penser qu’une machine peut trouver une solution seule à tous les problèmes n’a pas de sens.

Il faut comprendre que le système d’IA repose sur deux éléments :

  • D’abord, grâce à des algorithmes d’apprentissage sur nos données, les systèmes peuvent être capables de trouver des réponses satisfaisantes à des questions, pour autant ils n’ont pas d’imagination ni de sens commun.
  • Ensuite, par des recherches sur internet et par des filtres sur les phrases absurdes ou simplement politiquement incorrectes qui sont générées, ils peuvent optimiser la génération de réponses. Il n’est donc pas question de conscience ici, mais simplement d’une optimisation locale.

l’IA sera-t-elle un jour consciente ?  Probablement non pour notre appréhension de la conscience mais probablement oui pour une autre forme de conscience qui ne serait pas liée à notre définition de celle-ci.

Cependant, ces IA sont des outils sociotechniques qui ont des conséquences colossales sur notre langage et notre façon d’être. La machine, agrégation de tout ce qui est déjà possible, peut créer des « essais » fantastiques en musique ou en peinture par exemple. Toutefois, il faut rester lucide, ce sont les humains qui décident au final de l’intérêt de la création. Cela reste des mécanismes statistiques et d’optimisation, qui n’ont rien à voir avec une conscience de soi.

Mais cela ne signifie pas que la machine est inutile. Au contraire. Si notre société atteint un niveau scientifique de compréhension des outils, alors nous pourrions être en complémentarité avec la machine et profiterons de sa créativité au service du bien-être et de l’intelligence collective.

«  Nous avons besoin qu’une manne de jeunes gens se forme sur le numérique afin de s’accorder sur une éthique de l’IA partagée par tous »

L’évolution technologique rapide de l’IA, même si elle n’est pas encore aboutie, place nos sociétés devant leurs responsabilités : comment donner une orientation humaniste aux outils d’IA ? Comment réussir à exploiter avec sagesse ce que la machine peut nous proposer ?

Vous abordez l’enjeu fondamental des prochaines années et de ce début de siècle : la formation des générations actuelles et futures, pour appréhender et modifier le monde du numérique.

Cela passe d’abord et bien sûr par l’école. L’éducation doit prendre davantage en compte ces sujets pour former la société – qui inventera demain – aux risques des technologies que nous leur mettrons à disposition pour inventer le monde à venir. Tout en gardant les fondamentaux et les grands enseignements d’Humanité, il est important voire indispensable de former les citoyens à la compréhension des influences du numérique afin de pallier au risque de fracture numérique, c’est-à-dire un nombre trop réduit de personnes compétentes en charge et des citoyens complétement dépendants.

Concernant le contenu de ces enseignements, le raccourci, dangereux, est de se restreindre au code. Nous devons former à l’éthique de l’IA !  Il faut aussi se défaire des clichés autour de l’informatique afin d’attirer les jeunes et notamment les filles. Enfin, il est important de faire confiance aux chercheurs et enseignants du supérieur, qui peuvent accompagner l’enseignement secondaire le temps de former de nouveaux professeurs. Nous avons besoin qu’une manne de jeunes gens se forme sur le numérique afin de s’accorder sur une éthique de l’IA partagée par tous.

Qu’entendez-vous par « éthique de l’IA » ?

Les objets numériques peuvent être comparés à des médicaments : s’ils peuvent aider à beaucoup de choses, par exemple à réduire l’anxiété, ils deviennent nuisibles si on en consomme trop.

À cet égard, la pluridisciplinarité est essentielle au temps de réflexion et le dialogue entre humanisme et technoscience urgent.  Si vous êtes philosophe, vous avez une vision de sage érudit, si vous êtes informaticien, vous n’êtes qu’un technicien ! Il faut se défaire de ce mépris de celui qui connaît la technologie, comme s’il ne savait créer que des logiciels.

Par ailleurs, il apparait indispensable que les pouvoirs publics se saisissent de ce sujet pour préparer la régulation. Du retard a déjà été pris et le temps joue contre eux. L’économie du numérique est en plein essor, sans réfléchir aux conséquences et à la robustesse des systèmes.

Il existe un décalage entre les acteurs privés qui agissent, et l’autorité politique qui ne se saisit pas de la question. Je pense que c’est parce que le sujet est encore trop méconnu et que trop peu de représentants scientifiques et d’experts en numérique et IA sont représentés dans les gouvernements actuels.

«  Intégrer davantage les chercheurs dans les réflexions gouvernementales aiderait les politiques à mieux appréhender le monde du numérique, et à répondre aux questions : à quel niveau pouvons-nous impulser des normes ? »

Devons-nous déjà agir sur le développement des metavers ?

Des questions essentielles se posent déjà dans ces nouveaux univers virtuels : quelle responsabilité en cas d’infraction ? Quelle cybersécurité ? Quelle police ? 

Il est nécessaire de répondre à cela pour éviter de laisser se développer un métavers, dans lequel cohabiteraient harcèlement, usurpation d’identité, vol, crime, …  Pour autant, l’interdire serait une erreur car quoiqu’il arrive, d’autres pays développeront leur métavers. De plus, il y a sans doute des bénéfices à tirer de ces univers virtuels, notamment pour la santé ou l’apprentissage.

Intégrer davantage les chercheurs dans les réflexions gouvernementales aiderait les politiques à mieux appréhender le monde du numérique, et à répondre aux questions : à quel niveau pouvons-nous impulser des normes ? Comment rendre cet endroit plus sain ?

Répondre à ce défi est tout à fait possible et il est sans doute vital de mettre en place un métavers européen, différencié des métavers américain ou chinois. Cela pourrait être un des éléments de différenciation civilisationnel des prochaines années.

Autres articles

Penser la violence avec Marc Crépon

Comment notre sensibilité à la violence a évolué au fil des années ? Quels sont les effets de la violence ? Peut-on l’endiguer ? Rencontre avec Marc Crépon, ancien directeur du département de philosophie à l’ENS. Il a publié en avril 2024 un essai intitulé « Sept leçons sur la violence» aux éditions Odile Jacob.

Lire l'article

Jean Viard : « on peut voir les JO comme le 3ème tour des élections »

Jean Viard est un sociologue, éditeur et homme politique français. Il est aussi directeur de recherches associé CNRS au CEVIPOF (Centre de recherches politiques de Sciences Po). Fin connaisseur du territoire français, auteur éclectique, il a notamment travaillé sur l’espace (aménagement du territoire, agriculture et paysannerie),les « temps sociaux » (les vacances, les 35 heures), la mobilité et le politique. Pour À Priori(s), il livre sa perception et son analyse de l’engouement populaire rencontré par les Jeux Olympiques de Paris 2024.

Lire l'article