Vers un écosystème de l’IA plus équitable et inclusif
Cette problématique figurait parmi les thèmes centraux des débats organisés dans le cadre de la série de conférences Thought Leaders Series de l’UNESCO, qui réunit chercheurs internationaux et décideurs politiques afin de réfléchir à des approches équitables et durables face aux grandes transformations contemporaines.
Le 5 mai au soir, une table ronde intitulée « Gouvernance moderne de l’IA : priorités pour des sociétés inclusives et résilientes » s’est tenue au siège de l’UNESCO à Paris, en présence du scientifique franco-vietnamien Le Nguyen Hoang comme intervenant principal, aux côtés de représentants de l’UNESCO, d’experts en intelligence artificielle et de membres de la société civile.
UNESCO Thought Leaders Series : un laboratoire mondial d’idées politiques
La série Thought Leaders Series s’inscrit dans le cadre du programme MOST (Management of Social Transformations) de l’UNESCO et se veut un véritable « laboratoire d’idées » dans le domaine des sciences sociales et humaines.
L’objectif est de réunir universitaires, penseurs, scientifiques, militants et responsables politiques de premier plan afin de débattre des grandes mutations de notre époque : transformations sociales, inégalités, transition numérique ou encore intelligence artificielle.
L’UNESCO souligne que cette initiative ne constitue pas uniquement un espace académique, mais également une plateforme de dialogue politique destinée à aider les États membres à repenser leurs modèles de développement économique et social dans une perspective plus inclusive, durable et fondée sur les données scientifiques.
Dans ce cadre, les conférences de la série analysent les profondes transformations des sociétés contemporaines, notamment l’impact de l’IA sur l’économie, l’emploi et l’écosystème mondial de l’information, tout en proposant des approches de gouvernance capables de réduire les risques et de renforcer l’équité numérique.
En ouverture de la session, Gustavo Merino, directeur chargé des politiques sociales au sein du secteur des sciences sociales et humaines de l’UNESCO, a souligné que les technologies numériques, et plus particulièrement l’intelligence artificielle, transforment profondément les structures économiques, les marchés du travail et les modes d’interaction entre les individus.
Au-delà des changements dans les modes de travail et de communication, l’IA influence désormais les processus de décision, la répartition des opportunités et même la confiance accordée aux institutions sociales. Toutefois, avertit l’UNESCO, ces transformations « ne sont en rien neutres ».
D’un côté, les technologies offrent un potentiel considérable pour améliorer les services publics, élargir l’accès aux opportunités économiques et stimuler l’innovation. De l’autre, en l’absence de politiques de gouvernance adaptées, l’IA risque d’accentuer des inégalités déjà existantes.
Les disparités en matière d’infrastructures numériques, de compétences technologiques et les biais intégrés dans certains systèmes algorithmiques laissent déjà de nombreux groupes sociaux à l’écart, notamment les travailleurs informels, les femmes, les populations rurales et les communautés vulnérables.
Face à cette réalité, les experts de l’UNESCO posent trois questions fondamentales : qui bénéficie réellement de la transition numérique ? Qui en supporte les coûts ? Et comment faire en sorte que le progrès technologique serve véritablement l’intérêt général ?
Ces interrogations s’inscrivent dans la mission du programme MOST, destiné à aider les États membres à mieux comprendre les impacts socio-économiques des grandes mutations contemporaines, qu’il s’agisse du changement climatique, des évolutions démographiques ou des nouvelles technologies comme l’IA.
À ce titre, l’UNESCO a adopté avec plus de 190 pays une recommandation sur l’éthique de l’intelligence artificielle et développe des outils d’évaluation afin d’aider les États à élaborer des politiques conformes aux standards internationaux.
Des impacts sociaux de plus en plus visibles
Cette session ouvre un nouveau cycle de réflexion consacré aux liens entre gouvernance publique, innovation technologique et capacité d’adaptation des sociétés face aux incertitudes.
L’objectif n’est pas seulement de développer des systèmes d’IA performants et innovants, mais aussi de garantir les principes d’équité, de responsabilité et d’inclusion, afin de favoriser un développement durable sur le long terme.
Intervenant principal de la rencontre, le docteur Le Nguyen Hoang a estimé que, pour comprendre l’IA moderne, il convient de revenir au concept fondateur proposé dès 1950 par Alan Turing avec le « jeu de l’imitation », à l’origine des modèles d’intelligence artificielle actuels.
Selon lui, l’IA a d’abord appris à reproduire les comportements et le langage humains. Aujourd’hui cependant, les systèmes d’IA ne se limitent plus à l’imitation : ils sont conçus pour optimiser des objectifs précis, notamment l’engagement des utilisateurs.
De nombreuses grandes plateformes numériques reposent désormais sur un modèle économique de captation de l’attention, où l’IA joue un rôle central dans la recommandation de contenus et la maximisation du temps passé par les utilisateurs. L’IA devient ainsi un outil exerçant une influence directe sur les comportements sociaux et la formation de l’opinion publique.
Pour Le Nguyen Hoang, l’un des risques majeurs réside dans l’affaiblissement de la pensée autonome, à mesure que les individus dépendent davantage des systèmes automatisés pour apprendre, travailler ou prendre des décisions.
Des études récentes montrent qu’un usage excessif des outils numériques peut affecter la concentration, l’esprit critique et les capacités de résolution de problèmes. Dans le domaine éducatif, la dépendance croissante des élèves et étudiants aux outils de génération de contenu pose de nouveaux défis aux méthodes traditionnelles d’enseignement.
Les systèmes d’IA peuvent également accentuer certains problèmes psychosociaux tels que le stress, l’isolement ou la dépendance informationnelle, les utilisateurs étant enfermés dans des « boucles de contenus » pilotées par les algorithmes.
À une échelle plus large, l’IA crée aussi de nouveaux défis en matière de cybersécurité et d’espace informationnel public. Ces technologies peuvent être détournées à des fins malveillantes, notamment pour les cyberattaques, les escroqueries ou la diffusion massive de désinformation. Le développement des contenus truqués (deepfakes) accroît également les risques d’atteinte à la réputation, à la vie privée et à la confiance sociale.
Les algorithmes de recommandation tendent en outre à amplifier les contenus polémiques ou extrêmes, car ceux-ci génèrent davantage d’interactions. Ce phénomène contribue indirectement à accentuer la polarisation sociale et à fragiliser le débat public.
Construire un écosystème de l’IA au service de l’intérêt général
L’un des enjeux mis en avant lors du forum concerne la concentration croissante du « pouvoir numérique » entre les mains d’un nombre limité de grands groupes technologiques, alors que les plateformes et systèmes d’IA dominent de plus en plus les infrastructures mondiales de l’information.
Selon Le Nguyen Hoang, cette situation impose la mise en place urgente de mécanismes de gouvernance transparents, renforçant la responsabilité des acteurs et garantissant une concurrence saine dans l’espace numérique.
Les nouvelles réglementations européennes, telles que le règlement sur les services numériques (DSA) et le règlement sur les marchés numériques (DMA), sont perçues comme des initiatives visant à limiter les risques systémiques et les situations de monopole dans le secteur technologique.
D’un point de vue politique, Le Nguyen Hoang a insisté sur la nécessité de réorienter le développement de l’IA vers des objectifs d’intérêt général plutôt que vers la seule optimisation des profits commerciaux.
Le mathématicien, né en 1987, estime qu’il est indispensable de promouvoir des systèmes d’information plus transparents, de renforcer le contrôle des utilisateurs sur les contenus recommandés et de réduire la dépendance aux algorithmes centralisés.
Des principes tels que la transparence, la vérifiabilité des informations, la limitation de la manipulation comportementale et le renforcement de la responsabilité constituent, selon lui, les fondements d’un environnement numérique plus sain.
Répondant aux questions des participants, Le Nguyen Hoang a rappelé que la science ne peut être dissociée de sa responsabilité sociale. Dans un contexte où la majorité des recherches en IA sont financées par les grandes entreprises technologiques, il estime nécessaire de repenser les priorités de la recherche et les finalités de la science.
Selon lui, la recherche scientifique doit avant tout servir la société, renforcer les bases démocratiques et protéger l’intérêt collectif à l’ère numérique, plutôt que de poursuivre exclusivement des objectifs commerciaux.
En conclusion de la rencontre, Irakli Khodeli, responsable du programme MOST de l’UNESCO, a rappelé l’esprit fondateur de la série Thought Leaders Series : la science et la technologie n’ont de sens que lorsqu’elles sont mises au service de l’être humain et de la société.
Face au développement rapide de l’intelligence artificielle, l’enjeu n’est donc pas seulement de promouvoir l’innovation, mais aussi de mettre en place des mécanismes de gouvernance adaptés afin de garantir une IA sûre, responsable et bénéfique pour l’ensemble de la société.
Un Vietnamien contribue à la réflexion mondiale sur l’IA
Né en 1987 à Hanoi, Le Nguyen Hoang est un mathématicien franco-vietnamien, ancien enseignant à Université de Lausanne, spécialisé dans l’intelligence artificielle et la gouvernance algorithmique.
Il est également connu comme vulgarisateur scientifique influent sur les plateformes numériques, notamment grâce à sa chaîne YouTube Science4All, qui cumule plusieurs dizaines de millions de vues et contribue à rendre accessibles au grand public des sujets complexes tels que l’IA, les mathématiques ou la science des données.
Le Nguyen Hoang est aussi l’auteur de nombreux travaux de recherche et ouvrages consacrés à l’IA et à la société numérique, parmi lesquels plusieurs analyses portant sur les risques liés aux algorithmes de recommandation de contenus, désormais au cœur des dynamiques informationnelles et médiatiques mondiales.