GPO 2024

La géometrie variable de la gouvernance de l’IA

Les tensions mondiales, les élections qui approchent, et l’appel au contrôle des puissants acteurs de l’industrie façonneront la gouvernance de l’IA en 2024. Roxana Radu souligne l’importance d’un vocabulaire commun, de la protection des connaissances non numériques et de la voix universitaire.

Geneva Policy Outlook 2024
5 février 2024
5 minutes de lecture
Photo de Robs / Unsplash

Par Roxana Radu

Un état des lieux 

Le développement de l’intelligence artificielle (IA) remonte aux années 1950, mais elle n’a jamais été aussi populaire qu’aujourd’hui. Alors que les avancées portaient jusque-là sur des modèles « d’intelligence étroite », nous voyons aujourd’hui l’IA multimodale s’appuyer sur un large éventail de sources/intrants pour améliorer sa fonction à usage général. Par exemple, basé sur les réseaux de neurones et la reconnaissance de formes, l’apprentissage profond a connu un succès croissant lorsque le traitement automatique du langage naturel a intégré l’architecture Transformer en 2017 permettant ainsi aux grands modèles de langage d’évoluer très rapidement. Les outils d’IA générative, tels que ChatGPT, lancé par OpenAI en novembre 2022, ont dorénavant été largement adoptés par les secteurs public et privé. 

Au vu de la division géopolitique mondiale croissante, l’IA se développe dans une époque d’incertitude.

Aujourd’hui, l’IA n’est pas une intelligence artificielle générale, dans le sens où les machines ne possèdent pas leur propre forme de « superintelligence ». Toutefois, en tant que technologie à usage général, l’IA est utilisée à des fins très diverses, depuis ses applications industrielles jusqu’aux grands modèles de langage générant de nouveaux textes, images, ou vidéos. Les développements rapides de l’apprentissage automatique au cours des cinq dernières années montrent l’immense potentiel de cette puissante technologie (qui pourrait également avoir des conséquences désastreuses). L’avenir de l’IA reposera sur des modèles qui passeront de la reconnaissance faciale à la reconnaissance émotionnelle de manière fluide, en intégrant plus de systèmes de données que jamais auparavant. Ces avancées proviennent pour la plupart de laboratoires de recherche privés, généralement financés par des gatekeepers tels que Microsoft, Google, ou Meta, dans la Silicon Valley, ou Alibaba, Baidu, ou encore Tencent en Chine. Ces entreprises ont investi de manière significative à la fois dans la collecte de données et dans la puissance de calcul au cours de la dernière décennie. 

Au vu de la division géopolitique mondiale croissante, l’IA se développe dans une époque d’incertitude. 2024 sera une année record en termes de nombre d’élections organisées dans le monde, rassemblant plus de 2 milliards de personnes aux urnes, notamment aux États-Unis, en Inde, au Mexique, et en Afrique du Sud. La gouvernance de l’IA étant une priorité politique majeure, les changements dans ces administrations auront un impact notable sur les développements mondiaux dans ce domaine. Par ailleurs, dans un contexte de concurrence technologique entre les États-Unis et la Chine, Taiwan reste une source essentielle pour la chaîne d’approvisionnement mondiale d’unités de traitement graphique (GPU) avancées, essentielles au développement des modèles d’IA. Il pourrait donc y avoir des scénarios escalatoires dans lesquels les États-Unis et la Chine prendraient des mesures et des contre-mesures l’un contre l’autre, tandis que leurs alliés réfléchiraient au meilleur alignement stratégique possible. Enfin, la recherche de freins et de contrepoids pour limiter le pouvoir sans précédent de quelques acteur·rice·s de l’industrie de l’IA définira les modalités de gouvernance régionales et nationales. La contestation émergera de ces trois courants sous-jacents qui influencent le développement de l’IA.

Une importante bataille d’influence sur les règles mondiales en matière d’IA

La communauté internationale reconnaît les risques et les complexités que pose la gouvernance de l’IA. En effet, beaucoup de risques sont amplifiés par l’utilisation de l’IA, allant de menaces relativement limitées à des risques sociétaux plus larges. À une extrémité du spectre, les systèmes d’IA produisent des inférences biaisées et erronées, voire des « hallucinations », présentant des informations fausses ou trompeuses comme des faits. D’un autre côté, ils déclenchent des changements structurels et sociétaux via des pertes d’emplois et des impacts éducatifs ou environnementaux. Alors que les discussions récentes tendent à se concentrer davantage sur les risques existentiels et la perte potentielle de contrôle humain, les préjudices quotidiens engendrés par l’utilisation de l’IA doivent être pleinement pris en compte. La déconnexion croissante entre l’IA et l’inclusion numérique montre clairement que les pays et les populations souffrent déjà à la fois de fracture(s) numérique(s) et de pauvreté numérique

Nous assistons à divers efforts pour régir l'IA. Premièrement, au niveau multilatéral, plusieurs processus ont commencé : le Conseil de l’Europe a négocié un instrument international juridiquement contraignant sur le développement, la conception, et l’application de systèmes d’IA. Parallèlement, le Secrétaire général de l’ONU a nommé un Comité consultatif de haut niveau sur l’IA chargé de cartographier le paysage en matière de gouvernance et de proposer des options politiques et institutionnelles avant le Sommet de l’avenir, en septembre 2024. Un premier sommet mondial sur la sécurité de l’IA, organisé par le Royaume-Uni en novembre 2023, a récemment donné l'impulsion nécessaire pour combler le fossé en matière de tests de sécurité de l’IA.

Deuxièmement, des discussions sur la réglementation ont lieu au niveau national. Parallèlement aux travaux actuellement menés par l’UE pour créer une loi sur l’IA, aux tentatives internes de la Chine d’établir des mécanismes de régulation, et au plus récent décret américain sur l’IA, de plus en plus de gouvernements d’Amérique latine, d’Afrique, et d’Asie discutent de projets de loi sur ces technologies. Ce qui est clair, c’est que la gouvernance et la réglementation de l’IA ne peuvent pas être une solution miracle. De nombreux pays sont encore en train de déterminer leur position dans ces débats réglementaires. Il s’agit plutôt d’un processus à long terme visant à gouverner une technologie à usage général qui existe déjà, tout en permettant une flexibilité suffisante pour s’adapter aux progrès constants dans ce domaine. 

Malgré ces initiatives, les principales questions dominant les discussions mondiales sur l’IA demeurent sans réponse : Quelles solutions pérennes peuvent être conçues au niveau de la gouvernance ? Quels sont les dangers d’un système de gouvernance fragmenté ? Comment un régime plus cohérent pourrait-il être optimisé pour l’intérêt public ? Sommes-nous prêts à développer des écosystèmes de gouvernance centrés sur le bien-être de l’humanité et restant axés sur une mission, plutôt que des écosystèmes réactifs qui tentent de trouver des solutions aux problèmes actuels ? 

Le rôle de la Genève internationale

La plupart des organisations semblent travailler en silos, ce qui ne leur permet pas de faire facilement entendre leur voix dans les conversations mondiales sur l’IA.

Genève peut jouer un rôle important dans la gouvernance de l’IA. Avec son vivier d’organisations internationales et d’ONG, Genève est une plaque tournante mondiale à la fois pour la normalisation technique et le droit international – en particulier pour la protection des droits humanitaires et des droits humains. Davantage d’efforts pour que ces domaines guident et informent les développements de l’IA sont maintenant nécessaires. L’écosystème humanitaire se voit rapidement transformé par l’IA, et les données d’un nombre sans précédent d’individus sont déjà transmises à des machines, avec des conséquences à long terme encore inconnues

Pourtant, la plupart des organisations semblent travailler en silos, ce qui ne leur permet pas de faire facilement entendre leur voix dans les conversations mondiales sur l’IA. La majorité des institutions internationales basées à Genève se sont déjà lancées dans l’aventure de l’IA, soit en utilisant des outils d’IA en interne, soit en contribuant à, ou en créant, des instruments améliorés par l’IA pour le bien commun. Directement et indirectement, Genève participe déjà à la prise de décisions majeures en matière d’IA. 

De plus, même si les réseaux multipartites actifs basés à Genève et dans ses environs restent à l’avant-garde du mouvement « AI for good », la signification du terme good n’est pas toujours claire, et n’est pas partagée par toutes les parties prenantes. Les tentatives précédentes d’élaboration de principes éthiques dans le monde de l’IA ont montré leurs limites, dans la mesure où ces principes ne sont pas applicables à l’échelle mondiale. Dans cette optique, deux voies valent la peine d’être explorées. Premièrement, s’entendre sur les pierres angulaires centrales que les différentes parties prenantes valorisent et utiliser le pouvoir fédérateur de la Genève internationale pour définir un vocabulaire commun. Deuxièmement, la Genève internationale peut faciliter les discussions sur les mécanismes de protection des connaissances non numériques contre les perturbations liées à l’IA. 

Enfin, le monde universitaire reste une partie prenante sous-représentée dans les débats sur la gouvernance de l’IA. Alors que certaines universités font progresser le champ de l’IA, il existe un déséquilibre dans l’accès des universitaires aux forums de discussion, qui peut être minimisé dans la Genève internationale. Un nombre croissant de gouvernements ont annoncé un financement public et une mise en commun des ressources pour les supercalculateurs nationaux (un exemple récent est le Centre national suisse de calcul), visant à minimiser l’écart entre l’expertise privée et publique. Les discussions futures devraient non seulement intégrer les données et les points de vue fournis par les institutions universitaires, mais également informer activement les futures recherches sur les transformations sociétales engendrées par l’IA. Nous n’avons donc plus de temps à perdre.


À propos de l'auteur

Roxana Radu est professeure agrégée en technologies numériques et politiques publiques à la Blavatnik School of Government de l’Université d’Oxford.

Clause de non responsabilité
Les opinions exprimées dans cette publication sont celles des auteurs. Elles ne prétendent pas refléter les opinions ou les points de vue du Geneva Policy Outlook ou de ses organisations partenaires.