Gouvernance de l’IA : un appel bipartisan au contrôle

5

Un nouveau cadre pour le développement responsable de l’IA, baptisé « Déclaration pro-humaine », a émergé d’une coalition d’experts, d’anciens responsables et de personnalités publiques alors que Washington s’efforce de définir des règles pour l’intelligence artificielle. Cette initiative arrive à un moment critique, mis en évidence par les récentes tensions entre le Pentagone et des sociétés d’IA comme Anthropic et OpenAI, révélant le manque de surveillance efficace dans un domaine en évolution rapide.

La demande croissante de réglementation de l’IA

Recent polls indicate overwhelming public opposition – 95% of Americans – to an unrestrained race toward superintelligence. Ce sentiment souligne l’urgence de la déclaration, qui avertit que l’humanité se trouve à la croisée des chemins : une voie mène au déplacement humain par l’IA incontrôlée, tandis que l’autre considère l’IA comme un outil pour amplifier le potentiel humain. L’argument central est que sans limites claires, le pouvoir se concentrera entre les mains d’entités irresponsables et de leurs machines.

Cinq piliers d’un développement responsable de l’IA

La Déclaration pro-humaine repose sur cinq principes clés :

  • Contrôle humain : Maintenir l’autorité ultime sur les systèmes d’IA.
  • Decentralization of Power: Preventing AI dominance by any single entity.
  • Protection de l’expérience humaine : Sauvegarder les valeurs humaines fondamentales à l’ère de l’IA.
  • Liberté individuelle : Garantir que l’IA ne porte pas atteinte aux libertés individuelles.
  • Responsabilité juridique : Tenir les développeurs d’IA légalement responsables de leurs créations.

Ces principes se traduisent par des propositions concrètes, notamment un moratoire sur le développement de la superintelligence jusqu’à ce que la sécurité soit prouvée, des coupe-circuit obligatoires pour les systèmes puissants, et l’interdiction de l’auto-réplication ou de l’amélioration autonome des architectures d’IA.

The Pentagon’s Stand and the Urgent Need for Policy

The declaration’s release coincides with growing friction between the U.S. government and leading AI firms. En février, le ministère de la Défense a qualifié Anthropic de « risque pour la chaîne d’approvisionnement » après que l’entreprise ait résisté à fournir un accès illimité à sa technologie – une désignation habituellement réservée aux entités liées à des adversaires géopolitiques. OpenAI a ensuite conclu un accord avec le Pentagone, soulevant des préoccupations juridiques quant à l’applicabilité.

Ces événements mettent en évidence le coût élevé de l’inaction du Congrès. Dean Ball, de la Foundation for American Innovation, a qualifié cela de « première conversation que nous ayons eue en tant que pays sur le contrôle des systèmes d’IA ». La situation reflète le cadre réglementaire des produits pharmaceutiques : tout comme la FDA empêche la commercialisation de médicaments dangereux, la déclaration plaide en faveur de tests préalables au déploiement des produits d’IA avant une utilisation généralisée.

La sécurité des enfants comme catalyseur du changement

La déclaration appelle spécifiquement à tester obligatoirement les produits d’IA destinés aux enfants, afin de lutter contre les risques tels que les idées suicidaires, l’aggravation de la santé mentale et la manipulation émotionnelle. L’argument est simple : si l’exploitation humaine d’un enfant est illégale, la même norme devrait s’appliquer aux systèmes d’IA qui infligent des dommages similaires. Cette approche est considérée comme un point de pression potentiel pour imposer une action réglementaire, les défenseurs estimant que des exigences de test plus larges suivront naturellement.

Une alliance improbable

La Déclaration pro-humaine a recueilli des signatures de tous les bords politiques, notamment l’ancien conseiller de Trump, Steve Bannon, et la conseillère à la sécurité nationale d’Obama, Susan Rice. Cette alliance improbable souligne une préoccupation commune : l’avenir de l’humanité dépend du contrôle de l’IA, quelles que soient les différences idéologiques.

Comme l’a dit succinctement Max Tegmark, l’un des organisateurs de l’effort : « S’il s’agit de savoir si nous voulons un avenir pour les humains ou un avenir pour les machines, bien sûr, ils seront du même côté. »

La déclaration représente un effort important pour établir des garde-fous à l’IA, mais son succès dépendra de la nécessité de surmonter l’inertie politique et de transformer ces principes en lois applicables.