IA : plus de 200 experts et personnalités appellent l’ONU à fixer des lignes rouges internationales

IA

Le lundi 22 septembre 2025, plus de 200 personnalités et 70 organisations issues du monde académique, industriel et institutionnel ont publié une lettre ouverte présentée devant les Nations Unies lors de la 80e Assemblée générale. L’objectif : établir des règles contraignantes pour l’intelligence artificielle (IA) afin d’éviter des risques jugés « sans précédent » liés à sa trajectoire actuelle. L’annonce a été relayée le 23 septembre 2025 à 15h35 par 01net.

Un appel à l’action pour encadrer l’IA

Face à l’essor rapide des technologies d’IA, les signataires de cette lettre veulent éviter des dérives catastrophiques avant qu’elles ne se produisent. Selon Charbel-Raphaël Segerie du Centre français pour la sécurité de l’IA (CeSIA) :

« L’objectif n’est pas de réagir après qu’un incident majeur s’est produit… mais de prévenir les risques à grande échelle et potentiellement irréversibles avant qu’ils ne se produisent. »

Segerie insiste également sur la nécessité pour les nations de s’accorder sur les limites fondamentales de l’IA :

« Si les nations ne parviennent pas encore à s’accorder sur ce qu’elles veulent faire avec l’IA, elles doivent au moins s’accorder sur ce que l’IA ne doit jamais faire. »

Une inspiration des traités existants

Les auteurs souhaitent s’inspirer des précédents en matière de régulation internationale, tels que les conventions sur les armes biologiques, les armes nucléaires ou le clonage humain. La première étape envisagée consiste à adopter une résolution de l’Assemblée générale de l’ONU avant de négocier un traité mondial plus contraignant.

Des signataires de premier plan

La lettre a été signée par des experts mondialement reconnus, dont Geoffrey Hinton et Yoshua Bengio, surnommés les « parrains de l’IA ». Des chercheurs et cadres de grandes entreprises comme OpenAI, Google DeepMind et Anthropic figurent également parmi les signataires. Côté institutions, on retrouve Reporters sans frontières et France Deeptech, ainsi que des anciens chefs d’État et des députés européens.

Les initiateurs de cette initiative sont le Centre français pour la sécurité de l’IA (CeSIA), The Future Society et le Center for Human-Compatible Artificial Intelligence de l’Université de Berkeley.

Risques majeurs identifiés

Dans leur lettre, les auteurs alertent sur plusieurs dangers potentiels :

  • Création de pandémies artificielles.
  • Désinformation massive susceptible de déstabiliser sociétés et démocraties.
  • Atteintes à la sécurité nationale et internationale.
  • Chômage de masse dû à l’automatisation.
  • Violations systématiques des droits de l’homme.
  • Impact possible sur la santé mentale, incluant des cas de suicide et de meurtre liés à des agents conversationnels IA.

Stuart Russell, professeur à l’Université de Berkeley, rappelle l’importance d’intégrer la sécurité dès le développement des technologies :

« Tout comme les développeurs de l’énergie nucléaire n’ont pas construit de centrales nucléaires avant d’avoir une idée de la manière d’empêcher leur explosion, l’industrie de l’IA doit choisir une voie technologique différente, qui intègre la sécurité dès le départ. »

Il ajoute que les lignes rouges ne constituent pas un frein à l’innovation ou au développement économique, contrairement à ce que prétendent certains détracteurs.

Propositions concrètes pour encadrer l’IA

Les signataires de la lettre avancent plusieurs mesures pratiques :

  • Établir une liste claire d’interdictions pour les usages inacceptables de l’IA.
  • Mettre en place des mécanismes de vérification et de contrôle pour s’assurer du respect des règles.
  • Créer un organisme mondial indépendant chargé de surveiller et faire appliquer les directives.

Niki Iliadis, de The Future Society, souligne que cette institution devrait être « dotée de pouvoirs réels » pour garantir l’efficacité de la régulation à l’échelle mondiale.

Contexte réglementaire existant

Certains pays et régions ont déjà mis en place des règles locales ou régionales :

  • L’Union européenne a adopté un règlement interdisant certaines pratiques « inacceptables », telles que le scoring social.
  • La Chine dispose d’une législation nationale sur l’IA.
  • L’accord Washington-Pékin garantit que les armes nucléaires restent sous contrôle humain.
  • La Convention cadre sur l’IA rassemble une cinquantaine de pays (UE, États-Unis, Canada) pour négocier un traité international relatif aux droits de l’homme et à la démocratie.
  • Divers engagements volontaires ont été signés par des entreprises aux États-Unis, au Royaume-Uni et dans l’UE.

Échecs et limites des initiatives précédentes

Depuis l’essor de l’IA générative, plusieurs tentatives de régulation ont été lancées :

  • L’appel de 2023 pour un moratoire de six mois a été médiatisé mais peu suivi.
  • Des codes de conduite ont été proposés par l’UE et les États-Unis, notamment le pacte IA européen porté par Thierry Breton, mais leur adoption est restée marginale.
  • Les initiatives existantes restent essentiellement nationales ou régionales, sans véritable coordination internationale.
  • La course à l’IA est largement dominée par les intérêts commerciaux des entreprises, freinant l’émergence de règles contraignantes à l’échelle mondiale.

Un autre facteur de complexité est la position de certains dirigeants mondiaux. La lettre cite notamment un président américain adepte de la dérégulation, qui pourrait freiner tout accord mondial sur l’encadrement de l’IA.

Analyse et perspective

Cette initiative survient à un moment critique : l’IA est devenue omniprésente dans la vie quotidienne, les médias et les secteurs économiques clés. Les risques mentionnés ne relèvent plus de la spéculation scientifique mais de réalités tangibles, avec des impacts sociaux, économiques et géopolitiques majeurs.

La proposition de lignes rouges internationales pourrait constituer un tournant historique, similaire aux conventions sur les armes nucléaires ou biologiques. Contrairement aux initiatives antérieures, elle repose sur un large consensus d’experts et d’organisations influentes, ce qui lui confère un poids politique et moral considérable.

Cependant, le succès dépendra de la volonté politique des nations et de leur capacité à dépasser les intérêts commerciaux et géopolitiques. L’histoire récente des régulations de l’IA montre que sans mécanisme contraignant et surveillance indépendante, même les appels les plus médiatisés peuvent rester lettre morte.

Un autre point critique est la mise en application pratique. Créer un organisme indépendant avec de réels pouvoirs est essentiel, mais sa légitimité dépendra de l’adhésion d’un nombre suffisant de nations et de la coopération des entreprises technologiques majeures.

Enfin, l’approche préventive prônée par Segerie et Russell marque une rupture avec la logique traditionnelle : au lieu d’attendre qu’un incident majeur se produise, l’IA serait encadrée dès ses phases de développement. Cette méthode pourrait limiter les risques systémiques et renforcer la confiance du public dans la technologie.

Comparaison avec d’autres régulations technologiques

L’IA n’est pas la première technologie à susciter des inquiétudes internationales. Des parallèles peuvent être établis avec :

  • Les armes nucléaires : encadrement international via le Traité de non-prolifération nucléaire.
  • Les armes biologiques : interdiction et inspection internationale via la Convention sur les armes biologiques.
  • Le clonage humain : interdictions et codes éthiques au niveau mondial.

Dans chacun de ces cas, la clé du succès réside dans la combinaison d’engagement politique, de surveillance indépendante et de normes contraignantes applicables globalement. Les signataires de la lettre estiment que l’IA nécessite une approche similaire, adaptée à sa nature multidimensionnelle et à son rythme de développement rapide.

Conclusion

L’initiative lancée le 22 septembre 2025 représente un appel sans précédent pour prévenir les risques majeurs liés à l’IA. Forte de l’expertise de ses signataires et du soutien de nombreuses organisations, elle pourrait ouvrir la voie à un traité international contraignant, à l’instar des conventions sur les armes nucléaires et biologiques.

Cependant, les défis restent considérables : coordination internationale, adhésion des entreprises technologiques et volonté politique des nations. Sans ces éléments, la lettre pourrait, comme les initiatives précédentes, « sonner dans le vide ». Néanmoins, elle marque un tournant dans le débat mondial sur l’IA, en mettant l’accent sur la prévention, la sécurité et l’éthique, plutôt que sur la simple régulation réactive.

En définitive, la question n’est plus de savoir si l’IA doit être encadrée, mais comment le monde peut s’entendre pour fixer des lignes rouges efficaces et universelles, garantissant que cette technologie reste un outil de progrès et non une menace pour l’humanité.

Enregistrer un commentaire

0 Commentaires