Mesures législatives pour assurer la sécurité de l’intelligence artificielle
11 mai 2024
Alors que l’intelligence artificielle (IA) continue d’évoluer et d’imprégner de plus en plus d’aspects de notre vie quotidienne, la nécessité d’assurer sa sécurité devient cruciale. Dans ce contexte, un récent projet de loi présenté au Sénat américain vise à relever ce défi crucial.
Le Secure Artificial Intelligence Act, présenté par les sénateurs Mark Warner (D-VA) et Thom Tillis (R-NC), vise à créer une base de données centralisée pour suivre et enregistrer toutes les atteintes à la sécurité liées aux systèmes d’IA. Cette base de données comprendrait non seulement les attaques réussies, mais aussi les incidents évités de justesse.
Un centre de sécurité de l’IA au sein de la NSA
L’une des principales dispositions du projet de loi est la création d’un centre de sécurité de l’intelligence artificielle au sein de l’Agence nationale de sécurité (NSA). Ce centre aurait pour mission de mener des recherches sur les techniques de« contre-intelligence« , c’est-à-dire sur les méthodes permettant de manipuler et de contrer les systèmes d’intelligence artificielle.
En outre, le centre élaborerait des lignes directrices et des meilleures pratiques pour prévenir et atténuer les attaques de contre-ingérence, fournissant ainsi un cadre essentiel pour les développeurs et les utilisateurs de solutions d’intelligence artificielle.
Types d’attaques à contrer
La loi sur la sécurité de l’intelligence artificielle classe les attaques contre les systèmes d’IA en quatre catégories principales :
- Empoisonnement des données: cette technique consiste à insérer un code malveillant dans les données collectées et utilisées par les modèles d’IA, corrompant ainsi leurs résultats et leur fonctionnement.
- Attaques d’évasion: ces attaques visent à modifier les données analysées par les modèles d’IA afin de les confondre et de les induire en erreur.
- Attaquesbasées sur la protection de la vie privée: ces attaques visent à violer la vie privée des utilisateurs en exploitant les vulnérabilités des systèmes d’IA.
- Attaques parabus: cette catégorie comprend les attaques visant à utiliser de manière abusive ou malveillante les capacités des modèles d’IA.
Il est essentiel de s’attaquer à ces menaces pour garantir la fiabilité et la sécurité des solutions d’IA tout en protégeant la vie privée et les données des utilisateurs.
Le rôle du NIST et de la CISA
Outre la création d’un centre de sécurité au sein de la NSA, le projet de loi prévoit que le National Institute of Standards and Technology (NIST) et la Cybersecurity and Infrastructure Security Agency (CISA) collaborent à l’élaboration et à la mise à jour d’une base de données sur les failles de sécurité liées à l’IA.
Cette ressource centralisée permettrait de suivre et d’analyser les incidents de sécurité, facilitant ainsi le développement de contre-mesures plus efficaces et plus ciblées.
Alignement sur les initiatives de l’administration Biden
Laloi sur la sécurité de l’intelligence artificielle est conforme aux initiatives de l’administration Biden visant à relever les défis de la sécurité de l’IA. En particulier, le décret présidentiel sur l’IA exigeait du NIST qu’il établisse des lignes directrices pour le « red-teaming » – le processus consistant à tester intentionnellement les modèles d’IA pour y déceler des vulnérabilités.
En outre, le décret exige des développeurs d’IA qu’ils soumettent des rapports de sécurité détaillés, conformément à l’approche proactive promue par la loi sur la sécurité de l’intelligence artificielle (Secure Artificial Intelligence Act).
Nécessité de tests de sécurité approfondis
Pour garantir la sécurité des modèles d’IA les plus avancés, il est essentiel que les développeurs les soumettent à des tests de sécurité rigoureux et à des sessions de red-teaming approfondies avant de les mettre à la disposition du public. Certaines entreprises, comme Microsoft, ont déjà développé des outils pour simplifier la mise en œuvre des mesures de sécurité dans les projets d’IA.
Toutefois, il est essentiel que ces pratiques deviennent une norme industrielle, et la loi sur la sécurité de l’intelligence artificielle pourrait constituer une étape importante dans cette direction.
La voie législative
Avant d’être débattu et voté par l’ensemble du Sénat, le Secure Artificial Intelligence Act devra passer par les commissions compétentes. Ce processus pourrait entraîner des modifications ou des amendements au texte original du projet de loi.
Toutefois, le large soutien bipartisan dont bénéficie le projet de loi, parrainé par un démocrate et un républicain, pourrait faciliter son parcours législatif.
Conclusion : Un pas en avant pour l’IA sécurisée
La loi sur la sécurité de l’intelligence artificielle (Secure Artificial Intelligence Act ) représente un effort important pour relever les défis de l’intelligence artificielle en matière de sécurité. Grâce à la création d’une base de données centralisée des atteintes à la sécurité, à la promotion de la recherche sur les techniques de contre-ingérence et à la mise en place d’un centre d’excellence à la NSA, ce projet de loi vise à créer un cadre réglementaire plus solide pour garantir la sécurité des systèmes d’intelligence artificielle.
Bien que le parcours législatif puisse présenter d’autres défis, leSecure Artificial Intelligence Act est une étape importante pour promouvoir l’adoption responsable et sécurisée de l’IA, tout en protégeant la vie privée et les données des utilisateurs.
Source de l’article ici.