Les États-Unis fixent les règles de l’utilisation éthique de l’IA : une nouvelle voie pour l’avenir
7 avril 2024
Le gouvernement américain prend des mesures importantes pour réglementer l’utilisation de l’intelligence artificielle par les agences fédérales. Cinq mois après la signature par le président Joe Biden d’un décret visant à répondre à l’évolution rapide de l’IA, la Maison Blanche a annoncé une nouvelle politique visant à garantir une utilisation responsable et sûre de cette technologie.
Outils d’IA et sécurité des citoyens
Les nouvelles lignes directrices fixent trois exigences contraignantes pour les agences fédérales. Premièrement, les agences devront s’assurer que les outils d’IA qu’elles utilisent ne mettent pas en péril les droits et la sécurité des citoyens américains. Elles auront jusqu’au 1er décembre pour mettre en place des mesures concrètes visant à garantir que les systèmes d’IA utilisés n’affectent pas la sécurité ou les droits des Américains. Dans le cas contraire, l’agence devra cesser d’utiliser le produit d’IA, à moins que ses dirigeants ne puissent justifier que l’abandon du système aurait un impact « inacceptable » sur les opérations critiques.
L’IA et le respect des droits civils
Selon les lignes directrices, un système d’IA est considéré comme présentant un risque pour la sécurité s’il est utilisé ou susceptible d’être utilisé, dans des conditions réelles, pour contrôler ou influencer de manière significative les résultats de certaines activités et décisions. Ces activités comprennent le maintien de l’intégrité des élections et des infrastructures de vote, le contrôle des fonctions de sécurité critiques des infrastructures telles que les systèmes d’approvisionnement en eau, les services d’urgence et les réseaux électriques, les véhicules autonomes et le contrôle des mouvements physiques des robots sur les lieux de travail, dans les écoles, dans les logements, dans les transports, dans les environnements médicaux ou dans le cadre de l’application de la loi.
Les agences devront également retirer les systèmes d’intelligence artificielle qui violent les droits des citoyens américains, à moins qu’elles ne disposent de garanties adéquates ou qu’elles ne puissent justifier leur utilisation pour des raisons de sensibilité. Les objectifs qui, selon la politique, sont susceptibles de violer les droits comprennent la surveillance des médias sociaux pour les forces de l’ordre, la détection du plagiat dans les écoles, le blocage ou la restriction de la liberté d’expression protégée, la détection ou la mesure des émotions et des pensées humaines, le contrôle de pré-occupation et la « reproduction de l’apparence ou de la voix d’une personne sans son consentement explicite ».
Exigences de transparence
La deuxième exigence demande aux agences d’être transparentes sur les systèmes d’intelligence artificielle qu’elles utilisent. Le président Biden et le vice-président Harris demandent aux agences gouvernementales de publier en ligne chaque année une liste de leurs systèmes d’intelligence artificielle, une évaluation des risques que ces systèmes pourraient poser et la manière dont ces risques sont gérés. En outre, les agences seront tenues de publier le code, les modèles et les données d’IA appartenant au gouvernement, à condition que cela ne nuise pas au public ou aux opérations gouvernementales. Si une agence ne peut pas divulguer des cas spécifiques d’utilisation de l’IA pour des raisons de sensibilité, elle devra tout de même fournir des indicateurs.
Contrôle interne de l’agence
La dernière exigence des lignes directrices est que les agences fédérales exercent un contrôle interne sur leur utilisation de l’IA. Chaque ministère devra nommer un responsable de l’IA chargé de superviser l’utilisation de cette technologie au sein de l’agence. Ce rôle permettra de s’assurer que l’IA est utilisée de manière responsable, étant entendu qu’il est nécessaire de disposer de hauts responsables au sein de l’administration spécifiquement chargés de superviser l’adoption et l’utilisation de l’IA. De nombreuses agences devront également mettre en place des conseils de gouvernance de l’IA d’ici le 27 mai.
Opportunités et défis de l’intelligence artificielle
Les lignes directrices soulignent que l‘IA présente non seulement des risques, mais aussi d’énormes possibilités d’améliorer les services publics et de relever des défis sociétaux tels que le changement climatique, l’amélioration de la santé publique et la promotion d’opportunités économiques équitables. Selon Shalanda Young, directrice de l’Office of Management and Budget (OMB),« lorsqu’elle est utilisée et supervisée de manière responsable, l’intelligence artificielle peut aider les agences à réduire les temps d’attente pour les services gouvernementaux essentiels, à améliorer la précision et à élargir l’accès aux services publics essentiels« .
Ces nouvelles lignes directrices représentent le dernier effort en date pour réglementer le développement rapide de l’intelligence artificielle. Alors que l’Union européenne a adopté un vaste ensemble de règles sur l’utilisation de l’intelligence artificielle et que des projets de loi fédéraux sont en cours d’élaboration, les efforts visant à réglementer l’intelligence artificielle aux États-Unis ont été plus fragmentaires au niveau des États. Par exemple, l’Utah a adopté une loi visant à protéger les consommateurs contre la fraude à l’IA, tandis que le Tennessee a adopté une loi visant à protéger les musiciens contre les « deepfakes », c’est-à-dire le clonage de voix sans leur consentement.
L’IA est déjà utilisée par les agences gouvernementales américaines sous diverses formes. Par exemple, la National Oceanic and Atmospheric Administration développe des modèles d’intelligence artificielle pour améliorer les prévisions météorologiques extrêmes, les inondations et les incendies de forêt, tandis que la Federal Aviation Administration utilise un système pour gérer le trafic aérien dans les grandes zones métropolitaines afin d’améliorer les temps de trajet.