Selon les organisations, "les outils de filtrage utilisés par les entreprises pour rationaliser l'embauche, par exemple, ont créé des obstacles à l'emploi pour les personnes handicapées, les femmes, les personnes âgées et les personnes de couleur". La création facile de vidéos et de sons manipulés alimente les fraudes à la consommation et les extorsions de fonds, et soulève des questions cruciales pour l'environnement de l'information liée aux élections et pour le discours public. Cependant, le gouvernement américain dispose d'environ 50 organismes de réglementation indépendants, et de nombreux risques liés à l'IA peuvent être traités par le biais des autorités existantes. Certaines villes et certains États américains ont déjà adopté des lois limitant l'utilisation de l'IA dans des domaines tels que les enquêtes policières et le recrutement. D'autres mesures sont en cours.
Quinze pionniers
En juillet 2023, l'administration Biden-Harris avait déjà obtenu des engagements volontaires de la part de sept entreprises - Amazon, Anthropic, Google, Inflection, Meta, Microsoft et Open AI - pour gérer les risques associés à l'IA. Environ deux mois plus tard, en septembre 2023, huit autres entreprises - Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI et Stability AI - ont également souscrit à ces engagements.
Les entreprises se sont engagées à faire en sorte que les produits d'IA soient soumis à des tests de sécurité internes et externes avant d'être rendus publics ; à partager des informations sur la gestion des risques liés à l'IA avec l'industrie, les gouvernements, la société civile et les universités ; à donner la priorité à la cybersécurité et à protéger les composants propriétaires des systèmes d'IA ; à développer des mécanismes permettant d'informer les utilisateurs lorsque le contenu est généré par l'IA, tels que le filigrane ; rendre compte publiquement des capacités, des limites et des domaines d'utilisation de leurs systèmes d'IA ; donner la priorité à la recherche sur les risques sociétaux posés par l'IA, y compris les préjugés, la discrimination et les problèmes de protection de la vie privée ; et développer des systèmes d'IA pour relever des défis sociétaux, allant de la prévention du cancer à l'atténuation du changement climatique.
En vertu de la "Loi de 2023 sur la divulgation de l'information en matière d'IA. Ainsi, tout matériel généré par la technologie de l'intelligence artificielle doit comporter la mention suivante : "AVERTISSEMENT : Ce résultat a été généré par l'intelligence artificielle" : "AVERTISSEMENT : Ce résultat a été généré par une intelligence artificielle". Cette disposition s'appliquerait aux vidéos, aux photos, au texte, à l'audio et/ou à tout autre matériel généré par l'intelligence artificielle. La Federal Trade Commission (FTC) serait chargée de faire respecter les infractions, qui pourraient donner lieu à des sanctions civiles. Cela reflète la crainte croissante que l'IA facilite grandement la création de "deep fakes" et de désinformation convaincante, en particulier à mesure que la campagne présidentielle de 2024 s'accélère.
Améliorez votre jeu patrimonial : Donner aux investisseurs institutionnels les moyens d'une gestion d'actifs simplifiée. Aperçu de la plateforme Altoo
Protéger les droits civils
Selon le magazine Politico, le décret tant attendu de l'administration Biden sur l'IA devrait tirer parti du vaste pouvoir d'achat du gouvernement fédéral pour définir les normes américaines d'une technologie qui a pris de l'avance sur les régulateurs. La Maison-Blanche devrait également s'appuyer sur l'Institut national des normes et de la technologie pour renforcer les lignes directrices de l'industrie en matière de test et d'évaluation des systèmes d'IA - des dispositions qui s'appuieraient sur les engagements volontaires en matière de sûreté, de sécurité et de confiance. En bref, ils rejoindront la déclaration volontaire de 15 grandes entreprises technologiques (voir ci-dessus).
Le New York Times note que les premières réglementations du gouvernement fédéral sur les systèmes d'IA comprendront des exigences selon lesquelles les produits d'IA les plus avancés seront testés pour s'assurer qu'ils ne peuvent pas être utilisés pour produire des armes biologiques ou nucléaires, et que les résultats de ces tests seront communiqués au gouvernement fédéral.
Le décret ne concerne que les entreprises américaines, mais comme le développement de logiciels se fait dans le monde entier, les États-Unis seront confrontés à des problèmes diplomatiques pour faire appliquer les réglementations, raison pour laquelle l'administration tente d'encourager les alliés et les adversaires à élaborer des règles similaires.
L'action exécutive s'appuiera sur des années d'efforts de la Maison Blanche pour établir des normes en matière d'IA. La Maison-Blanche de Trump a publié un décret visant à promouvoir le leadership américain en matière d'IA en 2019. En octobre 2022, l'administration Biden a publié sa Charte des droits de l'IA non contraignante, décrivant les positions générales de l'administration sur la gouvernance des systèmes automatisés, en mettant l'accent sur la protection des droits civils.