Première Réglementation Américaine sur Les Systèmes d'IA

Dans une récente déclaration commune, 87 organisations de défense des droits de l'homme et des droits civils ont exhorté le Congrès américain à prendre des mesures concernant les risques importants pour les droits de l'homme et la société créés et rendus possibles par les technologies de l'intelligence artificielle (IA). La déclaration décrit certaines menaces que l'IA fait peser sur la société. La première réglementation américaine sur les systèmes d'IA est en cours d'élaboration.
Découvrez la puissance de la gestion de patrimoine numérique, en toute transparence, avec Altoo. Demander une Demo/RDV au sujet de la plateforme Altoo Wealth.

Selon les organisations, "les outils de filtrage utilisés par les entreprises pour rationaliser l'embauche, par exemple, ont créé des obstacles à l'emploi pour les personnes handicapées, les femmes, les personnes âgées et les personnes de couleur". La création facile de vidéos et de sons manipulés alimente les fraudes à la consommation et les extorsions de fonds, et soulève des questions cruciales pour l'environnement de l'information liée aux élections et pour le discours public. Cependant, le gouvernement américain dispose d'environ 50 organismes de réglementation indépendants, et de nombreux risques liés à l'IA peuvent être traités par le biais des autorités existantes. Certaines villes et certains États américains ont déjà adopté des lois limitant l'utilisation de l'IA dans des domaines tels que les enquêtes policières et le recrutement. D'autres mesures sont en cours.

 

Quinze pionniers

En juillet 2023, l'administration Biden-Harris avait déjà obtenu des engagements volontaires de la part de sept entreprises - Amazon, Anthropic, Google, Inflection, Meta, Microsoft et Open AI - pour gérer les risques associés à l'IA. Environ deux mois plus tard, en septembre 2023, huit autres entreprises - Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI et Stability AI - ont également souscrit à ces engagements.

Les entreprises se sont engagées à faire en sorte que les produits d'IA soient soumis à des tests de sécurité internes et externes avant d'être rendus publics ; à partager des informations sur la gestion des risques liés à l'IA avec l'industrie, les gouvernements, la société civile et les universités ; à donner la priorité à la cybersécurité et à protéger les composants propriétaires des systèmes d'IA ; à développer des mécanismes permettant d'informer les utilisateurs lorsque le contenu est généré par l'IA, tels que le filigrane ; rendre compte publiquement des capacités, des limites et des domaines d'utilisation de leurs systèmes d'IA ; donner la priorité à la recherche sur les risques sociétaux posés par l'IA, y compris les préjugés, la discrimination et les problèmes de protection de la vie privée ; et développer des systèmes d'IA pour relever des défis sociétaux, allant de la prévention du cancer à l'atténuation du changement climatique.

En vertu de la "Loi de 2023 sur la divulgation de l'information en matière d'IA. Ainsi, tout matériel généré par la technologie de l'intelligence artificielle doit comporter la mention suivante : "AVERTISSEMENT : Ce résultat a été généré par l'intelligence artificielle" : "AVERTISSEMENT : Ce résultat a été généré par une intelligence artificielle". Cette disposition s'appliquerait aux vidéos, aux photos, au texte, à l'audio et/ou à tout autre matériel généré par l'intelligence artificielle. La Federal Trade Commission (FTC) serait chargée de faire respecter les infractions, qui pourraient donner lieu à des sanctions civiles. Cela reflète la crainte croissante que l'IA facilite grandement la création de "deep fakes" et de désinformation convaincante, en particulier à mesure que la campagne présidentielle de 2024 s'accélère.

Votre patrimoine, notre priorité : La puissance de consolidation d'Altoo, la gestion sécurisée des documents et le partage transparent des parties prenantes pour les particuliers fortunés. Demander une DEMO.

 

Protéger les droits civils

Selon le magazine Politico, le décret tant attendu de l'administration Biden sur l'IA devrait tirer parti du vaste pouvoir d'achat du gouvernement fédéral pour définir les normes américaines d'une technologie qui a pris de l'avance sur les régulateurs. La Maison-Blanche devrait également s'appuyer sur l'Institut national des normes et de la technologie pour renforcer les lignes directrices de l'industrie en matière de test et d'évaluation des systèmes d'IA - des dispositions qui s'appuieraient sur les engagements volontaires en matière de sûreté, de sécurité et de confiance. En bref, ils rejoindront la déclaration volontaire de 15 grandes entreprises technologiques (voir ci-dessus).

Le New York Times note que les premières réglementations du gouvernement fédéral sur les systèmes d'IA comprendront des exigences selon lesquelles les produits d'IA les plus avancés seront testés pour s'assurer qu'ils ne peuvent pas être utilisés pour produire des armes biologiques ou nucléaires, et que les résultats de ces tests seront communiqués au gouvernement fédéral. 

Le décret ne concerne que les entreprises américaines, mais comme le développement de logiciels se fait dans le monde entier, les États-Unis seront confrontés à des problèmes diplomatiques pour faire appliquer les réglementations, raison pour laquelle l'administration tente d'encourager les alliés et les adversaires à élaborer des règles similaires.

L'action exécutive s'appuiera sur des années d'efforts de la Maison Blanche pour établir des normes en matière d'IA. La Maison-Blanche de Trump a publié un décret visant à promouvoir le leadership américain en matière d'IA en 2019. En octobre 2022, l'administration Biden a publié sa Charte des droits de l'IA non contraignante, décrivant les positions générales de l'administration sur la gouvernance des systèmes automatisés, en mettant l'accent sur la protection des droits civils.

Altoo : Votre porte d'entrée vers un patrimoine sécurisé et rationalisé. Découvrez la Plateforme Altoo Wealth

Perspectives sur la gestion de patrimoine et plus encore.

Livré dans votre boîte de réception.
Icône du menu gauche