Pourquoi le plan du Congrès sur l'IA était voué à l'échec dès le départ

Pourquoi le plan du Congrès sur l'IA était voué à l'échec dès le départ

Après près d'un an d'études, le leader de la majorité Chuck Schumer et un groupe bipartite de sénateurs a publié mercredi sa « feuille de route » pour réglementer l'intelligence artificielle – un rapport, selon le groupe de travail, conçu pour « stimuler l'élan » en faveur d'une législation sur l'IA qui « garantira que les États-Unis restent à la pointe de l'innovation dans ce domaine ». technologie. »

« Exploiter le potentiel de l'IA nécessite une approche impliquant tous les acteurs », a déclaré Schumer aux journalistes alors que les sénateurs publiaient leur étude. « Et c'est exactement ce que dirige notre groupe de travail bipartisan sur l'IA. »

Le rapport, de portée large mais souvent peu détaillé, appelle à 32 milliards de dollars de dépenses d’urgence – pour mettre en place des garde-fous autour de la technologie en développement rapide, mais aussi pour « éviter de créer un vide politique que la Chine et la Russie combleront ». L’objectif, disent les sénateurs, n’est pas d’établir un vaste programme réglementant la technologie, mais d’éclairer les projets de loi individuels traitant de l’IA dans ses liens avec la sécurité nationale, la perte d’emplois et, plus immédiatement, les risques qu’elle pose pour les prochaines élections. « Si nous ne faisons pas attention », a prévenu mercredi Schumer lors d'une réunion du Comité sénatorial du Règlement et de l'Administration de trois projets de loi électoraux sur l'IA, « l'IA a le potentiel de jaunir ou même de discréditer totalement nos systèmes électoraux. »

Mais les perspectives d’une telle législation restent floues, en particulier dans un Washington divisé. L'approche de Schumer, démocrate Martin Henriet les Républicains Todd Jeune et Mike rondes soulève également des questions sur la signification de toute réglementation issue du rapport. En effet, alors que les législateurs ont cherché à éviter de répéter les mêmes erreurs qu'ils ont commises dans leur gestion des médias sociaux, le cadre du groupe de travail fait écho à cet effort erroné. « Le Congrès n'a pas réussi à répondre aux attentes sur les réseaux sociaux », déclare un démocrate du Connecticut Richard Blumenthal a déclaré il y a un an, en tant que PDG d'OpenAI Sam Altman a témoigné devant la commission judiciaire du Sénat. « Maintenant, nous avons l'obligation de le faire sur l'IA avant que les menaces et les risques ne deviennent réels. »

La cohorte de Schumer n’ignore pas ces risques, mais elle ne propose pas non plus grand-chose en termes de réglementation pour les atténuer – se rabattant plutôt sur un langage passe-partout sur « l’engagement des législateurs à exploiter tout le potentiel de l’IA tout en minimisant les risques ». les risques de l’IA à court et à long terme. Si de telles platitudes ressemblent à ce que vous pourriez entendre de la part d'Altman et d'autres évangélistes de l'IA, cela a du sens : tout comme l'approche des législateurs à l'égard des médias sociaux a été guidée par Mark Zuckerberg et d’autres ayant intérêt à étouffer une réglementation plus importante, les partisans de l’IA et le lobby technologique semblent exercer une influence significative sur le rapport et soutiennent le produit fini.

«Cette feuille de route mène à une impasse» Evan Greerdirecteur du groupe de défense Fight for the Future, a déclaré au Washington Post, ajoutant qu’il s’agissait d’un rapport « pathétique ». « Ils ont entendu des experts parler de l'urgence de s'attaquer aux méfaits de l'IA et ont ensuite fait semblant de le faire tout en donnant à l'industrie l'essentiel de ce qu'elle veut : de l'argent et des propositions réglementaires « légères ». »

Il est vrai, comme l'a dit Schumer, qu'il n'est pas facile d'élaborer des réglementations substantielles pour une technologie en évolution comme celle-ci : « Nous n'avons jamais eu affaire à quelque chose de pareil auparavant », a-t-il déclaré aux journalistes mardi. Mais ce n'est pas parce que c'est difficile que c'est impossible : l'année dernière, l'Union européenne a adopté la loi sur l'IA, un ensemble de règles destinées à faire face aux risques les plus importants posés par la technologie, notamment la propagation de la désinformation et la menace d'automatisation. . Il y a bien sûr des questions quant à l’efficacité de ce plan. Mais il s’agit d’une mesure réglementaire plus stricte que toutes celles qui ont été prises aux États-Unis, où l’industrie technologique elle-même semble toujours aux commandes. La feuille de route de l'IA n'est « qu'une autre preuve du pouvoir profond et omniprésent des Big Tech pour façonner le processus d'élaboration des politiques », comme l'a déclaré le cofondateur et directeur exécutif d'Accountable Tech. Nicole Gil mettez-le mercredi. « Les législateurs doivent agir rapidement pour promulguer une législation sur l’IA qui centre l’intérêt public et s’attaque aux dommages que l’IA cause actuellement dans les communautés de tout le pays. »