État de Californie : les négociations du Transparency in Frontier Artificial Intelligence Act
Adopté le 29 septembre 2025, le Transparency in Frontier Artificial Intelligence Act fait de la Californie l’un des États américains les plus avancés dans la régulation de l’intelligence artificielle.
L’industrie de la Tech rapporte des milliards de dollars au budget de l’État de Californie. Cet État abrite trente-deux des cinquante plus grandes entreprises d’IA au monde, dont trois parmi les quatre dépassent 3 000 milliards de dollars de valorisation : Google, Apple et Nvidia. En 2025, plus de la moitié des investissements mondiaux en capital-risque destinés aux start-up spécialisées en IA et en apprentissage automatique ont été attribués à des entreprises situées dans la région de San Francisco. Toute régulation dans le secteur de l’IA a donc un impact fort et direct sur l’économie de cet État. En outre, l’entrée en vigueur d’une nouvelle législation sur l’IA en Californie pourrait ouvrir la voie à l’adoption de lois similaires dans d’autres États américains. Même si, pour certains, dont le cofondateur d’Anthropic, Jack Clark, un cadre législatif fédéral serait préférable à une loi d’envergure régionale.
Voté en septembre 2025, le Transparency in Frontier Artificial Intelligence Act, ou SB 53, est le résultat de plusieurs mois de négociations avec les grandes entreprises du secteur, au premier rang desquelles Google, Meta, OpenAI et Amazon. Un an auparavant, en septembre 2024, le sénateur de l’État de Californie, Scott Wiener, avait présenté un premier projet de loi sur l’IA nettement plus ambitieux. Celui-ci fut bloqué par le veto de Gavin Newsom, gouverneur de Californie, ami personnel de nombreux entrepreneurs de la Silicon Valley et candidat potentiel aux élections présidentielles de 2028. Après avoir rejeté la proposition législative de septembre 2024, le gouverneur Newsom en adoptera finalement une version amoindrie en septembre 2025, afin de répondre aux critiques qui se font de plus en plus fréquentes sur le manque d’encadrement de l’IA et, plus particulièrement, aux accusations relayées par les médias concernant les effets néfastes de certaines applications sur les adolescents.
Ménageant les oppositions, Gavin Newsom parvient à établir un cadre réglementaire sur l’IA, sans risquer de se mettre à dos les grandes entreprises de la Tech. La mise en place d’un panel d’experts chargés de formuler des recommandations sur la sécurité de l’intelligence artificielle lui a servi à convaincre le sénateur Scott Wiener d’adopter des positions sur la régulation de l’IA plus modérées que celles qu’il avait avancées en 2024. Potentiel candidat à la Chambre des représentants aux élections de mi-mandat en 2026, le sénateur avait également intérêt à ne pas retarder indéfiniment cette législation. Son ambition d’occuper éventuellement le siège de Nancy Pelosi, si celle-ci prenait sa retraite, l’a poussé à faire des concessions aux magnats de la Tech afin de faire passer la loi.
Les entrepreneurs de l’intelligence artificielle, quant à eux, avaient également tout intérêt à ce qu’une loi vienne encadrer leur activité, en raison de l’attention croissante portée à leurs chatbots et à leur influence sur le jeune public. Néanmoins, ces entreprises du numérique et de l’IA ne formant pas un bloc uni, chacune défendait ses propres intérêts, négociant jusqu’à la dernière minute avec le sénateur de l’État. Le précédent projet de loi, présenté par celui-ci en septembre 2024, était en effet bien plus ambitieux : il prévoyait notamment des tests de sécurité obligatoires pour certains modèles d’IA avant leur mise sur le marché, ainsi que des dispositions sur la responsabilité en cas de dommages causés par ces systèmes, allant même jusqu’à prévoir un interrupteur d’urgence (kill switch) pour arrêter net la technologie en cas de problème. Des mesures jugées inacceptables par les magnats de l’IA, qui ont alors accusé le sénateur démocrate de vouloir tuer l’industrie. Après le veto bienvenu du gouverneur Gavin Newsom, seules les parties les moins controversées du texte ont été conservées : la protection des lanceurs d’alerte dans le secteur de l’IA et la création de CalCompute, un cluster public de calcul dédié à l’innovation dans le domaine de l’IA. C’est à partir de ces deux éléments qu’a été construit le nouveau projet de loi.
La suite a été dictée par le rapport remis par le panel d’experts sollicités par le gouverneur Newsom. Les auteurs, Fei-Fei Li (Stanford), Jennifer Chayes (UC Berkeley) et Mariano Florentino Cuéllar (Carnegie Endowment for International Peace), en mettant surtout l’accent sur la transparence des systèmes d’IA, se sont alignés globalement sur la version révisée du texte du sénateur Scott Wiener. Une lettre a ensuite été transmise à toutes les grandes entreprises de la Tech et de l’IA, invitées à organiser des rencontres afin de finaliser les détails de la loi. Google, Meta et Amazon ont formé un bloc uni, tandis que le fonds de capital-risque Andreessen Horowitz représentait les petites entreprises du secteur – un point important, puisque le PDG de ce fonds est un des soutiens du président Donald Trump. Quant à OpenAI et Anthropic, ils ont agi de manière autonome, défendant leurs propres intérêts. Parmi les sujets de désaccord transcrits dans de nombreux amendements, il avait été convenu que la loi s’appliquerait aux entreprises générant plus de 100 millions de dollars de chiffre d’affaires. Les géants de la Tech ont tenté de faire abaisser ce seuil, tandis que les plus petites entreprises plaidaient pour le relever. Un compromis a finalement été trouvé : la loi ne concernerait que les entreprises dont les revenus dépassent 500 millions de dollars.
Au fil des mois, la politique nationale est venue compliquer les choses. Le sénateur Ted Cruz a tenté, sans succès, d’introduire une loi fédérale, nommée S. 2750 - Sandbox Act, le 10 septembre 2025, laquelle aurait gelé toute future réglementation sur l’IA au niveau des États et au niveau fédéral pour les dix prochaines années – une initiative soutenue par de nombreux dirigeants du secteur de l’IA. Autre tentative : le 26 août 2025, Meta et le fonds d’investissement Andreessen Horowitz ont promis 200 millions de dollars à deux super PAC (Political Action Committee) visant à soutenir l’élection de responsables politiques favorables à l’intelligence artificielle – une super PAC étant un comité d’action politique apte à recevoir et à dépenser des sommes illimitées pour soutenir ou s’opposer à des candidats dans des élections locales ou fédérales, à condition de ne pas coordonner directement ses actions avec ces derniers. Meta s’est engagé à verser des dizaines de millions de dollars à sa super PAC intitulée Meta California. Une seconde super PAC, Leading the Future, est financée à hauteur de 50 millions de dollars par Andreessen Horowitz et de 50 millions supplémentaires par Greg Brockman, cofondateur d’OpenAI.
En 2025, selon la National Conference of State Legislatures, trente-huit États américains ont adopté ou promulgué près d’une centaine de réglementations applicables à l’IA. Face à cette multiplication des lois locales, Meta, OpenAI, Google et Andreessen Horowitz ont mis en garde contre le poids réglementaire excessif que ces initiatives feraient peser sur le secteur, plaidant alors pour une législation fédérale unique, qui empêcherait les États d’adopter trop de règles risquant de freiner l’innovation.
Les principaux points de la SB 53
Transparence : les développeurs des principales entreprises d’IA doivent publier leurs procédures garantissant le respect des normes nationales ou internationales, ainsi que des bonnes pratiques reconnues par l’industrie.
Innovation : au sein de l’Agence des opérations gouvernementales, un nouveau cluster, appelé CalCompute, servira à promouvoir le développement et le déploiement d’une intelligence artificielle sûre, éthique, équitable et durable. Il sera encadré par un consortium de quatorze membres, parmi lesquels des représentants de l’université de Californie et d’autres institutions publiques, des représentants syndicaux, des groupes d’intérêt ou d’experts en technologies IA. Cette infrastructure de haute performance sera accessible à la communauté scientifique, universitaire ou industrielle, dans le but de soutenir la recherche et l’innovation dans le domaine de l’intelligence artificielle.
Sécurité : les entreprises de pointe dans l’IA, tout comme les usagers, peuvent signaler d’éventuels incidents critiques liés à la sécurité auprès du Bureau des services d’urgence de Californie.
Responsabilité : la protection des lanceurs d’alerte qui révèlent des risques importants pour la santé et la sécurité posés par les modèles d’IA de pointe doit être assurée. En complément, une sanction civile est prévue en cas de non-conformité, appliquée par le Bureau du procureur général.
Réactivité : le département californien des technologies recommande, chaque année, des mises à jour appropriées de la loi, en se fondant sur la contribution des multiples parties prenantes, sur les avancées technologiques et sur les normes internationales.
Sources :
- California Legislature, « Bill Text: CA SB53 | 2025-2026 | Regular Session | Amended »,
LegiScan, January 7, 2025. - Schleifer Theodore and Tan Eli, « Silicon Valley’s AI super PACs push influence in tech regulation », The New York Times, August 26, 2025.
- Cruz Ted, « S.2750 - SANDBOX Act », Congress.Gov, September 10, 2025.
- Newsom Gavin, « Governor Newsom signs SB 53, advancing California’s world-leading artificial intelligence industry », Governor Gavin Newsom, September 29, 2025.
- California Legislature, « Bill Text SB-53 Artificial Intelligence Models : Large Developers (2025-2026) », California Legislature Information, September 29, 2025.
- Kang Cecilia, « California enacts pioneering AI safety law », The New York Times, September 29, 2025.
- Le Monde avec AFP, « IA : la Californie va encadrer les entreprises de la Silicon Valley en leur imposant des obligations de transparence », lemonde.fr, 30 septembre 2025.
- DiFeliciantonio Chase, « California’s AI rules stir debate in Sacramento », Politico, October 4, 2025.