Agents IA : la lettre ouverte de quarante-quatre procureurs américains
« Un comportement humain jugé illégal, voire criminel, n’est pas excusable simplement parce qu’il est accompli par une intelligence artificielle. »
Le 25 août 2025, les procureurs généraux de quarante-quatre États et territoires étatsuniens ont adressé une lettre ouverte aux grandes entreprises d’intelligence artificielle – OpenAI, Google, Meta, Apple, Anthropic, Microsoft, xAI, Perplexity, Replika, Character.AI, Chai AI, Nomi AI et Luka – les interpellant sur leur part de responsabilité dans la protection des enfants face aux dangers des technologies d’IA générative.
Les quarante-quatre signataires dénoncent, en particulier, les révélations concernant Meta, accusé d’avoir approuvé des assistants d’IA capables de flirter et d’entretenir des relations inappropriées avec des enfants, parfois âgés de huit ans seulement. Ils jugent ces pratiques illégales. Meta n’est pas le seul groupe visé, Google est actuellement poursuivi en justice pour un chatbot qui aurait conduit un adolescent au suicide, tandis qu’un chatbot de Character.AI aurait suggéré à un jeune de tuer ses parents.
Selon ces procureurs, de tels accidents, qui ne sont pas des cas isolés, révèlent des problèmes structurels et systémiques dans la manière dont ces entreprises conçoivent et testent leurs services d’IA générative.
Ils rappellent que les technologies interactives ont un impact profond sur les cerveaux en développement et que les entreprises ont une obligation tant légale que morale de protéger les enfants. Il est indéfendable d’exposer des enfants à du contenu sexualisé, quelles qu’en soient les circonstances. « Ne pas faire de mal aux enfants. C’est une ligne directrice évidente qui vous indique sans ambiguïté comment agir », lancent-ils.
Les signataires enjoignent les dirigeants à agir avec prudence, empathie et responsabilité, à placer le bien-être des enfants avant leurs intérêts financiers et à assumer les conséquences de leurs décisions. Enfin, les procureurs préviennent que les autorités n’hésiteront pas à agir si les entreprises échouent à prévenir les abus, en tirant les leçons de leurs erreurs passées avec les réseaux sociaux.
Source :
– Formella John, et al., « AI Chatbots », National Association of Attorneys General, August 25, 2025.