Comment authentifier des humains et certifier des contenus à l’ère de l’intelligence artificielle ?
Quel système en ligne permettrait-il de vérifier qu’un utilisateur est bien un être humain, et pas un programme informatique ? Comment savoir qu’un contenu a été rédigé par un humain plutôt que par une intelligence artificielle ? Des solutions sont imaginées, voire explorées : imposer à tous un identifiant internet, passer par des technologies biométriques ou encore certifier des contenus numériques par des filigranes.
La capacité d’une IA à se faire passer pour un humain et à générer des contenus dont il est impossible de deviner s’ils sont l’œuvre d’un logiciel d’une personne pose d’innombrables défis, en termes de confiance en ligne, de sécurité, d’intégrité de l’information ou encore d’éducation. Les fausses informations, deepfakes, sous forme de textes, d’images et, de plus en plus, au format audio ou vidéo, participent d’une guerre de l’information, l’usage de l’IA amplifiant considérablement à la fois la qualité des contenus et la portée de leur diffusion. Les contre-mesures proposées – tels les systèmes de preuve d’humanité (proof-of-personhood systems) ou bien les outils de détection de contenu – sont confrontées à leurs propres limites, mais aussi à la rapidité avec laquelle les IA génératives évoluent, ou encore à des problématiques liées aux données personnelles.
Le défi de l’identification des personnes
Alors que « les bots, ces logiciels qui se font passer pour des humains, représentent entre 50 et 60 % du trafic sur internet », explique Christophe Lebrun, data scientist et adjoint scientifique à la Haute École de gestion de Genève, comment savoir si l’on parle à une personne ou à une machine ? En Chine, le ministère de la sécurité publique et de l’administration du cyberespace a une réponse toute trouvée : « Le gouvernement souhaite reprendre aux entreprises la responsabilité de la vérification d’identité et fournir aux citoyens un identifiant à utiliser sur l’ensemble d’internet [Internet ID System] a déclaré le ministère en 2024. […] pour protéger la vie privée et prévenir la fraude en ligne. » Pour Shen Kui, professeur de droit à l’université de Pékin, « les risques et préjudices potentiels d’une "identité internet" ou d’un "permis internet" unifié sont immenses […] car une identité numérique centralisée pourrait dissuader les gens d’utiliser internet, par crainte d’être surveillés ou contrôlés ».
Ailleurs dans le monde, d’autres systèmes dits « de preuve d’humanité », gérés non par un gouvernement mais par des organisations privées, émergent, notamment aux États-Unis. Ainsi, le système d’identification biométrique proposé par l’entreprise controversée Tools for Humanity, ironiquement cocréée par Sam Altman, le fondateur d’OpenAI, aurait pour objet de différencier les IA des humains.
L’entreprise est liée au projet Worldcoin dont l’objectif est, ni plus ni moins, de créer une identité numérique mondiale, pour chacun, grâce à la reconnaissance de l’iris de l’œil, capturée à l’aide d’un très grand appareil photographique de la forme d’une sphère argentée, baptisé Orb. Le projet, lancé en 2019, a suscité beaucoup d’interrogations et a parfois été interdit d’opérer sur le territoire, notamment dans certains pays en Europe, en Afrique ou encore en Amérique du Sud, car confier le scan de son iris, une donnée biométrique unique, à une entreprise privée n’est pas sans risque. Pour inciter les personnes à donner l’image de leur iris, Tools for Humanity offre quelques cryptoactifs, des Worldcoin, dont la valeur varie entre 0,6 à 12 dollars. Alors que l’entreprise peinait à proposer son service de scan d’iris aux États-Unis, le changement de présidence a rendu possible, en mai 2025, son lancement dans plusieurs grandes villes.
Pour Debra Farber, privacy engineering manager (responsable de l’ingénierie de la confidentialité) au Lumin Digital, citée par le Washington Post, « WorldID tente de résoudre une crise de l’authenticité humaine que le propre travail de Sam Altman chez OpenAI accélère, créant ainsi une boucle de rétroaction où les méfaits d’un système justifient la surveillance d’un autre ». D’autant plus que l’entreprise explique sur son site web vouloir « ouvrir la voie à un revenu minimal universel fondé sur l’intelligence artificielle ». Pour Frédéric Martin, ingénieur en cybersécurité et PDG de MyDID, start-up qui développe une solution d’identité décentralisée basée sur des standards internationaux (voir La rem n°69-70, p.100), « il est difficile de croire au réalisme de cette utopie malfaisante quand on connaît les revirements passés de l’entreprise OpenAI, qui devait initialement partager ses recherches de manière transparente, associative et non lucrative et qui a fini par devenir tout le contraire ».
Aujourd’hui, les procédures mises en œuvre par des établissements financiers afin d’authentifier leurs clients sont de plus en plus laborieuses ; elles nécessitent une pièce d’identité, une preuve de domicile et, bien souvent, une photo ou un selfie (autoportrait) en temps réel. Ces techniques dites de KYC, Know Your Customer, avant d’autoriser le client à ouvrir un compte ou à utiliser un service, font l’objet d’attaques de plus en plus sophistiquées. Des outils reposant sur l’IA, comme ProKYC, disponible pour 700 dollars ou OnlyFake pour 15 dollars, permettent de créer assez facilement de faux passeports ou de fausses vidéos. Est-ce l’une des raisons pour lesquelles, en mai 2025, Visa, l’un des plus grands réseaux de paiement électronique au monde, et Stripe, plateforme et solution de paiement en ligne, ont tous deux annoncé avoir signé un partenariat avec l’entreprise de Sam Altman, Tools for Humanity ?
Même si leurs enjeux sont étroitement liés, prouver être une personne réelle ou vérifier que l’on communique bien avec une personne reste bien moins complexe que de s’assurer qu’un contenu a été produit par un humain et non par une intelligence artificielle.
Le défi de la certification de contenu
Le test qui porte son nom, proposé en 1950 par le mathématicien britannique Alan Turing dans un article intitulé « Computing Machinery and Intelligence », consiste à mesurer la capacité d’une machine à imiter le comportement humain et à convaincre son interlocuteur qu’il converse avec une personne réelle. Or, soixante-quinze ans plus tard, « il est devenu impossible de distinguer à l’œil ou à l’oreille les contenus générés par certaines Intelligences Artificielles », prévient Erwan Le Merrer, chercheur au sein de l’équipe Artishau (ARTificial Intelligence, Security, trutHfulness and Audit) de l’Inria, à Rennes.
Les médias n’ont toutefois pas attendu ChatGPT pour utiliser des logiciels capables de créer des contenus dont le lecteur ne peut pas deviner s’il provient d’un humain ou d’une machine (voir La rem n°17, p.54). Depuis 2014, les premières expérimentations de « robots journalistes » ont largement eu le temps de se répandre auprès des professionnels de l’information. Ce qui change, c’est que ces outils sont dorénavant accessibles à tous, particuliers, entreprises, bien ou mal intentionnés. Cette évolution soulève des enjeux éthiques et politiques majeurs, ainsi que des défis techniques complexes : des outils développés grâce à des IA génératives, accessibles gratuitement en ligne, avec un simple abonnement ou en open source (voir infra), imitent des voix, des visages ou des styles d’écriture trompeurs, rédigent de faux mails, passent de faux appels, créent de faux profils, génèrent de faux messages sur les réseaux sociaux, font de faux sites web, etc.
On ne compte plus les ingérences dans le débat public lors de périodes électorales, comme aux États-Unis en 2016, en septembre 2023 en Slovaquie (voir La rem n°69-70, p.15), en Moldavie à la même période, en Roumanie en novembre 2024, mais aussi en France ou encore en Allemagne, et dont la Russie est l’un des principaux instigateurs. Certes, la tenue d’élections est, depuis longtemps, propice à la diffusion de fausses informations et autres tentatives d’ingérences dans le débat public. Toutefois, l’automatisation facilitée par l’IA permet non seulement de créer un contenu de bien meilleure qualité mais également de le diffuser massivement, à travers des sites web eux aussi créés de toutes pièces par des IA.
Pour ne donner qu’un seul exemple, John Mark Dougan, ancien shérif adjoint américain, installé à Moscou depuis 2016, a créé plus de 102 faux sites d’information en langue allemande afin de relayer des fausses informations et amplifier des narratifs pro-Kremlin pendant les élections outre-Rhin de février 2025. Des vidéos truquées à l’aide d’IA ont été diffusées pour discréditer des candidats, des robots alimentés par IA diffusent des milliers de messages et de commentaires sur des pages de réseaux sociaux, parmi lesquels Facebook, Twitter ou encore TikTok, afin d’influencer les plus crédules ou au moins de semer le doute. Gérald Holubowicz, spécialiste de l’IA et enseignant à Sciences Po, affirmait, en avril 2025, devant la commission d’enquête du Sénat sur les politiques publiques face aux opérations d’influence étrangère, que l’on allait « assister à une forme d’étranglement des médias. Nous allons devoir exister dans un océan de contenus IA fabriqués pour désinformer ». Quant à Latanya Sweeney, titulaire de la chaire Daniel-Paul sur la pratique du gouvernement et de la technologie à la Harvard Kennedy School et à la faculté des arts et des sciences de Harvard, elle estime qu’à l’avenir « 90 % du contenu ne sera plus généré par des humains mais par des robots ».
DeepMind, le département IA de Google, a bien lancé SynthID, un outil open source conçu pour « marquer » l’usage d’une IA dans un texte, une image ou une vidéo. L’outil textuel SynthID-text « introduit des informations supplémentaires au moment de la génération du texte en modulant la probabilité que certains morceaux de phrase soient présents, sans compromettre la qualité du texte », mentionne Pushmeet Kohli, responsable de la recherche chez DeepMind. Il s’avère néanmoins que pour « enlever » ce filigrane, il suffit de générer à nouveau le texte avec une autre intelligence artificielle.
L’incapacité à distinguer les contenus générés par une IA inquiète également les entreprises à l’origine de ces grands modèles de langage, qui se livrent une guerre sans merci dans le but de réunir de gigantesques corpus de données et de textes, notamment publiés sur le web, afin précisément d’entraîner ces modèles (voir La rem n°69-70, p.52). Or, il s’opère un cercle vicieux entre les contenus de qualité et les contenus synthétiques générés par des IA. D’autant plus qu’avec « l’accès au web en temps réel, les chatbots sont de plus en plus sujets à citer des sources non fiables – dont plusieurs ont des noms qui semblent dignes de confiance –, ce qui amplifie les faussetés qui circulent en temps réel », précise Newsguard, l’entreprise américaine spécialisée dans l’évaluation et la fiabilité des sites d’information, dans un rapport publié en mars 2025 (voir La rem n°68, p.99). L’entreprise estime qu’en février 2025 quelque 1 250 sites web d’informations non fiables générés par l’IA sévissent dans le monde. Appelés UAINS, pour Unreliable AI-generated News Sites, ils sont publiés en seize langues – allemand, anglais, arabe, chinois, coréen, espagnol, français, indonésien, italien, néerlandais, portugais, russe, tagalog, tchèque, thaï, turc.
Ironiquement, ces sites web incorporent même des publicités programmatiques – des espaces publicitaires en ligne vendus en temps réel à l’aide d’algorithmes, en intégrant la technologie fournie par les plus grandes plateformes publicitaires comme Google Ads / Display & Video 360 - DV360, The Trade Desk ou encore Xandr, racheté par Microsoft, et dont les clients sont les grands annonceurs mondiaux, qui financent donc involontairement ces faux sites web diffusant massivement des fake news. NewsGuard a ainsi identifié un réseau de désinformation russe, Pravda, qui veut dire « vérité » en russe, à l’origine de 3,6 millions d’articles de fausses informations en 2024, et qui sont « désormais intégrés dans les résultats des systèmes d’IA occidentaux, polluant leurs réponses avec de fausses affirmations et de la propagande ».
L’inquiétude est réelle, et partagée par beaucoup. « Si nous ne faisons rien, les activités malveillantes permises par l’IA risquent de définitivement polluer le web », avertissaient trente-deux chercheurs, notamment d’OpenAI, de Microsoft, de Harvard, de Berkeley et du MIT, dans un article scientifique paru en août 2024, intitulé « Identifiants de personnalité [Personhood Credentials] : l’intelligence artificielle et la valeur des outils de protection de la vie privée pour distinguer les individus réels en ligne ».
Dans quelle mesure est-il encore possible de garantir l’authenticité et la fiabilité de l’information dans un environnement numérique où s’estompent les frontières entre l’humain et la machine, ainsi qu’entre les contenus rédigés par des personnes et ceux synthétiques, générés par des IA, tout en assurant le respect de la vie privée de tout un chacun ? Personne n’a encore de réponse.
Sources :
- Newsguard, newsguardtech.com/fr/reports
- David Romain, « Intelligence artificielle et fake news, un cocktail qui fait trembler nos démocraties », publicsenat.fr, 10 avril 2024.
- Tobin Meaghan, Liu John, « National ID for online is proposed by China », New York Times, New York edition, nytimes.com, July 31, 2024.
- Young Martin, « AI deepfake tool on "new level" at bypassing crypto exchange KYC: Report », cointelegraph.com, October 11, 2024.
- « AI misinformation monitor of leading AI chatbots », newsguardtech.com, January 13, 2025.
- Adler Steven, Hitzig Zoë, Jain Shray, Brewer Catherine, et al., « Personhood credentials: Artificial intelligence and the value of privacy-preserving tools to distinguish who is real online », arXiv.org, January 17, 2025.
- Lapointe Pascal, « Les IA génératives toujours aussi mauvaises pour détecter la désinformation », sciencepresse.qc.ca, 9 avril 2025.
- Bonos Lisa, « Visit this store for a free iris scan to "prove" you’re human, not AI », washingtonpost.com, May 2, 2025.
- Defer Aurélien, « Worldcoin, le projet crypto de Sam Altman, débarque aux États-Unis », usine-digitale.fr, 5 mai 2025.
- Armanet Enguerrand, « «Inutile, inefficace et dangereux»… Qu’est-ce que "Worldcoin", le projet de cryptomonnaie controversé du fondateur d’OpenAI ? », lefigaro.fr, 8 mai 2025.