minnesota-moves-ban-ai-apps-generate-fake-nude-images
Le Minnesota envisage d'interdire les applications d'IA générant de fausses images nues
Le projet de loi, qui interdit les outils d'IA générant de la nudité factice et permet aux victimes de poursuivre leurs créateurs, sera soumis au gouverneur Walz pour sa signature.
2026-05-01 Source:decrypt.co

En bref

  • Les législateurs du Minnesota ont adopté un projet de loi interdisant les outils d'IA qui génèrent de fausses images nues.
  • Les contrevenants encourent jusqu'à 500 000 $ par utilisation et des dommages potentiellement triplés.
  • La loi maintient les protections de la Section 230 et entrera en vigueur le 1er août si elle est promulguée.

Les législateurs du Minnesota ont adopté un projet de loi visant à mettre fin à une forme croissante d'abus de l'IA en ciblant les plateformes qui la permettent.

Jeudi, le Sénat du Minnesota a voté par 65 voix contre 0 pour adopter le projet de loi 1606 de la Chambre, l'envoyant au gouverneur Tim Walz pour sa signature. La mesure interdit aux sites web et aux applications de proposer des outils générant des images nues fausses et réalistes de personnes identifiables.

Selon le projet de loi, les entreprises qui contrôlent un site web, une application ou un service logiciel ne peuvent pas permettre aux utilisateurs d'accéder ou d'utiliser des outils pour créer ces images ou les générer au nom d'un utilisateur. La publicité ou la promotion de tels services est également interdite.

La mesure permet aux victimes de poursuivre les personnes ou les entreprises qui exploitent ou contrôlent des outils de nudification, tels que des sites web, des applications ou des logiciels qui génèrent de fausses images nues. Les personnes représentées dans des images nues générées par l'IA peuvent demander des dommages et intérêts, y compris pour détresse mentale, et les tribunaux peuvent accorder jusqu'à trois fois les dommages réels, ainsi que des dommages punitifs, des honoraires d'avocat et des ordonnances pour faire cesser la conduite.

Le projet de loi donne également au procureur général de l'État le pouvoir d'appliquer la loi, avec des sanctions civiles pouvant atteindre 500 000 $ par utilisation. Selon le projet de loi, ces pénalités sont versées au fonds général de l'État puis allouées aux services d'aide aux victimes, y compris le soutien aux survivants de l'agression sexuelle, de la violence domestique et de la maltraitance infantile.

Le projet de loi cible les outils qui nécessitent peu d'expertise technique et sont devenus largement accessibles, y compris aux mineurs. S'il est promulgué, la loi entrera en vigueur le 1er août et s'appliquera aux nouveaux cas à partir de cette date.

Bien que le nouveau projet de loi ne fasse pas référence à un développeur d'IA unique, cette nouvelle survient après une série d'incidents très médiatisés sur la plateforme sociale X, notamment en août 2025, lorsque l'outil xAI d'Elon Musk, Grok, a généré des deepfakes nus de Taylor Swift. La superstar de la pop a cherché à déposer sa voix et son image auprès du Bureau américain des brevets en avril, peut-être dans le but de prévenir de futures reproductions par l'IA.

Musk fait également face à une pression juridique croissante, y compris un recours collectif fédéral intenté par trois mineurs du Tennessee alléguant que Grok a généré du matériel pédopornographique à partir de leurs images. De plus, un procès en protection des consommateurs de la ville de Baltimore affirme que l'entreprise a sciemment déployé un système qui produit et diffuse du contenu sexualisé non consensuel, y compris impliquant des mineurs.

Robert Weissman, coprésident de Public Citizen, a déclaré que la prolifération de ces outils reflète la rapidité avec laquelle l'IA a abaissé la barrière à la création d'images intimes non consensuelles et étendu sa portée.

« Ces applications ciblent à 99 % les femmes, dont plus de 90 % ont moins de 18 ans. C'est un outil d'intimidation et de harcèlement des femmes avec des conséquences psychologiques vraiment graves », a déclaré Weissman à Decrypt. « Vous l'avez vu à travers le pays et le monde entier. Le besoin d'une intervention et d'une régulation gouvernementales est donc aigu. »

Weissman a ajouté que les lois au niveau des États peuvent jouer un rôle aux côtés des efforts fédéraux, en particulier en ce qui concerne l'application. Il a déclaré que les autorités locales pourraient être mieux placées pour agir rapidement dans les cas individuels, tandis que les agences fédérales pourraient ne pas les prioriser ou les poursuivre du tout.

La loi du Minnesota intervient également lors d'une lutte en cours entre l'administration du président Donald Trump et les États sur qui devrait contrôler la réglementation de l'IA. Le Take It Down Act, promulgué par le président Donald Trump en mai 2025, criminalise la distribution d'images intimes non consensuelles et offre aux victimes une voie pour demander des dommages et intérêts civils.

« Je pense qu'avoir des normes fédérales et étatiques complémentaires est positif, surtout en théorie. Nous parlons de différents systèmes et agences d'application », a déclaré Weissman. « Ainsi, vous pourriez avoir une norme fédérale, mais vous pourriez ne pas avoir la capacité fédérale d'entreprendre des actions d'exécution. »

Le bureau du gouverneur Walz n'a pas immédiatement répondu à la demande de commentaire de Decrypt.