Bryan Cranston et le syndicat SAG-AFTRA ont interpellé OpenAI. La raison est la diffusion de deepfakes de l’acteur sur Sora 2, la plateforme vidéo d’IA générative. Des images le montraient, sans consentement, prenant un selfie avec Michael Jackson. Face au tollé à Hollywood, OpenAI a reconnu sa responsabilité et renforce ses dispositions. Comment cette affaire a-t-elle éclaté ? Quelles dispositions ont été prises ? Et surtout, quelles résolutions pour l’avenir ?
Sommaire :
OpenAI sous pression après l’affaire Bryan Cranston
Tout est parti de vidéos montrant l’acteur de Breaking Bad apparaissant aux côtés d’un faux Michael Jackson, générées sans son accord sur Sora 2. Rapidement, les syndicats d’acteurs et plusieurs agences artistiques, Creative Artists Agency (CAA), United Talent Agency (UTA) et l’Association of Talent Agents ont exigé des explications immédiates, dénonçant une absence de protection pour leurs clients. Elles ont également dénoncé une atteinte au droit à l’image.
Initialement, OpenAI proposait une politique d’exclusion (opt-out), obligeant les artistes à signaler qu’ils refusaient d’être reproduits. Sous la pression de SAG-AFTRA et de Bryan Cranston, l’entreprise a fait volte-face : elle adopte désormais un système d’adhésion explicite (opt-in). A partir de maintenant, toute simulation de voix ou d’image nécessitera un consentement explicite.
Par ailleurs, dans une déclaration commune, OpenAI a présenté ses excuses pour ces « générations involontaires ». Elle affirme avoir « renforcé ses garde-fous » afin d’empêcher toute simulation sans consentement préalable.
VOIR AUSSI : 5 manières simples de détecter les deepfake !
Vers une législation pour encadrer la simulation numérique
Bryan Cranston s’est dit « reconnaissant » envers OpenAI, mais a rappelé que le risque dépasse son seul cas. Le président de SAG-AFTRA, Sean Astin, a souligné que des milliers d’acteurs pourraient être concernés par la réplication technologique massive. Cette affaire ravive donc le débat autour du NO FAKES Act. Un projet de loi fédéral visant à interdire la création et la diffusion de contenus générés par IA sans autorisation.
OpenAI affirme soutenir ce texte. Son PDG Sam Altman déclare vouloir protéger les artistes contre la reproduction abusive de leur image et de leur voix. L’entreprise a également bloqué plusieurs vidéos jugées irrespectueuses, notamment celles représentant Martin Luther King Jr. Par ailleurs, elle a accepté les demandes de familles comme celles de Robin Williams et George Carlin pour interdire l’usage posthume de leur image.
En ce moment, la confiance reste encore fragile. Les artistes réclament désormais des garanties légales.
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






