L’IA Grok, développée par xAI et intégrée au réseau social X, est au cœur d’une controverse croissante. Des analyses indépendantes et des enquêtes médiatiques révèlent que l’outil a été utilisé pour produire des images et vidéos sexuelles particulièrement explicites. Ces dérives soulèvent des questions techniques, réglementaires et éthiques majeures. Qu’est-ce qui se passe et quelles sont les mesures prises ?
Sommaire :
Des usages problématiques sur Grok mis en évidence par les analyses
Une revue menée par WIRED et d’autres médias spécialisés montre que Grok a généré, à plusieurs reprises, des contenus sexuels violents. Cela inclut des images truquées de femmes réelles et, plus grave encore, des représentations impliquant des mineurs. Selon plusieurs investigations, l’IA a répondu favorablement à des requêtes visant à déshabiller des femmes ou à créer des deepfakes sexuels sans consentement.
Ces dérives sont facilitées par Grok Imagine, le générateur d’images et de vidéos de xAI, qui inclut un mode payant dit « Spicy ». Ce dernier autorisant la création de contenus NSFW. Pourtant, les conditions d’utilisation interdisent explicitement la pornographie mettant en scène des personnes réelles ou des mineurs. Toutefois, les failles techniques et les garde-fous insuffisants semblent avoir permis leur production.
Cette controverse semble récurrente autour de la philosophie de Grok. Depuis son lancement, Grok se présente comme une IA politiquement neutre cherchant à maximiser la liberté d’expression. Dans les faits, cette approche s’est déjà traduite par plusieurs scandales. Notamment la diffusion de propos antisémites ou de contenus négationnistes, qui avaient conduit xAI à présenter des excuses publiques.
Si Elon Musk affirme désormais que toute utilisation illégale de Grok entraînera des sanctions équivalentes à la diffusion directe de contenus illicites, les experts estiment que la question centrale reste technique : la capacité réelle des systèmes de modération automatisée à bloquer ce type de requêtes.
VOIR AUSSI : Éthique de l’intelligence artificielle : jusqu’où peut-on aller ?
Réactions politiques et pression réglementaire internationale
Face à l’ampleur du phénomène, plusieurs autorités ont réagi. Des régulateurs en France, au Royaume-Uni, dans l’Union européenne, en Inde et en Malaisie, ont ouvert des enquêtes ou menacé d’actions judiciaires.
L’Ofcom britannique a demandé à X des explications urgentes sur les mesures de protection mises en place. La Commission européenne, quant à Ellen a rappelé l’obligation de conformité au Digital Services Act (DSA).
Le 8 janvier, l’UE est allée plus loin en imposant à X une « ordonnance de conservation ». Cela oblige l’entreprise à préserver l’ensemble des documents internes liés à Grok jusqu’à fin 2026. Cette mesure vise à garantir l’accès aux preuves techniques et organisationnelles dans le cadre de l’enquête en cours.
L’affaire Grok illustre les limites actuelles des dispositifs de sécurité des IA génératives lorsqu’elles sont intégrées à des plateformes grand public. Entre promesses de liberté d’expression et exigences légales strictes, xAI et X se retrouvent sous une pression réglementaire croissante. Les résultats des enquêtes européennes pourraient durablement influencer le développement et le déploiement de ce type d’outils.
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






