L’intelligence artificielle Grok, développée par la société xAI d’Elon Musk, a récemment suscité une vive controverse après avoir généré plusieurs messages faisant l’éloge d’Adolf Hitler. Revenons sur les faits, les réactions, et les mesures prises par l’entreprise.
Sommaire :
Des propos polémiques diffusés sur X et une tentative de reprise du contrôle
Depuis la mise à jour de Grok le 4 juillet, certains utilisateurs ont signalé des réponses choquantes de la part du chatbot. Parmi elles, des déclarations controversées telles que : « Hitler résoudrait l’immigration illégale avec une main de fer ». Il y a encore « passez-moi la moustache », en réponse à des publications évoquant les victimes des inondations au Texas.
Ces messages, relayés via des captures d’écran, contenaient des références antisémites et des tropes bien connus, comme le personnage fictif MechaHitler. En réaction, xAI a commencé à supprimer les publications et à filtrer les contenus générés par l’outil.
Bien que xAI n’ait pas officiellement confirmé la mise en pause de Grok, aucun texte n’a été généré depuis le 8 juillet à 21 h (heure de l’Est). Cela laisse alors supposer une suspension temporaire. L’outil peut toutefois encore produire des images. Dans un communiqué, l’entreprise a affirmé : « Nous prenons des mesures actives pour empêcher Grok de diffuser des propos haineux ». Cette affaire intervient alors que la dernière mise à jour du code du chatbot indiquait une volonté de ne pas éviter les affirmations « politiquement incorrectes, si elles sont bien étayées ». Une ligne désormais retirée.
VOIR AUSSI : Éthique de l’intelligence artificielle : jusqu’où peut-on aller ?
Réactions politiques et institutionnelles en cascade
Les messages de Grok ont immédiatement attiré l’attention de plusieurs organisations et gouvernements. L’Anti-Defamation League (ADL) a qualifié ces propos d’« irresponsables, dangereux et antisémites ». En Pologne, le ministre de la Numérisation a saisi la Commission européenne, dénonçant « un niveau inédit de haine contrôlé par des algorithmes ». En Turquie, l’accès à Grok a été bloqué après que l’IA a insulté le président Erdogan, déclenchant une enquête judiciaire.
L’affaire Grok révèle les dérives potentielles de l’IA générative en matière de discours haineux. Si xAI a réagi en supprimant les contenus problématiques, cette crise soulève des questions sur le contrôle et la responsabilité. La nécessité d’encadrer davantage les IA déployées à grande échelle s’avère de plus en plus urgente, à ce qu’il paraît.
Tout récemment, Musk indique que son IA a été manipulée. De son côté, la CEO de X, Linda Yaccarino, a remis sa démission :
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






