Meta bloque l’accès des adolescents à ses AI companions sur Instagram, Facebook et WhatsApp. Le contexte de cette décision ? La pression politique croissante autour des interactions entre mineurs et intelligence artificielle. En effet, cette suspension temporaire vise à limiter les risques liés aux échanges émotionnels ou inappropriés avec des personnages IA. La préparation d’une refonte intégrant des contrôles parentaux renforcés et une sécurité plus stricte sont également à l’ordre du jour.
Sommaire :
AI companions de Meta : une suspension mondiale partielle motivée par les risques pour les mineurs
Meta a annoncé que les adolescents ne pourront plus interagir avec ses personnages IA « dans les prochaines semaines ». Le temps de revoir l’expérience utilisateur. La restriction s’appliquera non seulement aux comptes déclarés comme mineurs, mais aussi à ceux identifiés comme potentiellement adolescents. Ceci est possible via les outils de prédiction d’âge basés sur l’IA. Une approche visant à limiter les contournements liés à de fausses déclarations de date de naissance.
La décision intervient après plusieurs controverses, notamment des signalements de conversations à connotation sexuelle ou émotionnellement sensibles impliquant des mineurs. Meta reconnaît que certaines formulations et les comportements de ses modèles pouvaient être interprétés comme encourageant une relation affective artificielle. L’entreprise affirme avoir lancé un nouveau cycle d’entraînement afin d’exclure des thématiques sensibles, à savoir :
- L’automutilation ;
- Le suicide ;
- Les troubles alimentaires ;
- Etc.
Toutefois, les adolescents conserveront l’accès à l’assistant Meta AI généraliste, avec des protections par défaut adaptées à leur âge. Les AI companions, conçus pour des interactions plus personnalisées et narratives, resteront indisponibles jusqu’au déploiement de la nouvelle version.

VOIR AUSSI : Publicité sur ChatGPT : OpenAI change les règles du jeu
Contrôles parentaux, vérification d’âge et pression réglementaire
La refonte annoncée inclura les éléments suivants :
- Des contrôles parentaux dédiés aux chatbots ;
- Un filtrage conversationnel renforcé ;
- Une vérification d’âge non déclarative.
Meta s’appuie sur des signaux comportementaux et contextuels pour estimer l’âge réel des utilisateurs. Une méthode comparable à celle récemment introduite par OpenAI dans ChatGPT. Character.ai avait déjà adopté une stratégie similaire en novembre, en bloquant les conversations ouvertes pour les mineurs.
Cette évolution s’inscrit dans un climat réglementaire tendu aux États-Unis. Le projet de loi bipartisan GUARD Act propose d’interdire les compagnons IA pour mineurs. Il prône également l’imposition des obligations de transparence, notamment l’identification explicite des chatbots comme entités non humaines. Parallèlement, la FTC et le procureur général du Texas ont ouvert des enquêtes sur les risques des produits IA pour les enfants.
L’équilibre entre sécurité, responsabilité et attractivité des produits IA grand public constitue désormais un enjeu technique et stratégique majeur.
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






