SOS ou laSafe Online Standards, ce n’est pas un appel au secours, ou un peu tout de même. C’est le programme suivi par Meta, TikTok et Snap pour mesurer publiquement leurs efforts en matière de protection des adolescents. Cette initiative vise à instaurer un cadre standardisé d’analyse des pratiques des grandes plateformes sociales. Un évènement plus que bienvenu face aux risques liés à la santé mentale et aux contenus sensibles. Il est porté par la Mental Health Coalition (MHC). Que se passe-t-il dans les coulisses de vos réseaux sociaux préférés ? Réponses ici.
Sommaire :
Safe Online Standards SOS: un cadre structuré et volontaire
Le programme Safe Online Standards (SOS) repose sur environ deux douzaines de critères couvrant :
- La gouvernance ;
- Les politiques internes ;
- La transparence ;
- Les fonctionnalités produits ;
- La modération de contenu.
Les entreprises participantes soumettent volontairement leur documentation à un panel indépendant d’experts internationaux. Outre Meta, TikTok et Snap, Roblox Discord et YouTube sont aussi de la partie.
L’initiative est dirigée par le Dr Dan Reidenberg, Managing Director du National Council for Suicide Prevention. L’objectif est d’évaluer la manière dont les plateformes conçoivent leurs produits pour les 13–19 ans. Aussi, comment ils limitent l’exposition aux contenus liés au suicide ou à l’automutilation.
Trois niveaux de notation sont prévus :
- « Use carefully » (Utiliser avec précaution) : note la plus élevée, assortie d’un badge bleu. Elle implique des outils de signalement accessibles, des paramètres de confidentialité clairs et des filtres réduisant l’exposition aux contenus nuisibles ;
- « Partial protection » : dispositifs existants mais peu intuitifs ou difficiles d’accès ;
- « Does not meet standards » : modération et filtres jugés insuffisants.
Si la notation la plus haute reste relativement accessible dans ses exigences, elle formalise néanmoins des critères mesurables et comparables entre acteurs.

VOIR AUSSI : Meta AI anime désormais les photos de profil sur Facebook
Meta et la Mental Health Coalition : partenariat et controverses
La Mental Health Coalition collabore avec Meta depuis 2020. En 2021, l’organisation travaillait déjà avec Facebook et Instagram pour promouvoir des ressources liées à la santé mentale pendant la pandémie. En 2022, une étude soutenue par Meta soulignait que certains contenus sur les réseaux sociaux pouvaient réduire la stigmatisation. Ils encourageaient également la recherche d’aide.
En 2024, la campagne Time Well Spent Challenge, menée en partenariat avec Meta, encourageait les parents à privilégier un usage « qualitatif ». Inversement à une interdiction stricte des réseaux sociaux. La même année, le programme Thrive facilitait le partage de données entre entreprises sur les contenus violant les règles liées à l’automutilation.
Cependant, Meta fait face à des critiques persistantes. Des accusations évoquent l’enfouissement de données internes issues du projet « Project Mercury ». L’entreprise est actuellement engagée dans des procédures judiciaires en Californie concernant l’impact de ses plateformes sur les mineurs.
Alors oui. SOS introduit davantage de transparence et un cadre d’évaluation externe. Néanmoins, son caractère volontaire et des critères jugés parfois basiques interrogent sur son efficacité réelle. Sa crédibilité dépendra de l’indépendance des évaluations et de l’application concrète des recommandations.
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






