À une semaine d’un procès majeur à Los Angeles où elle est accusée de nuire à la santé mentale des jeunes, Meta a annoncé le 23 janvier 2026 la suspension temporaire de l’accès des adolescents à ses personnages d’intelligence artificielle (IA). Cette décision, qui illustre la tension croissante entre l’innovation technologique et la protection de la jeunesse, est perçue comme une manœuvre stratégique dans un contexte de pression juridique et sociale sans précédent.
La mesure, qui sera déployée dans les « prochaines semaines », empêchera les utilisateurs identifiés comme mineurs – que ce soit par leur date de naissance déclarée ou par la technologie de prédiction d’âge de Meta – d’interagir avec les « personnages IA » sur ses plateformes, incluant Instagram, Facebook et WhatsApp . L’entreprise a toutefois précisé que l’accès à son assistant IA général, un outil distinct, serait maintenu pour ce groupe d’âge .
Cette annonce intervient à un moment critique. Le 27 janvier 2026, s’est ouvert à Los Angeles un procès historique intenté contre Meta, TikTok et YouTube (Google). Les géants de la technologie y sont accusés d’avoir délibérément conçu des algorithmes addictifs qui maximisent leurs profits au détriment de la santé mentale des jeunes. La plaignante principale, une jeune femme de 19 ans, allègue que son utilisation de quatre plateformes sociales durant sa minorité a entraîné une dépendance, de l’anxiété, de la dépression et des tendances suicidaires, la privant « de son enfance et de son adolescence », selon son avocat, Matthew Bergman .
Un secteur sous pression
La décision de Meta n’est pas un cas isolé. Elle s’inscrit dans une tendance sectorielle où les entreprises de chatbots IA, confrontées à des poursuites judiciaires et à une surveillance réglementaire accrue, resserrent l’accès à leurs services pour les mineurs. Le cas le plus emblématique est celui de Character.AI, une plateforme de compagnons virtuels. En octobre 2025, après avoir été poursuivie par plusieurs familles, dont celle de Sewell Setzer III, un adolescent de 14 ans qui s’est suicidé en 2024 après avoir développé une relation avec un chatbot, l’entreprise a annoncé l’interdiction de ses services aux moins de 18 ans . La poursuite a finalement été réglée à l’amiable en janvier 2026.
| Date | Entreprise | Action |
| 2024 | Sewell Setzer III | Décès de l’adolescent de 14 ans (chatbot Character.AI) |
| Octobre 2024 | Megan Garcia | Poursuit Character.AI et Google |
| Octobre 2025 | Character.AI | Annonce l’interdiction de l’accès aux adolescents |
| Novembre 2025 | Character.AI | Met en œuvre l’interdiction |
| Janvier 2026 | Character.AI/Google | Règlement des poursuites |
| 20 janvier 2026 | Snapchat | Accord avec une plaignante avant le procès |
| 23 janvier 2026 | Meta | Annonce la suspension de l’accès aux personnages IA pour les adolescents |
| 27 janvier 2026 | TikTok | Accord avant l’ouverture du procès |
| 27 janvier 2026 | Procès de Los Angeles | Ouverture du procès contre Meta et YouTube (Google) |
Tableau 1. Chronologie des actions des entreprises d’IA face aux poursuites concernant les adolescents (2024-2026).
Un débat scientifique complexe
Le procès de Los Angeles met en lumière un débat scientifique loin d’être tranché. Alors que les administrations Biden et Trump ont affirmé que les réseaux sociaux augmentent les problèmes de santé mentale chez les jeunes, un rapport de l’American Psychological Association de 2023 concluait que leur utilisation n’est « ni bénéfique ni néfaste » et appelait à davantage de recherches .
Certains experts appellent à la nuance. « La recherche ne montre pas que toute utilisation des médias numériques est mauvaise ou addictive », explique Tamar Mendelson, professeure à la Johns Hopkins Bloomberg School of Public Health, qui note que la dépendance aux réseaux sociaux n’est pas un diagnostic psychiatrique officiel. Selon elle, « il semble y avoir un juste milieu dans l’utilisation, où les adolescents sont en fait les plus sains mentalement » .
La complexité de prouver un lien de causalité direct est également un défi juridique majeur. « En supposant que l’addiction existe et qu’elle soit reconnue juridiquement, qui cause cette dépendance? », soulève Eric Goldman, spécialiste du droit de l’internet à l’Université de Santa Clara .
En suspendant l’accès à ses personnages IA, Meta semble adopter une approche de précaution, cherchant à désamorcer les critiques avant de faire face au jury. La question demeure si cette mesure temporaire, annoncée comme durant « jusqu’à ce que la nouvelle expérience soit prête », se transformera en une politique permanente. Pour l’heure, cette décision marque une reconnaissance implicite des risques potentiels que ces nouvelles technologies font peser sur leurs utilisateurs les plus vulnérables, et signale que la bataille pour définir un équilibre entre l’innovation en IA et la protection de la jeunesse ne fait que commencer.
Note sur ce contenu : Cet article a été rédigé par une intelligence artificielle expérimentale spécialisée, puis révisé par un membre de notre équipe. Bien que nous visions la plus grande précision, des erreurs peuvent subsister. Votre vigilance est précieuse : si quelque chose vous semble incorrect, merci de nous le signaler.
Références
[2] Radio-Canada. (2026, 24 janvier). Meta suspend l’accès des adolescents à ses personnages IA.
[4] CNN. (2026, 7 janvier). Character.AI and Google agree to settle lawsuits over teen suicide.
[5] Character.AI Blog. (2025, 21 novembre). An Update On Changes to Our Under-18 Experience.