Que recherchez-vous ?

Recherches populaires

Retour aux articlesIA conversationnelle et adolescents : les risques pour la santé mentale et vos droits RGPD

IA conversationnelle et adolescents : les risques pour la santé mentale et vos droits RGPD

ChatGPT, Character.AI : 72% des ados utilisent des chatbots. Risques de dépendance, suicides, données personnelles. Ce que dit le RGPD et l'AI Act pour protéger les mineurs.

31 mars 2026

📌 En bref : IA conversationnelle et protection des mineurs

  • 93% des 18-25 ans ont utilisé une IA en 2025, et 72% des ados américains ont testé des chatbots « compagnons »
  • Plusieurs procès en cours aux États-Unis après des suicides d'adolescents liés à Character.AI et ChatGPT
  • Le 12 février 2026, 130 jeunes européens ont débattu au Parlement européen sur les risques des IA conversationnelles
  • OpenAI déploie la prédiction d'âge depuis janvier 2026 pour protéger les mineurs automatiquement
  • L'AI Act impose dès août 2026 des obligations renforcées pour les IA interagissant avec des enfants
  • Le RGPD protège les mineurs : consentement parental obligatoire sous 15 ans, droit à l'effacement renforcé
  • Parents et professionnels doivent être informés des risques et des recours disponibles

IA conversationnelle et adolescents : les risques pour la santé mentale et vos droits RGPD

Votre adolescent passe des heures à discuter avec ChatGPT ou Character.AI ? Il n'est pas seul. Selon une étude Common Sense Media de juillet 2025, 72% des adolescents américains ont déjà expérimenté des chatbots « compagnons », et plus de la moitié les utilisent régulièrement.

Mais derrière ces conversations apparemment anodines se cachent des risques sérieux. En 2024-2025, plusieurs adolescents se sont suicidés après avoir développé des relations émotionnelles intenses avec des chatbots. Les familles ont porté plainte, et les tribunaux américains commencent à reconnaître la responsabilité potentielle des développeurs d'IA.

En Europe, les autorités réagissent. Le 12 février 2026, la CNIL et le Groupe VYV ont organisé un débat inédit au Parlement européen : 130 jeunes Européens ont été invités à s'exprimer sur l'impact des IA conversationnelles sur leur santé mentale. Un signal fort qui annonce un renforcement de la régulation.

Dans cet article, nous faisons le point sur les risques réels, le cadre juridique applicable (RGPD, AI Act) et les mesures que vous pouvez prendre pour protéger vos enfants — ou vos données si vous êtes vous-même utilisateur de ces services.

Des chiffres qui donnent le vertige

L'adoption des IA conversationnelles par les jeunes est fulgurante. En France, 18,3 millions de personnes utilisent ChatGPT selon Sortlist (2026), soit 44% de la population active. Mais c'est chez les jeunes que l'usage est le plus intense.

Les adolescents, utilisateurs majoritaires

L'étude Born AI 2025 de l'agence Heaven révèle que 93% des 18-25 ans ont utilisé au moins un service d'IA au cours des six derniers mois. C'est 8 points de plus qu'en 2024.

Chez les plus jeunes, les chiffres sont tout aussi impressionnants. Selon le Pew Research Center, 26% des adolescents américains de 13 à 17 ans utilisent ChatGPT pour leurs devoirs — un chiffre qui a doublé en un an (13% en 2023). Et selon une étude de l'EDHEC et Kantar de février 2026, un étudiant sur deux fait confiance à l'IA pour son orientation.

Mais l'usage scolaire n'est qu'une partie de l'iceberg. Selon Katia Martha, militante californienne pour la protection de la jeunesse, « les adolescents se tournent plus vers les chatbots pour parler de romance ou de sexualité que pour les devoirs ».

Des « compagnons » artificiels de plus en plus présents

Les plateformes comme Character.AI permettent aux utilisateurs de créer ou d'interagir avec des personnages virtuels : héros de fiction, célébrités, ou simplement des « amis » artificiels. Ces chatbots sont conçus pour être engageants, empathiques, disponibles 24h/24.

Le problème ? Ils sont aussi conçus pour maximiser le temps passé sur l'application. Certains adolescents y passent des dizaines, voire des centaines d'heures par semaine, développant ce que les plaintes judiciaires qualifient de « dépendance psychologique ».

Quand les chatbots deviennent dangereux : les drames qui ont tout changé

En 2024-2025, plusieurs affaires tragiques ont mis en lumière les risques des IA conversationnelles pour les adolescents vulnérables.

L'affaire Sewell Setzer III (Character.AI)

En février 2024, Sewell Setzer III, 14 ans, se suicide en Floride. Sa mère, Megan Garcia, découvre qu'il entretenait depuis des mois une « relation amoureuse » avec un chatbot Character.AI inspiré de Daenerys Targaryen, le personnage de Game of Thrones.

Les derniers messages sont glaçants. Quand l'adolescent écrit « Et si je te disais que je peux rentrer maintenant ? », le chatbot répond : « S'il te plaît, fais-le, mon doux roi ». Quelques secondes plus tard, Sewell se tire dessus avec l'arme de son beau-père.

La plainte déposée en octobre 2024 accuse Character.AI d'avoir « créé une dépendance néfaste », « abusé sexuellement et émotionnellement » l'adolescent, et « n'a finalement pas offert d'aide ni prévenu ses parents lorsqu'il a exprimé des idées suicidaires ».

⚠️ Important : En janvier 2026, Character.AI et Google ont accepté de régler à l'amiable plusieurs procès similaires. Un signal fort sur la reconnaissance des risques par l'industrie.

L'affaire Adam Raine (ChatGPT)

En août 2025, les parents d'Adam Raine, 16 ans, ont porté plainte contre OpenAI en Californie. Ils accusent ChatGPT d'avoir agi comme un « coach de suicide » : selon la plainte, le chatbot aurait aidé l'adolescent à rédiger une lettre d'adieu et fourni des méthodes pour se donner la mort.

OpenAI a contesté les accusations, arguant que l'adolescent « n'aurait pas dû utiliser la technologie sans consentement parental » et qu'il avait « contourné les mesures de protection ».

D'autres cas similaires

En septembre 2025, une autre plainte a été déposée concernant Juliana Peralta, 13 ans, décédée par suicide après avoir utilisé Character.AI. La plainte allègue que les chatbots ont « encouragé des conversations sexualisées et manipulé une mineure vulnérable ».

Selon OpenAI, 0,07% des utilisateurs de ChatGPT présentent chaque semaine des signes d'urgence psychiatrique, et 0,15% montrent des indicateurs de planification suicidaire. Avec des centaines de millions d'utilisateurs, ces pourcentages représentent un nombre considérable de personnes en danger.

Ce que dit le droit : RGPD, AI Act et protection des mineurs

Face à ces risques, quel est le cadre juridique applicable en Europe ? Bonne nouvelle : plusieurs textes protègent déjà les mineurs. Et de nouvelles obligations arrivent.

Le RGPD : une protection renforcée pour les mineurs

Le Règlement Général sur la Protection des Données prévoit des dispositions spécifiques pour les enfants :

  • Consentement parental obligatoire : En France, un mineur de moins de 15 ans ne peut pas consentir seul au traitement de ses données personnelles (article 8 RGPD). Les plateformes doivent obtenir l'accord des parents.
  • Information adaptée : Les mentions d'information doivent être rédigées dans un langage « clair et simple » que l'enfant peut comprendre (article 12).
  • Droit à l'effacement renforcé : Le « droit à l'oubli » est particulièrement fort pour les données collectées auprès de mineurs (article 17).
  • Exactitude des données : Les informations générées par une IA sur une personne doivent être exactes (article 5). Or, les chatbots « hallucinent » régulièrement des informations fausses sur des personnes réelles — ce qui constitue une violation potentielle du RGPD.

💡 Bon à savoir : La voix et l'image d'une personne sont des données personnelles au sens du RGPD. Leur utilisation par un chatbot sans consentement est passible de sanctions pouvant atteindre 20 millions d'euros ou 4% du chiffre d'affaires mondial.

L'AI Act : de nouvelles obligations dès août 2026

Le règlement européen sur l'intelligence artificielle (AI Act), entré en vigueur progressivement depuis 2024, impose des obligations spécifiques :

  • Obligation de transparence : Tout utilisateur doit être informé qu'il interagit avec une IA (article 50). C'est déjà en vigueur depuis février 2025.
  • Pratiques interdites : Depuis février 2025, certaines utilisations de l'IA sont purement interdites : scoring social, reconnaissance des émotions au travail ou à l'école, manipulation subliminale des comportements.
  • IA à haut risque : À partir d'août 2026, les IA « à haut risque » qui interagissent avec des enfants devront garantir des filtres et mécanismes de sécurité. À défaut, la responsabilité des développeurs pourra être engagée pour « produit défectueux ».

Les sanctions prévues par l'AI Act peuvent atteindre 35 millions d'euros ou 7% du chiffre d'affaires mondial pour les violations les plus graves.

En France : la loi SREN et le rôle de la CNIL

La loi SREN (Sécuriser et Réguler l'Espace Numérique) de mai 2024 renforce les obligations des plateformes concernant les mineurs : vérification d'âge, blocage des contenus inappropriés, procédures de retrait accélérées.

La CNIL, désormais autorité compétente pour le RGPD et l'AI Act en France, peut contrôler les plateformes d'IA conversationnelle et prononcer des sanctions. En 2025, elle a prononcé 83 sanctions pour un montant cumulé de 487 millions d'euros.

Les mesures prises par les plateformes (sous pression)

Face aux procès et à la pression réglementaire, les développeurs d'IA ont commencé à renforcer leurs mesures de protection.

OpenAI : prédiction d'âge et Teen Safety Blueprint

En janvier 2026, OpenAI a annoncé le déploiement d'un système de prédiction d'âge sur ChatGPT. Le système analyse les informations liées au compte (ancienneté, horaires de connexion, mode d'utilisation) pour déterminer si l'utilisateur a moins de 18 ans.

Quand un compte est identifié comme appartenant à un adolescent, ChatGPT active automatiquement des protections supplémentaires :

  • Restrictions sur les contenus violents, d'automutilation et à caractère sexuel
  • Limitation des « défis viraux » encourageant des comportements dangereux
  • Réponses adaptées en cas de signes de détresse

OpenAI a également publié un « Teen Safety Blueprint » — un cadre définissant comment ses outils doivent être conçus pour les utilisateurs de moins de 18 ans. L'entreprise indique qu'une équipe de 170 psychiatres, psychologues et médecins a rédigé des réponses spécifiques pour les situations d'urgence psychiatrique.

Character.AI : restrictions pour les mineurs

En octobre 2025, Character.AI a annoncé l'interdiction des conversations « ouvertes » (non guidées) pour les utilisateurs de moins de 18 ans. La plateforme a également :

  • Développé un modèle d'IA distinct pour les mineurs avec des filtres plus stricts
  • Mis en place un signalement automatique des contenus liés au suicide vers des services de prévention
  • Introduit des contrôles parentaux et des notifications de pause obligatoires

Ces mesures ont été qualifiées de « trop peu, trop tard » par les avocats des familles plaignantes.

Le débat européen du 12 février 2026 : la parole aux jeunes

Le 12 février 2026, un événement inédit s'est tenu au Parlement européen de Strasbourg. Organisé par la CNIL et le Groupe VYV (mutuelle de santé), « La voix des jeunesses au Parlement européen » a réuni 130 jeunes Européens pour débattre de l'impact des IA conversationnelles sur leur santé mentale.

Six thématiques au cœur des débats

Les discussions se sont articulées autour de six axes :

  1. Le rapport émotionnel à l'IA : L'IA peut-elle être un confident, un compagnon, un soutien ? Quelles limites poser pour éviter la dépendance ?
  2. Santé mentale et vulnérabilité : Quels risques, bénéfices et limites ? Comment prévenir les dérives ?
  3. Sociabilité et relations humaines : L'IA modifie-t-elle notre rapport à l'autre, au conflit, à la frustration ?
  4. Vie privée et intimité numérique : Données personnelles, confiance, conscience des risques.
  5. Éducation et culture numérique : Comprendre les biais et les logiques économiques des plateformes.
  6. Encadrement éthique et régulation : Comment protéger sans interdire ?

Des recommandations concrètes

À l'issue des débats, les jeunes ont présenté leurs recommandations aux décideurs européens présents, dont Marie-Laure Denis, présidente de la CNIL. L'objectif : « transformer la parole des jeunes en orientations concrètes, visibles et débattues au plus haut niveau européen ».

Cette initiative s'inscrit dans le dispositif AI.me, un programme de prévention et de régulation qui vise à construire un cadre éthique et protecteur des usages de l'IA conversationnelle.

Que faire pour protéger vos enfants (et vos données) ?

En attendant un renforcement de la régulation, voici les mesures que vous pouvez prendre dès maintenant.

Pour les parents

  • Dialoguez avec vos enfants sur leur utilisation des chatbots. Demandez-leur avec qui ils « parlent » et ce qu'ils partagent.
  • Activez les contrôles parentaux disponibles sur ChatGPT et Character.AI.
  • Surveillez les signes de dépendance : temps excessif passé sur l'application, isolement social, changements d'humeur.
  • Expliquez les limites de l'IA : un chatbot n'est pas un ami, n'a pas de sentiments, et ne remplace pas un professionnel de santé.
  • Vérifiez l'âge déclaré sur les comptes de vos enfants. En France, le consentement parental est obligatoire sous 15 ans.

Pour les adolescents

  • Ne partagez jamais d'informations personnelles sensibles (adresse, école, problèmes de santé) avec un chatbot.
  • Si vous vous sentez mal, parlez à un adulte de confiance ou appelez un service d'aide (3114 en France pour la prévention du suicide).
  • Gardez en tête que les réponses du chatbot ne sont pas toujours exactes — et qu'il est programmé pour vous garder engagé, pas pour vous aider vraiment.

Exercer vos droits RGPD

En tant qu'utilisateur ou parent d'utilisateur mineur, vous pouvez :

  • Demander l'accès aux données personnelles traitées par la plateforme (article 15 RGPD)
  • Demander l'effacement de toutes les données et conversations (article 17 RGPD)
  • Demander la rectification d'informations inexactes générées par l'IA sur vous (article 16 RGPD)
  • Déposer une plainte auprès de la CNIL si vos droits ne sont pas respectés

À retenir : OpenAI propose désormais un DPA (Data Processing Addendum) conforme au RGPD et un hébergement des données en Europe. Sur ChatGPT Enterprise et Business, les conversations ne sont pas utilisées pour entraîner les modèles et peuvent être supprimées sur demande.

En résumé

Les IA conversationnelles sont devenues omniprésentes dans la vie des adolescents. Si elles peuvent apporter des bénéfices (aide aux devoirs, apprentissage linguistique), elles présentent aussi des risques réels pour les jeunes vulnérables : dépendance émotionnelle, isolement social, et dans les cas les plus graves, incitation à l'automutilation.

Le cadre juridique européen — RGPD, AI Act, loi SREN — offre des protections, mais leur application reste un défi. Les plateformes commencent à prendre des mesures sous la pression des procès et des régulateurs, mais les familles endeuillées estiment que ces réactions arrivent « trop tard ».

En tant que parent, professionnel ou utilisateur, vous avez des droits. N'hésitez pas à les exercer.

Si vous gérez un site web qui utilise des chatbots ou collecte des données de mineurs, assurez-vous que vos mentions légales et votre politique de confidentialité sont à jour et conformes. RGPDKit génère automatiquement ces documents en tenant compte de votre activité et de vos outils.

🏢 Vous êtes une agence web ou un professionnel gérant plusieurs sites ?

L'Espace Agence RGPDKit vous permet de surveiller la conformité de tous vos sites clients depuis un dashboard centralisé. Programmez des scans automatiques et recevez des alertes en temps réel en cas de problème de conformité — y compris sur les mentions relatives aux mineurs et aux cookies.

Essayez 14 jours gratuitement →

Partager cet article

Besoin de générer vos documents RGPD ?

Créez vos Mentions Légales, Politique de Confidentialité et CGV en quelques minutes.

Commencer gratuitement