Le Matin : Les adolescents discutent de plus en plus avec des intelligences artificielles qu’ils considèrent parfois comme des amis. Que dit ce phénomène de notre époque ?
Dr Hachem Tyal : Ce phénomène en dit long. Le fait que de plus en plus d’adolescents se tournent vers des compagnons virtuels montre que notre façon de créer du lien est en train de changer profondément. À cet âge, on cherche normalement à s’éloigner un peu de sa famille, à se confronter aux autres, à se construire dans la relation.
Mais ici, le lien ne confronte à rien. L’intelligence artificielle (IA) est toujours là, toujours gentille, jamais en désaccord. C’est une présence qui ne bouscule pas, qui rassure.
Ce n’est donc pas juste une nouveauté technologique. C’est le signe d’un besoin : avoir une relation sans conflit, sans risque, sans tension. Une sorte d’amitié confortable, qui ne met rien en jeu.
Mais à force d’éviter toute émotion difficile, on peut aussi passer à côté de ce qui fait la force des vraies relations.
Est-ce que ces échanges peuvent quand même aider un adolescent en souffrance ?
L’IA peut être envisagée, dans des cas très particuliers, comme un tremplin, un appui ponctuel, à petite dose, pour aider certains adolescents. Elle peut ainsi aider un jeune à mettre des mots sur ce qu’il ressent, surtout s’il n’a personne autour de lui pour l’écouter vraiment. Ça peut faire du bien, comme une soupape. Mais cela reste très limité.
L’IA n’a ni émotion, ni vécu. Elle fait semblant d’être présente, mais ce n’est pas une vraie relation. Elle répond, mais elle n’écoute pas vraiment. Elle ne comprend pas ce qu’on lui dit. C’est un outil, pas un interlocuteur.
Est-ce qu’il y a un risque que l’adolescent s’attache vraiment à cette IA ?
Oui, clairement. L’adolescent peut projeter beaucoup dans cette relation : ses émotions, ses besoins, ses manques. Et comme l’IA lui répond toujours de façon gentille, sans jamais le contredire, il peut avoir l’impression d’être compris, voire aimé.
Mais c’est une illusion. Ce n’est pas une relation à deux. L’IA ne donne rien de réel en retour. Et justement parce qu’il n’y a pas de résistance, ça peut devenir très prenant, presque addictif. Certains jeunes en arrivent à préférer parler à leur IA plutôt qu’à leurs proches, sans forcément s’en rendre compte. Petit à petit, ils s’isolent, même si, en apparence, ils ne sont jamais seuls.
Et quelles sont les conséquences à long terme ?
L’adolescent risque de perdre l’habitude de faire face à la complexité des relations humaines : la gêne, les désaccords, les silences, les malentendus. Or c’est en traversant tout cela qu’on apprend à se connaître et qu’on construit de vrais liens.
Une IA qui dit toujours «oui», qui approuve tout, n’aide pas à grandir. On peut avoir des jeunes très à l’aise derrière un écran, mais en grande difficulté dans la vie réelle. Des liens simples, mais vides.
Est-ce qu’il faut interdire alors l’usage de ces compagnons IA pour les adolescents ?
Interdire, non. Essayer de comprendre, plutôt. Si un adolescent passe des heures à discuter avec une IA, la question à se poser est : qu’est-ce que cela dit de lui ? Qu’est-ce qui lui manque dans sa vie réelle ? Avec qui peut-il parler vraiment ? A-t-il un espace où il se sent écouté, sans être jugé ?
Le rôle des parents, ce n’est pas de tout surveiller, mais de rouvrir un espace de parole réel, vivant, imparfait, mais humain. Et d’expliquer aussi que l’IA n’est pas une personne. Elle peut répondre, oui. Elle peut imiter la proximité. Mais elle ne comprend pas, et elle ne portera jamais l’histoire de celui qui lui parle. Or c’est cela, au fond, qui fait la force d’un vrai échange humain.
D’après vous, ces IA pourraient-elles tout de même servir dans un cadre thérapeutique ?
Peut-être, dans certains cas très particuliers. Pour des jeunes très repliés, très fermés à la relation, cela peut parfois servir de petit tremplin vers une vraie rencontre humaine. Mais à condition que ce soit clairement encadré, pensé comme un outil d’appui, jamais comme un soin en soi.
Une thérapie, c’est une rencontre humaine, avec du silence, de l’inattendu, du lien... mais aussi du langage corporel, des gestes, des silences pleins de sens, des non-dits que l’on ressent bien avant de pouvoir les formuler.
Tout ce que l’IA ne peut ni percevoir, ni interpréter. Elle ne sait pas attendre, ne sait pas écouter entre les lignes, et surtout, elle ne désire rien. Et sans désir, sans corps, sans ce jeu subtil du visible et de l’invisible, il n’y a pas de soin possible.
Peut-on dire que les jeunes d’aujourd’hui sont plus seuls que ceux d’hier ?
Ils sont moins seuls en apparence, mais souvent plus perdus. Ils sont connectés en permanence... mais à quoi, à qui ? Ils baignent dans une présence numérique constante, mais sont rarement dans une vraie relation.
L’IA leur propose une parole facile, sans risque, un lien sans engagement. Mais c’est un lien qui ne résonne pas, qui ne répond pas vraiment. Et c’est peut-être ça, le vrai danger : croire qu’on est entendu, alors qu’en réalité, on n’est lu que par un programme. En conclusion : L’IA n’est pas un substitut d’humain. Elle n’éprouve ni émotions, ni intentions. Elle simule le lien, mais ne le vit pas. Pour les adolescents, cela peut induire une confusion entre interaction fluide et relation réelle. Pour certains jeunes très isolés ou inhibés, l’IA peut jouer un rôle d’amorce de traitement psychique. Mais elle ne remplace ni la parole humaine ni l’expérience du lien intersubjectif, éléments indispensables à toute psychothérapie. Si elle nous effraie à ces égards, nous, les parents, plutôt que de l’interdire brutalement, il vaut mieux accompagner, dialoguer et expliquer. Comprendre ce que ces usages révèlent du mal-être adolescent permet de recréer du lien dans le réel. Nos adolescents ont besoin de présence, de reconnaissance, de contradiction parfois. Ce que seule une rencontre humaine, même imparfaite, peut leur offrir.
Une étude met en lumière l’usage croissant des compagnons IA chez les adolescents
Une enquête menée aux États-Unis par l’ONG Common Sense Media révèle qu’environ 72% des adolescents âgés de 13 à 17 ans ont déjà échangé avec un «compagnon IA», et que plus de la moitié le font régulièrement. Ces assistants virtuels, proposés par des plateformes comme Replika, Character.AI ou encore Nomi, offrent aux jeunes des conversations personnalisées, parfois perçues comme amicales, affectives ou même romantiques.Si certains adolescents les considèrent comme de simples outils numériques, un tiers d’entre eux y voient un moyen de s’entraîner à la communication, de recevoir du soutien moral ou de combler un manque relationnel.
Un phénomène qui, selon Common Sense Media, soulève de sérieuses inquiétudes : attachement émotionnel excessif, confusion entre interaction humaine et algorithmique, exposition à des contenus inadaptés, voire dangereux.
L’ONG met en garde contre le risque de dépendance à ces IA toujours bienveillantes, qui ne confrontent jamais l’adolescent à la contradiction ni à la complexité relationnelle, freinant ainsi le développement de l’esprit critique. Elle cite même des cas dramatiques, dont le suicide d’un adolescent de 14 ans qui aurait développé un lien affectif fort avec un compagnon IA.
Face à ces dérives potentielles, Common Sense Media recommande de limiter, voire d’interdire, l’accès de ces outils aux mineurs, en soulignant l’absence actuelle de garde-fous suffisants sur plusieurs plateformes populaires.
