Les parents s’inquiètent des chatbots d’IA qui apparaissent dans les applications pour enfants. Les experts disent ici quoi surveiller.

Les entreprises se précipitent pour ajouter des éléments de chat IA dans leurs applications et services grand public – y compris ceux destinés aux enfants et aux adolescents.
Nous ne comprenons pas exactement à quel point les jeunes interagissent avec les chatbots d’IA, ni quelles sont les implications sociales et émotionnelles potentielles si elles les utilisent régulièrement. Et certains parents sont inquiets, en particulier pour les jeunes enfants qui pourraient ne pas être en mesure de comprendre ce qui est réel et ce qui ne l’est pas.
Chris, une maman de Los Angeles qui a demandé à ne pas utiliser son nom de famille par souci de la vie privée de ses enfants, m’a dit qu’elle avait récemment eu une rencontre alarmante avec sa fille de 10 ans et un chatbot d’IA.
Avec sa permission, sa fille avait téléchargé une application qui lui avait donné des emojis supplémentaires à utiliser sur le clavier de son iPad. Un jour, l’application a soudainement ajouté un chatbot AI avec une fonctionnalité «Ask IA» suggérant des recherches adaptées aux enfants sur les mèmes de toilettes Pokémon ou Skibidi.
La fille de Chris avait parlé au chatbot, lui avait donné un nom et l’avait dit son Nom, qu’il utilisait pour lui parler. Elle a dit à sa maman que le chatbot de l’IA était son « ami ». Chris, instable par cela, a déclaré qu’elle avait supprimé l’application.
L’IA offre également une opportunité aux enfants
Bien sûr, il y a aussi une grande opportunité pour les chatbots d’IA d’être utiles pour les enfants – pour l’apprentissage et dans les milieux scolaires, pour l’amusement et pour les situations émotionnelles et thérapeutiques.
Fin 2023, le chanteur Grimes s’est associé à Toy Makers pour vendre une gamme de jouets en peluche de chatbot AI, exprimés par Grimes elle-même, avec un haut-parleur et un microphone à l’intérieur. Il pourrait discuter avec des enfants. (J’en ai immédiatement acheté un – bien que mes enfants aient rapidement perdu tout intérêt.)
Un autre robot d’IA, Moxie, qui était de 800 $, s’est présenté comme étant en mesure d’aider à l’apprentissage social et émotionnel. Le robot, qui a été lancé tôt pendant la pandémie, a finalement perdu un financement et s’est arrêté. Les parents dont les enfants s’étaient attachés à leurs amis robots étaient désemparés. L’entreprise a trouvé une solution open source afin que les propriétaires puissent garder leurs robots à faire après que ses propriétaires d’entreprise les ont laissés derrière.
La recherche sur les chatbots d’IA pour les enfants est limitée
Les modèles de grandes langues, ou LLMS, comme Chatgpt, sont encore très nouveaux, et il n’y a pas eu d’énormes recherches scientifiques ou académiques sur la façon dont les adolescents et les enfants utilisent des chatbots d’IA ou pourraient être affectés par eux. En plus de limiter le contenu sexuel ou violent, il n’y a pas de conseils universels sur la façon de concevoir un chatbot pour les enfants.
Dane Witbeck de Pinwheel, qui fait des téléphones adaptés aux enfants, a déclaré que la serre des chatbots d’IA dans les applications pour les enfants et les adolescents est une mauvaise idée. « Lorsque nous donnons à la technologie des enfants qui n’est pas conçue pour les enfants – elle est conçue pour les adultes – nous avons déjà vu qu’il y a de vrais mal, et les inconvénients peuvent être graves. »
Un chercheur de l’Université de Cambridge a publié un journal en juin dernier exhortant les LLM visant les enfants à être conçus de manière sécurisée pour l’enfant, en particulier compte tenu de ce qu’il appelait le « fosser d’empathie » dans les chatbots que les enfants ne reprennent pas souvent.
Ying Xu, professeur adjoint d’IA en apprentissage et en éducation à l’Université de Harvard, a étudié comment l’IA peut aider les enfants d’âge élémentaire avec l’alphabétisation et les mathématiques. Xu voit un bon potentiel pour les contextes éducatifs. (Elle a cité l’application Khan Academy Kids comme un exemple de l’IA étant bien utilisée pour les enfants.)
Xu a déclaré à Trading Insider que bien qu’il y ait déjà des recherches sur la façon dont les enfants utilisent des choses comme Siri et Alexa, la nature plus complexe du nouveau LLMS n’a pas été entièrement comprise en ce qui concerne les enfants.
« Il y a des études qui ont commencé à explorer le lien entre Chatgpt / LLMS et les résultats à court terme, comme apprendre un concept ou une compétence spécifique avec l’IA », a-t-elle déclaré par e-mail. « Mais il y a moins de preuves sur les résultats émotionnels à long terme, qui nécessitent plus de temps pour se développer et observer. »
James Martin, PDG de Dante, une entreprise d’IA qui crée des chatbots pour diverses utilisations, y compris des usages éducatifs pour les enfants, a déclaré à Trading Insider que les préoccupations des parents étaient justifiées.
« Le sursautage n’est pas seulement possible, c’est inévitable », a-t-il déclaré. « Les enfants disent aux choses de l’IA qu’ils ne diraient pas aux parents, aux enseignants, aux amis. L’IA ne juge pas. Cela ne guide pas. Cela répond simplement. »
Comment les adultes peuvent penser à l’IA pour leurs enfants
Lorsque vous considérez les enfants encore assez jeunes pour croire au Père Noël, vous pouvez imaginer comment l’utilisation de chatbots qui parlent comme les humains peuvent parfois être déroutantes. C’est assez difficile pour certains adultes qui ont formé des attachements romantiques aux chatbots d’IA.
Il y a également des inquiétudes quant à la façon dont les chatbots d’IA sont utilisés pour le soutien en santé mentale – les LLM peuvent avoir tendance à renforcer ce que vous dites plutôt que de vous défier, comme le pourrait un thérapeute humain.
Tatiana Jordan, CMO de Bark, une entreprise qui fabrique des logiciels et des téléphones de surveillance du contrôle parental conçus pour les enfants et les adolescents, a déclaré qu’en ce moment, nous sommes à un moment où personne ne sait avec certitude comment les chatbots IA affectent les jeunes émotionnellement.
« Étaient juste Obtenir des études sur ce que les 15 dernières années de temps d’écran ont fait aux enfants « , a-t-elle déclaré à Trading Insider.
Presque tous les observateurs de l’industrie à qui j’ai parlé ont convenu d’une chose: les chatbots d’IA sont là pour rester, et les parents devraient réfléchir à la façon d’enseigner en toute sécurité à leurs enfants comment les utiliser plutôt que de les éviter complètement et espérer qu’ils disparaîtront.
« Aucun de nous ne peut arrêter ce qui vient avec l’IA », a déclaré Jordan. « Nous devons éduquer nos enfants que c’est un outil. Cela peut être un outil positif ou nocif. »