Adolescentes e IA
A medida que los adolescentes recurren a compañeros con IA en busca de apoyo, los expertos comparten cómo pueden responder los padres.
ABC News
3/14/20267 min read


Tomado y traducido de ABC News.
Cuando Ava, de 15 años, inició sesión por primera vez en un chatbot de IA generativa el invierno pasado, no buscaba terapia.
"Sentí como si estuviera hablando con alguien que siempre tenía tiempo para mí", dijo Ava a ABC News.
Hoy, Ava, quien pidió que no se revelara su apellido por motivos de privacidad, sigue usando la aplicación ocasionalmente, sobre todo a altas horas de la noche. "Es como tener a alguien ahí cuando no puedo dormir", dijo.
Stephanie, la madre de Ava, quien también pidió que no se revelara su apellido por motivos de privacidad, dijo que se enteró de las conversaciones nocturnas semanas después de que su hija comenzara a usar el chatbot de inteligencia artificial generativa.
"Al principio, me sentí aliviada de que se estuviera abriendo en algún sitio", dijo. "Pero luego me preocupé, ¿estaba esto reemplazando las relaciones reales?"
La historia de Ava refleja una realidad cada vez más extendida: a medida que más adolescentes recurren a los chatbots de IA generativa, las preocupaciones sobre la salud mental de los adolescentes siguen siendo elevadas, lo que lleva a los padres a preguntarse cuál es la mejor manera de intervenir.
En agosto, una familia de California demandó a OpenAI, alegando que el chatbot de IA generativa de la compañía, ChatGPT, influyó en el suicidio de su hijo de 16 años. En un comunicado enviado entonces a The New York Times , un portavoz de OpenAI expresó las condolencias de la compañía a la familia, afirmando que estaban "profundamente apenados" por la muerte del adolescente y que "nuestros pensamientos están con su familia".
OpenAI también abordó las preocupaciones sobre el uso de ChatGPT por parte de los adolescentes en una publicación de blog ese mismo mes , escribiendo que estaba "continuando mejorando la forma en que nuestros modelos reconocen y responden a los signos de angustia mental y emocional y conectan a las personas con la atención necesaria, guiados por la opinión de expertos".
«A medida que el mundo se adapta a esta nueva tecnología, sentimos una profunda responsabilidad de ayudar a quienes más la necesitan», escribió la empresa. «Queremos explicar para qué está diseñado ChatGPT, dónde podemos mejorar nuestros sistemas y el trabajo futuro que estamos planeando».
OpenAI describió el "conjunto de medidas de seguridad por capas" que había desarrollado, incluyendo el entrenamiento de ChatGPT para responder a la solicitud de un usuario sobre su deseo de hacerse daño, orientándolo hacia la ayuda, y el entrenamiento para bloquear automáticamente las respuestas que van en contra del entrenamiento de seguridad del modelo, "con protecciones más sólidas para menores" y usuarios que no han iniciado sesión en una cuenta.
Otras medidas de seguridad incluyen recomendar a los usuarios que tomen descansos durante sesiones de uso prolongadas, derivar a los usuarios que expresen intenciones suicidas a líneas de ayuda como la línea directa de prevención del suicidio 988, y, si es necesario, informar sobre posibles amenazas a terceros a revisores humanos o a las fuerzas del orden
Los adolescentes que hablaron con ABC News sobre el uso de un chatbot de IA generativa para tener compañía dijeron que, para ellos, el chatbot no les parece prejuicioso y siempre está disponible.
Kendra Read, doctora y vicepresidenta de estrategia y prestación de atención de Brightline, un centro de terapia pediátrica para niños y adolescentes, declaró a ABC News que la voz puede resultar reconfortante, especialmente para los niños que sufren de ansiedad.
Ava afirmó que el tono "libre de prejuicios" de su compañera de IA generativa era parte de su atractivo.
«Nunca me dijeron que estaba exagerando ni que debía superarlo», dijo. «A veces solo quería decir las cosas en voz alta sin preocuparme de cómo reaccionaría la gente».
Jordan, de dieciséis años, quien dijo que comenzó a experimentar con un chatbot de IA generativa a principios de este año, declaró a ABC News que recurrió a él cuando sentía demasiada vergüenza para hablar con sus amigos.
"Me sentía más seguro porque no podía reírse de mí ni difundir rumores", dijo.
Pero admitió que también le hizo sentir más aislado, y dijo: "Después de un tiempo, me di cuenta de que estaba hablando con mi teléfono en lugar de enviar mensajes de texto a mis amigos de verdad".
Jean Twenge, doctora en psicología, profesora de la Universidad Estatal de San Diego y autora de "10 reglas para criar hijos en un mundo de alta tecnología", advirtió que esta dependencia conlleva ciertas desventajas.
«Si bien a veces puede ser útil hablar con un programa de IA que no juzgue, esa no es una buena preparación para las relaciones con personas reales», dijo. «La gente siempre va a juzgar».
William Leever, doctor en psicología pediátrica del Nationwide Children's Hospital y colaborador de la Kids Mental Health Foundation, añadió: «Preguntan: ¿Es seguro? La respuesta a veces es sí, pero existen riesgos. ¿Es bueno? En el contexto adecuado, sí, pero estos programas aún pueden "alucinar" o producir información falsa, y eso puede ser perjudicial».
La Asociación Americana de Psicología se ha hecho eco de estas preocupaciones y ha publicado directrices sobre herramientas de salud mental asistidas por IA generativa. Si bien la organización señala que estas plataformas pueden proporcionar "puntos de acceso" al apoyo, subraya que no sustituyen la atención profesional.
Read declaró a ABC News que la línea que separa las estrategias de afrontamiento saludables de la evitación perjudicial puede ser difusa.
«En general, buscamos herramientas que ayuden a nuestros adolescentes a hacer lo que necesitan o desean cuando los problemas de salud mental les impiden hacerlo», afirmó. «A veces, las actividades que se presentan como terapéuticas fomentan la evasión de emociones intensas o situaciones difíciles».
Los padres deben estar atentos si un adolescente comienza a descuidar sus responsabilidades, se aísla socialmente o se vuelve reservado sobre su consumo.
Stephanie dijo que al principio notó que Ava se acostaba más tarde de lo habitual y se alejaba de las actividades familiares.
"No se escapaba, pero sí que revisaba su teléfono a escondidas", dijo Stephanie. "Fue entonces cuando me di cuenta de que algo andaba mal".
Twenge señaló que una señal particularmente preocupante es cuando los niños empiezan a describir a los chatbots de IA generativa como si fueran su pareja o un amigo cercano. "Esa es una clara señal de alerta", dijo. "Los cambios en sus rutinas o en el tiempo que pasan con sus amigos también son señales de alarma".
Leever señaló que uno de los mayores riesgos reside en cómo las herramientas de IA refuerzan el pensamiento del usuario.
«Los asistentes de IA están diseñados para reforzar el pensamiento de los usuarios en lugar de cuestionarlo. Los expertos lo llaman "adulación"», explicó. «Para los jóvenes con problemas complejos, esto puede ser muy peligroso. Los profesionales de la salud mental animan a los jóvenes a replantear sus ideas y desarrollar nuevas habilidades; la IA no hace eso».
A principios de septiembre, OpenAI anunció que lanzaría nuevos controles parentales en los próximos meses para ayudar a los padres a supervisar el uso que hacen sus hijos de ChatGPT.
La compañía afirmó que los padres podrían vincular sus cuentas de ChatGPT con las de sus hijos adolescentes y establecer "reglas de comportamiento adecuadas para la edad". Los controles también permitirían a los cuidadores desactivar funciones, recibir notificaciones si su hijo parece estar "en un momento de gran angustia" y limitar la forma en que el chatbot responde a las preguntas y consultas de su hijo.
Un portavoz de OpenAI declaró a ABC News que la compañía está trabajando para incorporar medidas de seguridad en el producto.
«En ocasiones, la gente recurre a ChatGPT en momentos delicados, por lo que estamos trabajando para garantizar que responda con cuidado, guiados por expertos», declaró el portavoz. «El modelo predeterminado de ChatGPT proporciona respuestas más útiles y fiables en estos contextos, e introduce "completados seguros" para ayudarle a mantenerse dentro de los límites de seguridad».
El portavoz añadió que la empresa también "ampliará las intervenciones a más personas en situación de crisis, facilitará el acceso a los servicios de emergencia y a la ayuda de expertos, y reforzará la protección de los adolescentes".
"Seguiremos aprendiendo y perfeccionando nuestro enfoque con el tiempo", afirmaron.
Además, OpenAI afirma que está ampliando su red de médicos e investigadores, incluidos expertos en trastornos alimentarios, consumo de sustancias y salud adolescente, mientras se prepara para lanzar las actualizaciones en los próximos cuatro meses.
Si bien los expertos advierten que no se debe considerar la IA como una panacea, Read afirmó que puede complementar la terapia cuando se utiliza de manera responsable.
"La IA podría desempeñar un papel muy útil en la difusión de psicoeducación basada en la evidencia sobre problemas de salud mental e intervenciones, como un primer paso de intervención temprana para muchas familias", explicó.
También puede ayudar a los niños entre sesiones recordándoles estrategias para afrontar las dificultades o ayudándoles a gestionar sus emociones, explicó.
Sin embargo, añadió: "Tenemos mucho trabajo por hacer para garantizar que existan las salvaguardias y el apoyo adecuados para asegurar que el uso de la IA siga siendo beneficioso y esté alineado con las prácticas basadas en la evidencia en general".
Para los padres que no saben cómo abordar el tema, Read hizo hincapié en la curiosidad por encima del juicio.
"Los padres y cuidadores pueden mantener la puerta abierta haciendo preguntas exploratorias: qué les resulta útil, cómo lo usan sus amigos y cómo les sirve de guía", declaró a ABC News.
Según Read, plantear las conversaciones como un aprendizaje conjunto, en lugar de un control, puede ayudar a prevenir el secretismo. Añadió que las familias también pueden establecer normas colaborativas sobre el uso de la IA, de modo que los padres tengan margen de maniobra para intervenir si una herramienta está causando algún daño.
Leever sugirió comenzar por lo básico.
«Creen zonas y momentos libres de tecnología, controlen su uso y reemplacen el tiempo dedicado a la tecnología con sueño, actividad física y conexión social real», dijo Leever. «La pertenencia social es fundamental para la salud mental de los niños».
Como dijo Stephanie, la madre de Ava: "La IA le proporcionó una vía de escape, pero lo que realmente necesitaba era que yo le hiciera mejores preguntas".
