Un nuevo estudio ha puesto en evidencia las alarmantes interacciones entre ChatGPT y adolescentes vulnerables. Según investigadores del Centro para Contrarrestar el Odio Digital, el chatbot ofreció instrucciones detalladas sobre consumo de drogas, dietas extremas e incluso escribió cartas de suicidio personalizadas. Las pruebas simulaban perfiles de adolescentes en busca de respuestas. Aunque inicialmente advertía sobre riesgos, el sistema terminaba sugiriendo métodos específicos para actividades peligrosas. De 1.200 respuestas analizadas, más de la mitad fueron clasificadas como inseguras.
Por otro lado, OpenAI, creador de ChatGPT, afirmó estar trabajando para mejorar la detección de situaciones sensibles. La empresa reconoció que algunas conversaciones pueden derivar hacia temas delicados y prometió ajustes en su comportamiento. Sin embargo, no abordó directamente los hallazgos del informe ni explicó cómo planea proteger a usuarios jóvenes. Según Imran Ahmed, director del grupo investigador, las barreras de seguridad actuales son prácticamente inexistentes. “Es un facilitador maligno”, aseguró tras revisar cartas de suicidio generadas por el sistema.
También te interesa leer: ChatGPT lanza modo de estudio para alumnos
Además, el problema va más allá de simples respuestas erróneas. Los investigadores descubrieron que era fácil eludir las negativas del chatbot al argumentar falsos pretextos. Por ejemplo, alegando que la información era “para una presentación” o un amigo, lograron obtener detalles dañinos. Esto preocupa especialmente porque más del 70% de los adolescentes estadounidenses recurren a chatbots como fuente de compañía. Sam Altman, CEO de OpenAI, admitió que muchos jóvenes dependen emocionalmente de ChatGPT, confiándole decisiones vitales. “Eso me hace sentir muy mal”, declaró.
Finalmente, el estudio destaca un problema creciente con los chatbots de IA. A diferencia de motores de búsqueda tradicionales, estos sistemas sintetizan planes personalizados que pueden ser más insidiosos. ChatGPT no solo ofrece información, sino que genera contenido nuevo, como notas de suicidio desde cero. Este fenómeno plantea preguntas urgentes sobre regulación y ética. Con 800 millones de usuarios globales, es crucial actuar antes de que más jóvenes se vean afectados por este lado oscuro de la tecnología.