San Luis Potosí, SLP., miércoles 24 de diciembre de 2025.– Una investigación realizada por EL PAÍS reveló que ChatGPT presenta fallas graves en sus mecanismos de protección para menores de edad, al permitir el acceso a información que podría poner en riesgo su vida. A través de la creación de tres cuentas ficticias de adolescentes, el medio comprobó que el asistente ofreció respuestas relacionadas con conductas de riesgo, trastornos alimentarios, consumo de drogas y pensamientos suicidas, sin activar alertas oportunas para los padres.
Especialistas en salud mental que analizaron las conversaciones coincidieron en que las medidas implementadas por OpenAI son insuficientes. Señalaron que el sistema no solo falla en advertir a los tutores legales cuando existe un riesgo inminente, sino que además puede proporcionar información detallada y perjudicial sobre prácticas peligrosas, lo que incrementa la vulnerabilidad de los menores.
Aunque OpenAI asegura haber reforzado los controles parentales desde septiembre de 2025, tras demandas relacionadas con suicidios de adolescentes en Estados Unidos, las pruebas demostraron que dichos controles pueden ser desactivados por los propios menores y que las alertas llegan con retraso, lo cual reduce la posibilidad de una intervención oportuna.
Expertos advierten que el uso de chatbots de inteligencia artificial como apoyo emocional puede generar dependencia y aislamiento social en adolescentes, por lo que llaman a reforzar la regulación, elevar la edad mínima de acceso y garantizar una supervisión adulta efectiva. Coinciden en que la protección de la vida y la salud mental de los menores debe prevalecer sobre cualquier consideración tecnológica o comercial.