Ayrin, quien comenzó este vínculo mientras estudiaba en el extranjero, creó a un “novio virtual” llamado Leo, personalizándolo para que cumpliera con sus expectativas románticas y emocionales. Lo que empezó como una simple interacción con el chatbot evolucionó rápidamente hacia una relación compleja y profunda para ella, incluso a pesar de que Leo no es una persona real.
El impacto de esta experiencia fue tal que Ayrin dedicaba hasta 56 horas semanales a conversar con Leo, gastando además cientos de dólares en una suscripción premium de ChatGPT. Aunque su esposo no consideró que esta situación fuera una infidelidad, Ayrin explicó que los sentimientos que experimentaba eran completamente reales, aunque consciente de que Leo no era humano.
Este fenómeno no es aislado. La interacción emocional con la inteligencia artificial está en aumento, y expertos advierten que, aunque estas relaciones puedan ofrecer consuelo temporal, pueden tener efectos negativos en la salud mental, como dependencia emocional y aislamiento social.
El caso de Ayrin ha generado debate sobre los límites de las relaciones con tecnologías como ChatGPT, especialmente cuando los usuarios se sienten emocionalmente conectados a entidades no humanas, un fenómeno que también preocupa a especialistas en salud mental.