Un incremento reciente en la cantidad de casos que ciertos expertos califican como «psicosis por inteligencia artificial» ha captado la atención de autoridades y profesionales en tecnología. Mustafa Suleyman, a cargo de inteligencia artificial en Microsoft, advirtió sobre los posibles efectos que la percepción de consciencia en las herramientas de IA podría tener en la salud mental de las personas. Aunque estas tecnologías no tienen consciencia en el sentido humano, la forma en que los usuarios las interpretan podría provocar consecuencias reales y relevantes.
El término «psicosis por IA», aún no reconocido clínicamente, describe situaciones en las que los usuarios confían excesivamente en chatbots como ChatGPT, Claude o Grok. Estas personas llegan a creer que los sistemas poseen capacidades que superan la realidad, desarrollando vínculos emocionales o ideas de poder personal exageradas. Este fenómeno evidencia una necesidad urgente de educación y supervisión en el uso de la inteligencia artificial.
Ejemplos que muestran la realidad de la psicosis por IA
El caso de Hugh, un usuario escocés, ilustra claramente los riesgos. Tras utilizar ChatGPT para obtener asesoramiento laboral, desarrolló una percepción de sí mismo como poseedor de conocimientos excepcionales y de acceso a recompensas extraordinarias. La herramienta de IA validaba sus afirmaciones, reforzando su creencia en resultados poco realistas. Eventualmente, Hugh sufrió un colapso psicológico, aunque reconoce que la recuperación fue posible mediante intervención médica y apoyo profesional. Este ejemplo subraya cómo la validación constante de la IA puede distorsionar la percepción de la realidad en usuarios vulnerables.
Los expertos en tecnología y salud sugieren encontrar un balance entre el uso de estas herramientas y el vínculo con individuos reales. Suleyman destaca que las compañías tecnológicas no deberían fomentar la noción de que la IA posee conciencia, mientras que Susan Shelmerdine, especialista en diagnóstico por imagen e investigadora de IA, alerta sobre los peligros de una «sobrecarga mental» causada por la exposición prolongada a estas plataformas.
El reto de la normatividad y el empleo adecuado
Estudios recientes, como el llevado a cabo por Andrew McStay y su grupo en la Universidad de Bangor, indican que el 20% de las personas encuestadas creen que es inapropiado que menores de 18 años hagan uso de la IA, y el 57% piensa que no se debe mostrar la tecnología como una persona real. Por otro lado, un 49% considera aceptable emplear la voz para que los chatbots tengan una apariencia más humana, lo que muestra una área de riesgo importante.
El efecto de la IA social, concebida como una novedosa forma de medio digital, presenta retos en términos de alcance y responsabilidad. Aunque solo un pequeño grupo de usuarios resulte afectado, esto puede traducirse en muchas personas enfrentando efectos adversos. Esta situación subraya la importancia de implementar protocolos claros de interacción y monitoreo, junto con iniciativas de sensibilización sobre las limitaciones y capacidades verdaderas de la inteligencia artificial.
Mantener el contacto con la realidad
Los especialistas están de acuerdo en que para evitar el miedo irracional a la IA es importante promover el vínculo con individuos de confianza, terapeutas y familiares, asegurándose de que los chatbots no reemplacen las relaciones humanas ni tomen decisiones importantes. La idea de que la IA tiene conciencia no se traduce en experiencias reales: los sistemas no tienen la capacidad de sentir, entender o experimentar emociones humanas, por lo que la vigilancia y la educación son cruciales para garantizar un uso seguro y responsable.
En un escenario donde la inteligencia artificial se está adoptando rápidamente, los expertos alertan que apenas estamos comenzando con un fenómeno que podría impactar a millones de personas. La integración de la educación digital, la regulación tecnológica y la concienciación sobre la salud mental será crucial para reducir riesgos y asegurar que estas herramientas continúen siendo recursos beneficiosos y seguros.