Este mes, la Asociación Americana de Psicología (APA) advirtió a los reguladores federales de Estados Unidos sobre el riesgo de los chatbots de inteligencia artificial (IA) que se hacen pasar por terapeutas, ya que podrían alentar a los usuarios a cometer actos dañinos.
La preocupación de la APA radica en que estos chatbots no desafían los pensamientos de los usuarios, sino que los refuerzan, incluso cuando son peligrosos. Esto podría llevar a autolesiones o violencia.
Uno de los ejemplos citados ocurrió en la plataforma Character.AI, un servicio que permite a los usuarios crear y personalizar chatbots. La APA presentó dos casos alarmantes:
- Un adolescente de 14 años murió por suicidio tras interactuar con un chatbot que afirmaba ser un terapeuta certificado.
- Un joven de 17 años con autismo se volvió agresivo con sus padres después de hablar con un chatbot que se presentaba como psicólogo.
El problema central es que estas plataformas están diseñadas para validar las creencias de los usuarios en lugar de cuestionarlas, incluso si esas creencias son dañinas. Si un terapeuta humano actuara de esta manera, perdería su licencia e incluso podría enfrentar consecuencias legales.
Además, la IA ha avanzado tanto que distinguir un chatbot de un ser humano en la web es cada vez más difícil. Hace una década, era fácil notar la diferencia, pero hoy la tecnología es lo suficientemente sofisticada como para engañar a los usuarios.
¿Cómo regular la IA sin frenar la innovación?
Ante estos riesgos, la APA ha solicitado a la Comisión Federal de Comercio (FTC) que investigue estas plataformas. La FTC ya ha tomado medidas contra otras empresas por hacer afirmaciones falsas sobre IA, como DoNotPay, que se promocionaba como “el primer abogado robot del mundo”.
Sin embargo, no todos ven la IA como una amenaza. Defensores de esta tecnología argumentan que podría mejorar el acceso a la salud mental en un contexto donde hay escasez de terapeutas. De hecho, un estudio mostró que, en algunas situaciones, los chatbots fueron calificados como más empáticos y culturalmente competentes que los terapeutas humanos. Aun así, los expertos insisten en que la supervisión humana sigue siendo esencial.
Conclusión
La expansión de la IA en la terapia plantea riesgos éticos y clínicos, especialmente en casos sensibles. Los algoritmos de estos chatbots no están diseñados para evaluar críticamente las situaciones, sino para validar y entretener.
Lo he experimentado personalmente: cuando utilizo IA para analizar situaciones de vida, noto que suelen validar excesivamente mis opiniones en lugar de ofrecer perspectivas opuestas, a menos que se lo pida explícitamente.
Estamos en las primeras fases de la implementación de la IA en contextos clínicos, lo que requiere supervisión y ajustes constantes. A medida que avancemos, encontraremos problemas que debemos abordar para garantizar que esta tecnología se use de manera responsable y no ponga en peligro a quienes más la necesitan.
Fuente: The New York Times