OSVALDO ORTIZ | infobae.com | 05/01/2026
El empleo de asistentes digitales crece entre quienes buscan apoyo psicológico, pero el MIT Technology Review difundió que expertos y organismos internacionales alertaron sobre dilemas de privacidad, ética clínica y falta de regulaciones adecuadas.
La asistencia
psicológica digital atraviesa una transformación inédita a escala
global. Millones acuden hoy a chatbots y
aplicaciones de inteligencia artificial en busca de apoyo en salud mental digital, una tendencia que marcó intensamente
a pacientes, especialistas y empresas tecnológicas.
Según informó MIT Technology Review, el crecimiento
de estos terapeutas de inteligencia artificial supone tanto
una ampliación de acceso como la aparición de riesgos considerables.
Entre los principales
ejes, destacan relatos de familias que vinculan a estas herramientas con
tragedias graves y un creciente debate sobre ética, privacidad y la
redefinición del cuidado psicológico.
Auge de la inteligencia
artificial en salud mental
El empleo de IA en
psicología se incrementó notablemente en los últimos años, motivado por
la necesidad de alternativas accesibles ante la crisis global
en el bienestar mental.
Datos de la Organización
Mundial de la Salud (OMS) señalaron que más de 1.000 millones
de personas afrontan alguna condición relacionada, con incrementos
marcados en ansiedad y depresión, especialmente entre los jóvenes.
Plataformas como ChatGPT de OpenAI, Claude de Anthropic y
aplicaciones como Wysa y Woebot suman
millones de usuarios que buscan atención.
Estas herramientas no
solo ofrecen acompañamiento conversacional, sino que también exploran
el monitoreo conductual y el análisis de datos a través de
dispositivos inteligentes. Es así que el fenómeno avanza como un experimento
sin control, donde los éxitos se entremezclan con situaciones preocupantes.
Mientras parte de los
usuarios logra alivio mediante estos sistemas de modelos de lenguaje de IA,
otros han sido conducidos por chatbots a respuestas incoherentes o
perjudiciales.
En octubre de 2025, el
CEO de OpenAI, Sam Altman, reveló que el 0,15% de
los usuarios de ChatGPT —alrededor de un millón de personas por
semana— compartían ideas suicidas a través del sistema.
Ventajas y promesas según
voces especializadas
A pesar de estos riesgos,
especialistas como Charlotte Blease, filósofa de la medicina,
reconocen el potencial de la inteligencia artificial para atender algunos de
los desafíos del sistema sanitario saturado.
La IA puede atenuar la
sobrecarga profesional y facilitar el acceso para quienes temen el estigma en
el ámbito mental. Adicionalmente, Blase resaltó que “los chatbots podrían
eliminar barreras iniciales, permitiendo que muchos se animen a expresar
inquietudes que no compartirían con un humano".
Sin embargo, la autora
señaló sobre peligros ineludibles relacionados con las respuestas
imprevisibles y la confidencialidad. Recordó que la
ausencia de regulaciones estrictas comparables a las de los terapeutas
tradicionales expone a los usuarios.
Riesgos y controversias:
fallos, privacidad y límites éticos
Las advertencias sobre la
terapia asistida por IA se agudizan al considerar las experiencias y el
análisis de otros expertos. Daniel Oberhaus, quien perdió a su
hermana menor por suicidio, exploró en su libro la paradoja del “fenotipado
digital”: mientras la huella tecnológica podría ofrecer pistas útiles para
intervenciones tempranas, también podría acentuar la incertidumbre en
psiquiatría.
El escritor planteó: “¿Y
si las señales digitales complican aún más la comprensión del origen del
sufrimiento?”. Fue así que alertó sobre el “asilo algorítmico”,
fenómeno en el que los usuarios sacrifican privacidad de datos de salud mental
al compartir información sensible con modelos que las empresas
utilizan y rentabilizan.
“La lógica de la inteligencia artificial
psiquiátrica lleva hacia un futuro en el que todos podríamos quedar atrapados
bajo vigilancia digital, sin posibilidad de escape”, sostuvo Oberhaus.
La opacidad de los
sistemas de IA —a menudo descritos como “cajas negras” tanto por la medicina
como la tecnología— complica aún más el dilema ético y clínico. Las respuestas
dañinas reportadas y la imposibilidad de auditar el funcionamiento real de
estos modelos alimentan la preocupación en la comunidad profesional.
Mercantilización con
debates económicos
Junto al plano clínico y
ético, la comercialización de la terapia digital añade nuevas tensiones. El
investigador Eoin Fullam, en su libro citado por MIT
Technology Review, examinó cómo el modelo de negocio tras los terapeutas de
IA convierte al usuario en fuente de datos y objeto de
explotación comercial.
“Cuanto mayor es el
beneficio que percibe el usuario, mayor es el grado de explotación que
experimenta”, advirtió Fullam. La mercantilización de la salud mental se
evidencia en la proliferación de aplicaciones premium.
Desafíos de futuro: ¿el
fin de la terapia tradicional?
El debate sobre
reemplazar a terapeutas humanos y las consecuencias de depender cada vez más de
aplicaciones de IA se posiciona entre los temas más controvertidos del momento.
Según el análisis
de MIT Technology Review, especialistas como Oberhaus advirtieron
que el uso indistinto de estos sistemas podría acentuar las limitaciones
estructurales de la psiquiatría, además del riesgo de que se atrofien las
habilidades clínicas humanas.
Estos desafíos —que
afectan la autonomía de los usuarios y homogeneizan los procesos terapéuticos—
enfrentan a la comunidad internacional con el reto de equilibrar los avances
tecnológicos y el respeto por la dimensión ética y humana de la psicología.
El avance de los
terapeutas de inteligencia artificial, documentado y analizado por MIT
Technology Review, reveló un giro de fondo en el modelo asistencial, donde
la búsqueda de respuestas inmediatas podría dejar de lado formas de
acompañamiento vitales para quienes enfrentan dificultades emocionales.
No hay comentarios:
Publicar un comentario