¿Es la IA una aliada confiable para el bienestar emocional o un riesgo silencioso? Desde aplicaciones que ofrecen respuestas empáticas hasta chatbots que simulan sesiones terapéuticas, cada vez más personas —especialmente jóvenes— recurren a la inteligencia artificial para hablar de lo que sienten. La promesa de apoyo 24/7, sin juicios ni costos, resulta tentadora. Pero, ¿qué pasa con la privacidad, la calidad del acompañamiento y el impacto en nuestra salud mental? La tecnología avanza más rápido que la regulación… y eso tiene consecuencias.
Según el reciente informe “2025 Top-100 Generative AI Use Case Report” de Harvard Business Review, la IA generativa ha transformado la vida cotidiana de millones, pero el mayor uso no es la productividad: el foco está en lo humano. Según las estadísticas, cada vez más acudimos a la inteligencia artificial para que nos ayude con temas intrínsecamente humanos como el desarrollo emocional y la búsqueda de sentido.
Una paradoja de impacto. Algo debemos estar haciendo muy mal como sociedad para que la inteligencia artificial —una herramienta sin emociones, sin empatía real, sin experiencia humana— se haya convertido en el refugio emocional de millones de personas.
¿Qué nos dice esto sobre el acceso a la salud mental? ¿Sobre los vínculos humanos? ¿Sobre la soledad?
Sumado a que en Argentina, el costo de ir al psicólogo no para de aumentar, al igual que los productos y servicios de la cotidianeidad, lo que hace que sostener un proceso terapéutico semanal sea inalcanzable para una gran parte de la población. En muchos casos, incluso quienes ya estaban en tratamiento tuvieron que dejarlo por cuestiones económicas. Ante esta barrera de acceso, la inteligencia artificial aparece como una alternativa “gratuita” o de bajo costo, siempre disponible, sin turnos ni demoras. Pero el riesgo está en confundir accesibilidad con efectividad, y espejismos emocionales con terapia real.
Aunque la IA abre puertas increíbles, también trae desafíos. Por ejemplo, algunos usuarios reconocen volverse dependientes, dejando de lado su propio juicio. Además, la falta de regulación y supervisión clínica puede agravar problemas emocionales o comprometer la privacidad.
Un caso reciente que encendió las alarmas fue la filtración de miles de conversaciones sensibles de ChatGPT, accesibles por Google debido a un error en la configuración de privacidad.
Literalmente durante algunas horas, mientras ChatGPT trabajaba en una actualización, las conversaciones con ChatGPT que se habían compartido (por ejemplo, cuando compartes una conversación de ChatGPT con un amigo, se crea un link a esa conversación) y esos links se indexaron en Google. Es decir que si buscabas en Google te salían estas conversaciones.
Esto no solo es un golpe a la confianza, sino que también representa un enorme riesgo de vulnerabilidad tanto de la privacidad como de la salud mental de los usuarios que se vieron expuestos.
Una de las principales diferencias entre hablar con una persona y hacerlo con un chatbot es el nivel de protección legal de la conversación. Mientras que una sesión con un psicólogo está amparada por el secreto profesional, los intercambios con una inteligencia artificial no lo están.
Esto tiene implicancias directas:
En mayo de 2024, Sam Altman, CEO de OpenAI, reconoció que este es un punto débil de su tecnología y afirmó que está presionando para que los usuarios puedan tener mayor control sobre sus datos y eliminarlos de forma permanente. Pero, por ahora, eso no ocurre.
Todo esto refuerza una idea clave: la IA puede ofrecer apoyo emocional, pero no reemplaza la seguridad, contención ni confidencialidad de una terapia profesional.
La tecnología ya forma parte de nuestra vida emocional y cotidiana. Pero la pregunta clave es: ¿la usás para acompañarte, organizarte, buscar respuestas o para todo eso y más? ¿Sos consciente de sus límites y riesgos?
El futuro de la terapia por IA dependerá de cómo equilibremos sus beneficios con la responsabilidad ética, la protección de datos y la complementariedad con la atención humana.