Terapia por chat: ¿y si contarle TODO a la IA no fuera tan seguro?

¿Es la IA una aliada confiable para el bienestar emocional o un riesgo silencioso? Desde aplicaciones que ofrecen respuestas empáticas hasta chatbots que simulan sesiones terapéuticas, cada vez más personas —especialmente jóvenes— recurren a la inteligencia artificial para hablar de lo que sienten. La promesa de apoyo 24/7, sin juicios ni costos, resulta tentadora. Pero, ¿qué pasa con la privacidad, la calidad del acompañamiento y el impacto en nuestra salud mental? La tecnología avanza más rápido que la regulación… y eso tiene consecuencias.

 

Una epidemia silenciosa: IA y salud mental

 

Según el reciente informe “2025 Top-100 Generative AI Use Case Report” de Harvard Business Review, la IA generativa ha transformado la vida cotidiana de millones, pero el mayor uso no es la productividad: el foco está en lo humano. Según las estadísticas, cada vez más acudimos a la inteligencia artificial para que nos ayude con temas intrínsecamente humanos como el desarrollo emocional y la búsqueda de sentido.

 

Los 10 principales usos de la IA generativa en 2025 

 
  1. Terapia y acompañamiento emocional: desahogo y apoyo. Este es el principal uso que se le da a ChatGPT en 2025. 

Una paradoja de impacto. Algo debemos estar haciendo muy mal como sociedad para que la inteligencia artificial —una herramienta sin emociones, sin empatía real, sin experiencia humana— se haya convertido en el refugio emocional de millones de personas.

¿Qué nos dice esto sobre el acceso a la salud mental? ¿Sobre los vínculos humanos? ¿Sobre la soledad? 

Sumado a que en Argentina, el costo de ir al psicólogo no para de aumentar, al igual que los productos y servicios de la cotidianeidad, lo que hace que sostener un proceso terapéutico semanal sea inalcanzable para una gran parte de la población. En muchos casos, incluso quienes ya estaban en tratamiento tuvieron que dejarlo por cuestiones económicas. Ante esta barrera de acceso, la inteligencia artificial aparece como una alternativa “gratuita” o de bajo costo, siempre disponible, sin turnos ni demoras. Pero el riesgo está en confundir accesibilidad con efectividad, y espejismos emocionales con terapia real.

  1. Organización de la vida cotidiana: Ayuda para planificar y gestionar tareas diarias.
  2. Búsqueda de sentido y crecimiento personal: Explorar valores, fijar metas y superar obstáculos.

     

  3. Apoyo educativo: Refuerzo del aprendizaje y planes personalizados.

     

  4. Asesoramiento en estilos de vida: Recomendaciones para dietas, ejercicio y bienestar.

     

  5. Diseño de planes de estudio personalizados: Adaptados a las necesidades de cada usuario.

     

  6. Creación de itinerarios de viaje detallados: Planificación al alcance de un click.

     

  7. Asesoramiento para apelar infracciones: Ayuda en procesos legales o administrativos.

     

  8. Elección de dietas equilibradas: Orientación nutricional personalizada.

     

  9. Generación automática de contenido: Para redes sociales y marketing personal.
 

Tus conversaciones con ChatGPT pueden salir en Google 

Aunque la IA abre puertas increíbles, también trae desafíos. Por ejemplo, algunos usuarios reconocen volverse dependientes, dejando de lado su propio juicio. Además, la falta de regulación y supervisión clínica puede agravar problemas emocionales o comprometer la privacidad.

Un caso reciente que encendió las alarmas fue la filtración de miles de conversaciones sensibles de ChatGPT, accesibles por Google debido a un error en la configuración de privacidad. 

Literalmente durante algunas horas, mientras ChatGPT trabajaba en una actualización, las conversaciones con ChatGPT que se habían compartido (por ejemplo, cuando compartes una conversación de ChatGPT con un amigo, se crea un link a esa conversación) y esos links se indexaron en Google. Es decir que si buscabas en Google te salían estas conversaciones. 

Esto no solo es un golpe a la confianza, sino que también representa un enorme riesgo de vulnerabilidad tanto de la privacidad como de la salud mental de los usuarios que se vieron expuestos.

 

¿Y la privacidad? Lo que contás a la IA puede ser usado en tu contra

 

Una de las principales diferencias entre hablar con una persona y hacerlo con un chatbot es el nivel de protección legal de la conversación. Mientras que una sesión con un psicólogo está amparada por el secreto profesional, los intercambios con una inteligencia artificial no lo están.

Esto tiene implicancias directas:

  • Las conversaciones con IA pueden ser accedidas por terceros en ciertas circunstancias legales.

     

  • En caso de un juicio, por ejemplo, tus chats con herramientas como ChatGPT pueden ser presentados como prueba, ya que no están protegidos ni encriptados como una comunicación terapéutica tradicional.

     

  • Además, OpenAI no permite borrar definitivamente las conversaciones. Aunque podés eliminarlas de tu historial, la empresa mantiene una copia para entrenamiento del modelo (salvo que se desactive esa opción, pero aún así no es inmediato ni completamente claro qué se retiene).

     

En mayo de 2024, Sam Altman, CEO de OpenAI, reconoció que este es un punto débil de su tecnología y afirmó que está presionando para que los usuarios puedan tener mayor control sobre sus datos y eliminarlos de forma permanente. Pero, por ahora, eso no ocurre.

Todo esto refuerza una idea clave: la IA puede ofrecer apoyo emocional, pero no reemplaza la seguridad, contención ni confidencialidad de una terapia profesional.

 

¿Para qué usás vos la IA?

La tecnología ya forma parte de nuestra vida emocional y cotidiana. Pero la pregunta clave es: ¿la usás para acompañarte, organizarte, buscar respuestas o para todo eso y más? ¿Sos consciente de sus límites y riesgos?

El futuro de la terapia por IA dependerá de cómo equilibremos sus beneficios con la responsabilidad ética, la protección de datos y la complementariedad con la atención humana.

 

Fuentes principales

Suscribite para recibir nuestras novedades

Contacto

fundacioninnova.info@gmail.com