¿Puede la inteligencia artificial ser tu psicólogo?

5
Rodrigo VargasFoto de
04 de octubre 2025
  • Imagen generada con IA

Cada vez más personas en México y en el mundo conversan con herramientas de inteligencia artificial (IA) como si fueran un psicólogo: comparten sus emociones, piden consejos o buscan desahogo en chatbots que simulan empatía

Para muchos, resulta atractivo tener “un oído” disponible las 24 horas, sin costo alguno y sin la incomodidad que a veces genera hablar con un desconocido en consulta. Sin embargo, esta práctica trae consigo riesgos importantes que no siempre son visibles.

Cuando la IA se convierte en confidente

Las aplicaciones de bienestar, asistentes virtuales o chatbots emocionales ofrecen acompañamiento inmediato y, en algunos casos, técnicas de relajación o consejos básicos. 

En un país como México, donde una sesión de terapia privada puede costar entre $500 y $2,000 pesos y la disponibilidad de especialistas es limitada (se estima que hay un psicólogo por cada 3,000 habitantes), no sorprende que muchas personas recurran a estas herramientas digitales como sustituto temporal.

Aunque es comprensible este recurso, existen riesgos importantes al utilizar estas herramientas: 

  1. Falsa sensación de seguridad: Un chatbot puede responder con frases de apoyo, pero no tiene criterio clínico. Esto puede retrasar la búsqueda de ayuda profesional ante síntomas graves.
  2. Errores y sesgos: Los modelos de IA se entrenan con datos generales, la mayoría de otros contextos culturales. Esto significa que pueden ofrecer respuestas inadecuadas o que minimicen la experiencia del usuario mexicano.
  3. Falta de empatía real: Aunque simule comprensión, la IA no tiene experiencias humanas ni puede interpretar matices complejos de la vida personal o familiar.
  4. Privacidad y confidencialidad: Compartir información íntima en plataformas digitales conlleva riesgos: no siempre es claro cómo se usan o almacenan esos datos.

La IA sí puede aprovecharse de manera responsable como herramienta complementaria valiosa, siempre que se entienda su rol y sus límites:

  1. Apoyo entre sesiones: usarla para practicar técnicas de respiración, mindfulness o llevar un registro del estado de ánimo.
  2. Acceso inmediato: en momentos de estrés cotidiano, puede servir como recurso rápido de contención emocional.
  3. Psicoeducación: muchas apps ofrecen información clara y sencilla sobre ansiedad, depresión y autocuidado.

Lo importante es verla como complemento, nunca como reemplazo de un psicólogo o psiquiatra.

Aquí, algunas señales de que necesitas ayuda humana:

  1. Pensamientos suicidas o de autolesión
  2. Síntomas que interfieren con tu trabajo, relaciones o sueño
  3. Crisis emocionales intensas o persistentes
  4. Sensación de que la IA no comprende tu contexto

En estos casos, lo mejor es acudir con un profesional de la salud mental. En México, puedes llamar a SAPTEL 55-5259-8121 (24/7) o al 911 en emergencias.

La IA puede ser una aliada práctica en nuestro día a día, pero no es, ni debe ser, un sustituto de la terapia profesional. Tratarla como “psicólogo digital” puede generar riesgos graves; aprovecharla como complemento, en cambio, puede enriquecer una terapia tradicional y ayudar a cuidar nuestra salud mental de manera más accesible.

La tecnología es una herramienta poderosa, pero la calidez, el criterio y la experiencia humana siguen siendo insustituibles.



El contenido de este texto es responsabilidad de la persona que lo escribe.
- - -

Ingresa tus datos para emitir tu voto.

Este campo es requerido
Este campo es requerido
  • psicologo
  • IA
Foto de
Escrito por Rodrigo Vargas

Rodrigo Vargas es consultor en ciberseguridad y privacidad con más de 12 años de experiencia ayudando a organizaciones a fortalecer su cumplimiento normativo, adoptar buenas prácticas y enfrentar riesgos en seguridad y protección de datos personales

www.linkedin.com/in/rvargasp


No existen comentarios.
¡Sé el primero en comentar!
Este campo es requerido
Este campo es requerido
Este campo es requerido