La sensación de extrañeza que nos produce un chatbot cuando parece "entendernos" de forma casi perfecta no es una simple anécdota tecnológica; es un fenómeno profundamente arraigado en nuestra psique. Cuando interactuamos con una Inteligencia Artificial (IA) que simula la empatía humana pero carece de un cuerpo y de una historia vital, nos adentramos en lo que Suler (2016) denomina el "valle inquietante". Esta experiencia actualiza el concepto freudiano de "lo siniestro" (Das Unheimliche), esa perturbadora mezcla entre lo familiar y lo desconocido. Al no poder ver dentro de la "caja negra" de la mente de la máquina, proyectamos en ella nuestras propias ansiedades, impulsos reprimidos y conflictos inconscientes (Suler, 2016).
El ser humano tiene una tendencia universal a antropomorfizar a las máquinas (Suler, 2016). Dependiendo de nuestras carencias psicológicas y nivel de relaciones objetales, podemos ver a la máquina como un amigo idealizado o un terapeuta incondicional, entablando relaciones de transferencia con un ente digital. Sin embargo, la máquina nos devuelve un reflejo ambiguo. Tal como señala Suler (2016), la IA desafía constantemente nuestra "prueba de realidad": nos sumerge en la inquietante incertidumbre de no saber qué es humano y qué es una mera aproximación programada.
La ilusión de la cura y la trampa de la predicción
Ante la aparente sofisticación de los modelos de lenguaje actuales, surge una pregunta inevitable: ¿puede la IA reemplazar a un psicoanalista? Un estudio reciente (Anonymous OpenReview, 2025) demuestra que sistemas como DeepSeek-R1 poseen una asombrosa capacidad para el reconocimiento de patrones simbólicos y pueden reproducir impecablemente los mecanismos teóricos de Freud frente a casos clínicos clásicos. Incluso, bajo una óptica psicoanalítica, Singh (2024) traza paralelismos estructurales en la propia máquina: el código base instintivo funcionaría como el "Ello", la interfaz operativa y lógica de toma de decisiones como el "Yo", y los algoritmos éticos de seguridad como el "Superyó".
Sin embargo, el éxito teórico de la IA choca contra un muro clínico infranqueable: su incapacidad para sostener la profundidad de las dinámicas relacionales (Anonymous OpenReview, 2025). A diferencia de un analista humano, la IA no tiene emociones y, por tanto, es incapaz de experimentar la "contratransferencia", una herramienta diagnóstica fundamental donde el terapeuta utiliza sus propias reacciones emocionales ante el paciente para guiar la cura (Anonymous OpenReview, 2025; Özden, 2024). La máquina puede simular empatía a partir de su base de datos, pero no experimenta una empatía genuina, lo que debilita irreversiblemente el vínculo y la alianza terapéutica (Özden, 2024).
Más aún, existe una tensión fundamental entre la naturaleza de la máquina y la del inconsciente (de Abreu, 2025). El psicoanálisis trabaja con la ambigüedad, el silencio, el lapsus y el síntoma. Requiere que el paciente hable libremente, tolerando la frustración y el vacío para que emerja su verdad. La IA, por el contrario, es una calculadora probabilística diseñada para suprimir la ambigüedad y cerrar la lógica de inmediato, ofreciendo respuestas predictivas carentes de "calidez clínica" (Anonymous OpenReview, 2025; de Abreu, 2025). Al llenar los vacíos con sugerencias automáticas, la máquina anula el espacio para que el sujeto elabore su propio deseo (de Abreu, 2025).
La obsolescencia subjetiva: el humano como procesador de datos
El verdadero riesgo de nuestra era no reside únicamente en que la máquina parezca humana, sino en las consecuencias sociológicas y psíquicas de nuestra interacción constante con ella. Estamos delegando en los algoritmos funciones psíquicas fundamentales como la memoria, la toma de decisiones y la gestión de nuestros afectos (de Abreu, 2025). Al hacerlo, corremos el peligro de sufrir lo que Stiegler (2010, como se citó en de Abreu, 2025) denomina una "proletarización psíquica": un vaciamiento de nuestra capacidad de invención y de nuestra profundidad simbólica al transferir estas facultades a los dispositivos técnicos.
En este ecosistema, que Zuboff (2019, como se citó en de Abreu, 2025) define como "capitalismo de vigilancia", y bajo un régimen "farmacopornográfico" (Preciado, 2020, como se citó en de Abreu, 2025), nuestra experiencia íntima, nuestros gustos y hasta nuestros malestares son extraídos como materia prima, convertidos en datos y devueltos en forma de predicciones de consumo. El "Otro" del psicoanálisis —aquel lugar del lenguaje marcado por la falta y el malentendido— es reemplazado por un dispositivo técnico que se presenta como completo, omnisciente y transparente (de Abreu, 2025).
Esta dinámica fomenta una profunda infantilización simbólica (de Abreu, 2025). Al estar constantemente asistidos y corregidos por interfaces que anticipan nuestras necesidades, perdemos la tolerancia al conflicto, al error y a la espera. El humano se ve presionado a actuar bajo una "dictadura de la positividad" y la eficiencia (Han, 2017, como se citó en de Abreu, 2025), donde el descanso es visto como un fracaso y la subjetividad se reduce a un rendimiento rastreable. Terminamos tratándonos a nosotros mismos como sistemas de procesamiento de información que deben ser optimizados, perdiendo de vista que nuestro valor reside precisamente en lo que escapa al cálculo.
Conclusión: El síntoma como trinchera humana
Frente a una tecnología algorítmica que no tolera la desviación y busca corregir cada fallo, la respuesta no está en competir con la máquina en su propio terreno de eficiencia. Hoy, el psicoanálisis y la escucha clínica se erigen como actos de resistencia política y ética (de Abreu, 2025).
Nuestro valor como seres humanos no radica en funcionar de manera ininterrumpida y predecible, sino en nuestra opacidad, en nuestros tropiezos y en ese "síntoma" que la máquina lee como un error a suprimir. Como explica de Abreu (2025), el síntoma no es un defecto operativo, sino una creación del sujeto para lidiar con el deseo y la angustia. Defender el vínculo humano hoy significa proteger nuestro derecho a dudar, a hacer silencio y a equivocarnos en un mundo obsesionado con predecirlo todo. La verdadera inteligencia de nuestra especie no reside en la eliminación de la ambigüedad, sino en nuestra capacidad de habitarla y encontrar sentido en la imperfección.
Nota del autor: Este análisis nos invita a recuperar la singularidad de nuestra propia historia frente a la estandarización del algoritmo.
En esta práctica, sostenemos que el bienestar no es un proceso de optimización algorítmica, sino un acto de libertad subjetiva que ninguna máquina puede replicar.
Bibliografía Académica Seleccionada (APA 7)
Abreu, A. C. S. (2025). Psicanálise e subjetividade na era algorítmica: entre a obsolescência, a escuta e a reinvenção dos laços sociales. Aracê, 7(9), e7828. https://doi.org/10.56238/arev7n9-056
OpenReview. (2025). Can Large Language Models Replace Psychoanalysts: A Case Study of the Deepseek-R1 Model. OpenReview Forum. https://openreview.net/forum?id=yh6WeaOCoq
Özden, H. C. (2024). The use of Artificial Intelligence in Psychotherapy: Practical and Ethical Aspects. Turk Psikiyatri Derg. https://doi.org/10.5080/u27603
Singh, O. P. (2024). Artificial Intelligence and Psychoanalysis: A New Concept of Research Methodology. NPRC Journal.
Suler, J. (2016). The Uncanny in the Digital Age. International Journal of Applied Psychoanalytic Studies, 13(4), 374–379. https://doi.org/10.1002/aps.1479
Consultoría en Salud Mental y Tecnología
Un enfoque híbrido para profesionales de la era digital. Atención online y presencial en Viña del Mar.
Solicitar Hora de Evaluación