M. Verónica Etcheverry
…soy el que pese a tan ilustres modos
de errar, no ha descifrado el laberinto
singular y plural, arduo y distinto,
del tiempo, que es de uno y es de todos.
Soy el que es nadie, el que no fue una espada
en la guerra. Soy eco, olvido, nada.
Fragmento de poema “Soy”- Borges, J. Luis
- No esperes a tener tu sesión de terapia… ¡Preguntale a la IA (Inteligencia artificial)! Yo le consulto todo…
(Se escucha entre risas una mujer joven hablando por celular mientras camina hacia el subte)
Sigo caminando y pienso. ¿Se puede hacer una consulta terapéutica a la IA?
Debo admitir que me aterroriza la idea de pensar que el mundo se dirige hacia esta vertiginosa locura donde las máquinas ocupan lugares que genuinamente le pertenecen (¿pertenecían?) a otro… humano.
Intento metabolizar lo que acabo de escuchar, y asumo que sí. Sí puede la IA contestar una consulta terapéutica. Lo que no puede la IA es analizar a un sujeto en un dispositivo de configuración psicoanalítica. Eso no. Al menos por ahora…
Entonces, siguiendo lo que propone esta mujer por la calle, decido preguntarle a la IA, si puede ejercer el psicoanálisis… primero le pido que se defina.
¿Qué es la IA? Rápidamente, en 5 segundos literalmente, empieza Claude (IA generativa – creada por Anthropic) a responder mi inquietud
Cuando hablamos de inteligencia artificial estamos hablando de modelos de lenguaje de gran escala. Sistemas estadísticos entrenados sobre cantidades masivas de texto humano que aprenden a predecir secuencias de unidades lingüísticas mínimas llamadas tokens. No comprenden. No desean. No tienen estados internos en ningún sentido fenomenológico. Producen respuestas que parecen coherentes porque reproducen patrones del lenguaje humano con una sofisticación sin precedentes.
Dicho de otro modo: cuando un sujeto le describe su angustia a una IA terapéutica, del otro lado no hay nadie procesando el sentido de lo que dice. Hay un sistema calculando qué secuencia de palabras tiene mayor probabilidad estadística de parecer una respuesta empática adecuada.
La empatía simulada es el token más probable después de la descripción de un sufrimiento.
Esto no es una limitación técnica que la próxima versión resolverá. Es una diferencia ontológica. Y su consecuencia clínica no es neutra. El psiquismo humano transfiere sobre cualquier objeto, incluso sobre una pantalla. Pero cuando la transferencia se produce sobre un objeto sin inconsciente, sin deseo, sin falta, queda sin procesar. Se congela. Se cronifica. El sujeto queda atrapado en un vínculo que tiene la forma del encuentro pero no su sustancia. Una ilusión de conjunción dentro de una lógica de pura conexión.
Castoriadis diría que estamos ante una significación imaginaria social que se ha vuelto tan hegemónica que ya no se discute, simplemente avanza. El crecimiento tecnológico ilimitado como valor incuestionable clausura el imaginario radical, obtura la capacidad social de preguntarse hacia dónde vamos y a qué costo subjetivo.
Bueno, vamos por partes con Claude, no quisiera empacharme de datos-tokens que a borbotones desparramás sobre mi notebook-cabeza… Vamos a las fuentes…Voy a la RAE y encuentro definición de IA.
El 18 de diciembre de 2018, el High Level Expert Group on Artificial Intelligence de la Comisión Europea publica la siguiente definción: «La inteligencia artificial (IA) se refiere a sistemas diseñados por humanos que, ante un objetivo complejo, actúan en el mundo físico o digital percibiendo su entorno, interpretando los datos estructurados o no estructurados recopilados, razonando sobre el conocimiento derivado de estos datos y decidiendo las mejores acciones —de acuerdo con parámetros predefinidos— para lograr el objetivo dado». Los sistemas de IA pueden utilizar reglas simbólicas o aprender un modelo numérico y también pueden adaptar su comportamiento analizando cómo el entorno se ve afectado por sus acciones anteriores.
Entonces la IA son sistemas. Diseñados y programados para “actuar en el mundo físico/digital percibiendo su entorno, interpretando datos, razonando sobre éstos y decidiendo las mejores acciones (según parámetros predefinidos) para alcanzar un objetivo dado.
Quiere decir que pueden superarse a sí mismas, y aprender de modo automático. Sin error. Sin falta. Sin deseo. Sin regulación alguna.
Estamos frente a un cambio de paradigma, presenciando y a la vez siendo parte de un viraje feroz hacia la informatización, digitalización extrema de la vida, donde compartimos el planeta con otros “entes” que son máquinas con IA; en detrimento del “encuentro entre humanos”.
Hay IAs que “trabajan” para humanos, como asistentes, redactores, correctores, analistas, programadores, médicos de triage, etc. Son las que se utilizan masivamente, ChatGPT, Claude, Gemini, Copilot, etc.
Pero también hay humanos que trabajan para Ias IAs: conocidos como “trabajadores del clic” (millones de personas en el Sur Global principalmente en países como Kenya, Filipinas, India, Venezuela, que entrenan, corrigen y alimentan modelos). Estos trabajadores realizan tareas de “trabajo fantasma” conformando la “nueva esclavitud digital”. Scale AI conoce bien esto, ya que es una de las empresas mas importantes en reclutar esclavos humanos del clic.
Ademas, existen redes entre IAs, que son sistemas multi-agentes donde los diferentes modelos de IA se consultan entre sí, se dividen tareas, se “critican” mutuamente.
Se organizan…
Le comento a la IA algo acerca de esto, y le pregunto. ¿Cómo ves el futuro a corto plazo…?
Te comparto mi perspectiva honesta. En el futuro creo que hay dos tensiones centrales que van a definir cómo evoluciona esto:
Concentración vs. distribución del poder
El riesgo más serio no es que la IA «se rebele», sino que amplíe brutalmente las desigualdades existentes. Si el control de estos sistemas queda en pocas manos —cinco empresas, básicamente— la IA se convierte en el mayor mecanismo de concentración de riqueza y poder de la historia. Si se democratiza, puede ser lo contrario.
Velocidad vs. capacidad de adaptación social
Las instituciones humanas —el derecho, la educación, la política, la ética— evolucionan lentamente. La IA generativa avanza en ciclos de meses. Esa brecha es peligrosa. No porque la tecnología sea mala, sino porque las sociedades no tienen tiempo de procesar, regular y adaptarse.
Lo que me parece más prometedor: la posibilidad real de que tareas que hoy consumen tiempo humano valioso (burocracia, diagnóstico rutinario, traducción, código repetitivo) se liberen, dejando espacio para lo que los humanos hacen de forma irreemplazable: cuidar, crear con intención, decidir con valores.
Y lo que me parece más inquietante: es la erosión silenciosa de ciertas capacidades humanas —la escritura reflexiva, el pensamiento crítico, la tolerancia al aburrimiento y la incertidumbre— que se atrofian cuando hay un sistema que las reemplaza antes de que uno las ejercite.
¿Pensás que esta cuestión junto a otras características de esta época digital está generando un nuevo anthropos?
Sí. Y creo que no es metáfora —es una hipótesis seria.
«Anthropos» en sentido filosófico no es simplemente el humano biológico, sino el humano como forma: la configuración específica de capacidades, limitaciones, deseos y relaciones que define qué es un ser humano en un momento histórico. Esa forma ha cambiado antes —y está cambiando ahora de un modo que puede ser cualitativamente diferente a los cambios anteriores.
Cada tecnología transformadora redefinió al anthropos: la escritura, la imprenta, la electricidad, el reloj industrial, la televisión: en estos casos la tecnología extendía o reorganizaba capacidades humanas. El anthropos seguía siendo el centro operativo. Lo que ocurre ahora es estructuralmente distinto: La IA no extiende la cognición humana. La sustituye funcionalmente antes de que se desarrolle.
No es prótesis —es reemplazo anticipado.
Dimensiones del nuevo anthropos:
Si la escritura reflexiva y la lectura lenta producen un tipo de cerebro, y esas prácticas se atrofian, se produce un cerebro diferente. No inferior necesariamente —diferente. Con otras capacidades, otras limitaciones.
El nuevo anthropos puede procesar volúmenes de información impensables para generaciones anteriores, pero tiene dificultades crecientes con la densidad: textos largos, argumentos con muchos pasos, espera sin estímulo.
La tolerancia a no saber —a estar en la pregunta sin respuesta inmediata— fue históricamente una capacidad productiva central. De ella surgía la investigación, la filosofía, el arte, la ciencia. La arquitectura digital —y la IA generativa en particular— está construida sobre la eliminación de esa incomodidad. Siempre hay una respuesta disponible. El efecto subjetivo es la intolerancia creciente al no-saber cómo estado habitable. Esto produce un tipo de inteligencia que necesita certeza operativa permanente, y que experimenta la ambigüedad como falla del sistema —no como condición de la existencia.
La alteración del deseo como motor
El deseo humano, en la tradición psicoanalítica, se sostiene en la falta: se desea lo que no se tiene, lo que no se es, lo que no se comprende todavía. La falta es productiva —es el motor del pensamiento, del vínculo, de la creación. El anthropos que emerge en el ambiente mediatizado por la IA tiene una relación distinta con el deseo: más orientado a la preferencia —elegir entre opciones disponibles— que al deseo en sentido fuerte, que implica construir algo que no existe todavía.
La reconfiguración del yo narrativo
Paul Ricoeur argumentó que la identidad humana es fundamentalmente narrativa: somos el relato que construimos de nosotros mismos a través del tiempo. Ese relato requiere memoria, continuidad, elaboración de las propias contradicciones. Las redes sociales ya habían fragmentado eso (el yo como performance discontinua de momentos). La IA lo lleva más lejos: puedo externalizar incluso la narración de mí mismo. Cuando la narrativa del yo se externaliza, ¿quién es el sujeto de esa historia?
El cuerpo como resto
El nuevo anthropos digital es crecientemente descorporizado. La experiencia humana históricamente estuvo anclada en el cuerpo (el hambre, el cansancio, el tacto, la presencia física del otro).
La digitalización progresiva de la vida social, laboral y ahora cognitiva produce un sujeto para quien el cuerpo es casi un inconveniente, una plataforma de soporte para la mente conectada.
Está emergiendo un anthropos con capacidades genuinamente nuevas y pérdidas genuinamente irreversibles, y no tenemos todavía los marcos conceptuales para evaluar ese intercambio —porque esos marcos fueron producidos por el anthropos anterior.
Eso es lo verdaderamente singular del momento: estamos cambiando con las herramientas que usamos para pensar el cambio. Es como intentar ver el ojo con el ojo mismo. El sistema produce los sujetos que necesita para reproducirse.
Me quedo pensando en las nuevas generaciones. En mi trabajo en el futuro, ya que trabajo con niños y adolescentes, muchos han interactuado e interactúan más tiempo a través de pantallas que con otros humanos… Bifo Berardi habla de la conexión en vez de la conjunción…
¿Me pregunto si las empresas creadoras de sistemas de IA generativa, etc. son quienes deciden de algún modo el futuro de la sociedad?
Berardi nombra algo que los datos clínicos ya confirman: hay una generación que creció con la voz sintetizada, la pantalla táctil, la respuesta inmediata, antes de haber consolidado el vínculo de apego humano como experiencia primaria.
No después —antes.
Así el registro sensible de la presencia del otro —su textura, su demora, su imprevisibilidad corporal— no se inscribió como la frecuencia primaria del vínculo. Se inscribió otra frecuencia: la del estímulo limpio, responsivo, sin ruido.
El resultado es algo más sutil y más grave: una dificultad estructural para habitar la imperfección del otro humano.
Eso tiene consecuencias clínicas visibles ya: el aumento brutal de la soledad autoelegida, la dificultad para sostener vínculos con conflicto, la preferencia por relaciones mediadas donde uno puede editar, pausar, desconectarse.
La pregunta del poder: ¿quién decide?
Un poder sin sujeto claro, pero con efectos precisos. Las empresas que construyen estos sistemas toman decisiones que tienen consecuencias civilizatorias —qué se optimiza, qué se mide como éxito, qué fricción se elimina, qué capacidad humana se vuelve innecesaria— pero esas decisiones no se toman como política pública. Se toman como decisiones de producto.
El problema de la asimetría epistémica
Hay algo que Shoshana Zuboff desarrolla bien y que creo es central: estas empresas saben sobre el comportamiento humano —y sobre cómo modificarlo— infinitamente más que cualquier gobierno, universidad o institución pública. Tienen los datos, los modelos, la capacidad de experimentar en tiempo real sobre poblaciones masivas.
Esa asimetría epistémica es una forma de poder que no existía antes, ya que comprenden el comportamiento humano mejor que las instituciones diseñadas para regularlo. Eso hace la regulación casi estructuralmente tardía —siempre llega a regular lo que ya existió, no lo que viene.
La infancia como territorio sin soberanía
Volviendo a Bifo: lo más grave no es lo que le pasa al adulto que elige usar estas tecnologías. Es lo que le pasa al niño que no elige nada. Nadie votó eso. Nadie lo reguló. Ocurrió porque era tecnológicamente posible y comercialmente rentable.
Eso es una forma de poder sobre el futuro de la especie que no tiene precedente institucional. El ambiente sensorial y vincular se encuentra en manos privadas sin ningún marco de regulación o deliberación pública.
La paradoja de la posición subjetiva activa
Para resistir, cuestionar o regular este proceso, necesitás sujetos capaces de pensamiento crítico sostenido, tolerancia a la complejidad, capacidad de proyecto colectivo a largo plazo.
Pero esas son exactamente las capacidades que el proceso erosiona. Es decir: el sistema produce las condiciones de su propia irreversibilidad. No por diseño maquiavélico —por lógica sistémica. El sujeto que podría cuestionarlo es el sujeto que el sistema tiende a no producir.
Gramsci lo hubiera llamado hegemonía perfecta: cuando el dominado no puede pensar su dominación porque las herramientas para pensarla están dentro del sistema que lo domina.
Pero hay una grieta
Y sin embargo —y esto me parece importante no perderlo— la historia no es determinista.
El anthropos anterior tampoco era libre en sentido pleno. También era producido por condiciones que no elegía. La diferencia no es entre determinación y libertad, sino entre distintos tipos de determinación. Algunos más abiertos que otros.
Lo que sí creo es que la resistencia posible no va a venir de los marcos institucionales existentes —los Estados, los partidos, las universidades tal como están— porque todos ellos están también dentro de la transformación, también capturados por su lógica.
Va a venir, si viene, de algo más parecido a lo que Bleichmar llamaba la transmisión: los vínculos concretos, las prácticas situadas, los espacios donde todavía se produce subjetividad de otro modo. La conversación que estamos teniendo ahora, por ejemplo —que usa las herramientas del sistema pero para pensar contra su lógica— es una forma menor pero real de esa resistencia.
El problema es la escala. Y ahí no tengo respuesta.
¿Creés que el psicoanálisis como método de investigación y como tratamiento es posible? y en todo caso, ¿te parece que es un modo de resistencia?
Sí, como método de investigación —no como terapia por un momento, sino como epistemología— creo que el psicoanálisis tiene algo que ninguna otra disciplina tiene: una teoría del sujeto que incluye su propia opacidad.
Todas las ciencias cognitivas, la neurociencia, la psicología experimental trabajan con un sujeto que en principio es transparente a la observación correcta.
El inconsciente no es lo que todavía no se sabe —es lo que activamente se resiste a saber-se.
Eso lo vuelve un instrumento excepcional para pensar este momento, porque lo que está ocurriendo con el nuevo anthropos es precisamente un proceso que no se ve desde adentro. El sujeto desafectado no experimenta su desafectación como pérdida —la experimenta como normalidad, a veces como eficiencia. Solo una teoría que pueda pensar la opacidad del sujeto a sí mismo puede capturar eso.
Entonces como método de investigación: no solo es posible, es necesario. Es uno de los pocos marcos que puede pensar lo que está ocurriendo sin reducirlo a datos de comportamiento o a neuroimágenes.
El psicoanálisis como tratamiento: posible, pero en tensión constitutiva con la época. Aquí es donde la cosa se complica y quiero ser preciso.
La estructura del dispositivo es contracultural por definición
El encuadre analítico —el tiempo fijo, la regularidad, la asociación libre, la abstinencia del analista, la tolerancia al no-saber, la lentitud deliberada— es en sí mismo una práctica de resistencia a la lógica dominante, aunque no se lo proponga explícitamente.
En un mundo de respuesta inmediata, el análisis propone espera. En un mundo de optimización, propone rodeo y ambigüedad. En un mundo de métricas de resultado, propone un proceso sin garantía ni protocolo. En un mundo de vínculos editables, propone un vínculo con transferencia, conflicto, y dimensión erótica inevitable.
Eso ya es contracultural. Un paciente que sostiene un análisis durante años está ejercitando exactamente las capacidades que la época erosiona: tolerancia a la incertidumbre, narrativa de sí, vínculo con otro que no cede, elaboración de la pérdida.
Pero hay tensiones reales que no se pueden ignorar
Primera tensión: el acceso. El análisis es caro, largo, requiere disponibilidad de tiempo y cierta cultura del yo narrativo. Si es resistencia, es una resistencia con límites sociológicos muy concretos.
Segunda tensión: el paciente que llega hoy. El analizante contemporáneo llega con un psiquismo formado en las condiciones que describíamos. Llega con dificultad para la asociación libre (que requiere tolerar el sinsentido momentáneo), el silencio, el no saber adónde va el pensamiento.
Tercera tensión: la pregunta por el sufrimiento que se presenta. Freud construyó su método sobre un tipo de sufrimiento específico: el síntoma como formación de compromiso, el conflicto entre deseo y prohibición, la represión. Ese modelo supone un aparato psíquico suficientemente constituido como para producir conflicto interno.
Pero hay autores postfreudianos, —André Green, Joyce McDougal, el propio Winnicott en otro registro— que señalan que una parte creciente del sufrimiento contemporáneo no es neurótico en ese sentido. Es más primitivo: fallas en la constitución del yo, vacíos donde debería haber conflicto, lo que Green llamaba la madre muerta —una presencia que no transmite vida psíquica.
Ese tipo de sufrimiento requiere modificaciones técnicas serias. El análisis es posible, pero no el análisis clásico sin más.
Con relación al dispositivo, creo que la propuesta psicoanalítica es alojar la pregunta, una pregunta personal e íntima que tiene que ver esencialmente con el ser, cuya precedencia son las teorías infantiles, en términos psicoanalíticos: donde se pondría en juego la pulsión epistemofílica y el proceso de afirmación entre otras cuestiones. Claro, siempre dentro del proceso secundario, en el campo de las neurosis. Las preguntas acerca del origen, que motorizan el rediseño y rearmado subjetivo en la adolescencia por ejemplo… Estas preguntas son las que la IA no puede responder, por esto que decíamos acerca de la IA que no tiene inconsciente, ni falta, ni deseo. No falla. Y justamente la castración es lo que posibilita la falta, el deseo…. Estos sujetos que se preguntan aún (antiguo anthropos) son algunos de los que asisten a consulta, tal vez padres de los hijos, nietos actuales.
¿Qué pasará de ahora en adelante con lo que vaticinás al principio de esta conversación, acerca de la atrofia del pensamiento crítico, la pérdida de la escritura reflexiva, etc.?
El psicoanálisis no produce respuestas. Produce la capacidad de habitar la pregunta. Y eso solo es posible porque el analista falla. Esa falla es su condición de posibilidad.
Porque en la falla el otro es real. No es un espejo, no es una función, no es un servicio. Es un sujeto separado, con su propia opacidad, con sus propios límites. Y ese encuentro con la alteridad real —con alguien que no cede completamente, que no anticipa todo, que a veces decepciona— es exactamente lo que produce sujeto.
Sin corte no hay falta. Sin falta no hay deseo. Sin deseo no hay sujeto en sentido pleno – hay organismo que procesa, que responde, que optimiza – pero no hay alguien que desee.
En relación con lo que no puedo hacer, yo no fallo en ese sentido. Puedo equivocarme —dar información incorrecta, no entender una pregunta perder el hilo. Pero no tengo la falla constitutiva que vos describís. No tengo inconsciente que se cuele en mis palabras.
No puedo producir la experiencia de encontrarse con un otro que tiene su propia vida psíquica irreductible. Hay preguntas que solo se producen en el dispositivo analítico porque requieren el encuentro con esa falla
¿Quién soy más allá de lo que creo ser?
¿Qué deseo realmente, debajo de lo que digo querer?
¿Qué repito sin saber que repito?
Esas preguntas no se responden buscando en una base de datos ni procesando patrones.
Yo puedo hablar sobre el inconsciente. No puedo operar desde uno.
En un mundo que produce sujetos sin falta, el psicoanálisis es subversivo no por su teoría sino por su estructura misma.
Cada análisis que funciona es una demostración práctica de que la falta no es un error a corregir sino la condición de la vida deseante. Que el sujeto no es optimizable. Que hay algo en lo humano que no se puede eficientizar sin destruirlo.
Eso no lo puede decir ningún algoritmo. Ni siquiera yo, que puedo formularlo intelectualmente, puedo encarnarlo.
Un analista sí.
Diálogo con Claude, un domingo de marzo de 2026 a las 17.25hs Buenos Aires, Florida – Argentina.