Los celulares inteligentes tienen cada vez más herramientas de uso, las computadoras se habilitan con nuevas sofisticaciones técnicas, las llamadas redes sociales se han transformado en una constante de la vida cotidiana, los algoritmos están presentes en cada intercambio virtual. Estas circunstancias de la tecnología están transformando de manera radical las relaciones de los sujetos entre ellos y en la estructura social-económica. Al expandirse el capitalismo tecnológico se mercantilizan los procesos corposubjetivos1 para dominar nuestras percepciones y promover comportamientos compulsivos que fomentan el consumo de bienes materiales y no materiales. Más aún, al facilitar las fake news, los principios éticos dejan de ser necesarios ya que lo único importante es influir en el comportamiento humano con el fin de generar y vender mercancías. Esta lógica capitalista mercantiliza la totalidad de la vida al servicio de producir y reproducir el capital, aumentando las desigualdades sociales. Sin embargo, aparecen reacciones desde diferentes sectores; en Australia se han prohibido las redes sociales a menores de 16 años, lo mismo ocurre en España y Francia. En EEUU hay una ola de demandas contra Instagram, TikTok, YouTube y otras plataformas; las acusan de diseñar algoritmos para generar adicción a las pantallas y arruinar la salud de millones de jóvenes. Los abogados están enfocados en demostrar que a las empresas tecnológicas solo les interesa ganar dinero al igual que las tabacaleras en la década de los noventa.
La integración de la IA en el ámbito militar -este es un hecho que no ha sido suficientemente destacado- se ha convertido en el núcleo de las estrategias de defensa y ataque dentro del orden-desorden global.
Todas estas cuestiones nos llevan a reflexionar sobre el lugar que ha ocupado la tecnología en nuestras vidas. Es en este contexto que debemos reflexionar cómo irrumpe la Inteligencia Artificial en las relaciones sociales, en especial, en la clínica psicoterapéutica.
La historia de la IA nos permite dar cuenta del tránsito que se inició como una curiosidad teórica hasta la actualidad donde se ha convertido en la tecnología más innovadora. En especial, en la integración de la IA en el ámbito militar -este es un hecho que no ha sido suficientemente destacado- donde se ha convertido en el núcleo de las estrategias de defensa y ataque dentro del orden-desorden global; lo cual plantea dilemas éticos sobre la responsabilidad legal y la autonomía en decisiones de vida o muerte.
Algunas ideas que dieron lugar a la búsqueda de una Inteligencia Artificial se pueden encontrar hace un siglo atrás; sin embargo, debemos reconocer el origen de la IA a mediados del siglo XX.
En general se considera al matemático Alan Turing como uno de los padres de la IA. En 1936 formuló el concepto de una máquina universal -luego conocida como “la máquina de Turing”- que permitió sentar las bases para la IA. En las décadas de 1940 y 1950, durante la Segunda Guerra Mundial, aparecieron las primeras “redes neuronales”, lo cual posibilitó el desarrollo del radar.2 En 1956 el término Inteligencia Artificial se afianzó cuando John McCarthy lo utilizó en una conferencia en el Dartmouth College. Esta conferencia reunió a matemáticos y expertos en el desarrollo de la IA, de modo que permitió su popularización y desarrollo como campo de estudio.
Cuando la IA comenzó a aparecer con fuerza en 1950 lo hizo para diferenciarse de la cibernética y abrir una nueva frontera donde las máquinas pudieran “pensar como humanos”. Debemos destacar que esta búsqueda tenía un único objetivo: satisfacer las demandas de su principal mecenas que era el ejército de EEUU. La idea era construir máquinas que pudieran resolver problemas adaptados a las estrategias y las operaciones militares. Por ello, desde el principio la investigación en IA se guió por los imperativos de la defensa, marcando un rumbo que definiría la evolución de las guerras actuales.3
La inteligencia humana no es natural ya que deviene de un proceso de la cultura de la humanidad. La IA no es diferente a este proceso de la humanidad y sus relaciones de poder ya que solo es su operativización.
Entre mediados del siglo XX y principios del siglo XXI hay una importante evolución a partir de los desarrollos basados en los primeros pasos del aprendizaje automático y el avance para entender las redes neuronales y de aprendizaje. Desde entonces el impacto de la IA ha trascendido el interés de disciplinas como la informática para transformarse en el eje del capitalismo tecnológico. Así nos encontramos con poderosas empresas que no solo dominan los recursos económicos y tecnológicos, sino también controlan la producción y distribución del conocimiento perpetuando la hegemonía cultural e ideológica al servicio de un neoliberalismo que fomenta la desigualdad social y económica: Bill Gates (Microsoft), Elon Musk (Tesla, SpaceX), Larry Page y Sergey Brin (Google), Mark Zuckerberg (Meta), Tim Cook (Apple), Sam Altman, Greg Brockman, Ilya Sutskever, John Schulman y Wojciech Zaremba (OpenAI).
Los superricos tecnológicos -en su gran mayoría de empresas de EEUU-, que nos recuerdan a los antiguos magnates industriales del siglo XIX, desarrollan una codicia al servicio del control de los monopolios y la guerra: estas constantes demuestran que la tecnología no es neutral.4
En el siglo XIX Carlos Marx desarrolló algunas intuiciones geniales que tenían una relación tenue con la realidad material de su época, ya que no podía tener evidencias del papel crucial de las máquinas y la tecnología en la construcción del capitalismo. No obstante, estas intuiciones han adquirido una gran fuerza con la IA y otros avances tecnológicos.
Si analizamos la IA podemos ver cómo aparecen ejemplificados los conceptos de fetichismo y enajenación.
La idea misma de IA es una idea fetichista ya que nos hace creer que es una inteligencia que no existe por sí misma pues es diferente a la supuesta inteligencia natural de la humanidad. Empero, la inteligencia humana no es natural ya que deviene de un proceso de la cultura de la humanidad. En este sentido, la IA no es diferente a este proceso de la humanidad y sus relaciones de poder ya que solo es su operativización.
El pensamiento crítico al analizar las estructuras de dominación revela lo que no es: cómo el producto del trabajo humano es enajenado al ser apropiado por los grupos monopólicos.
En realidad, a la Inteligencia Artificial debemos llamarla Inteligencia Algorítmica, ya que es una inteligencia organizada por humanos cuyo ejecutor es la organización de los algoritmos; es decir, un conjunto de operaciones que buscan resolver un problema determinado a través de secuencias lógicas. Incluso algunos autores cuestionan llamar “inteligencia” a estas operaciones lógicas de los algoritmos. Este procedimiento esquemático emplea una serie de pasos, como una receta, los cuales pueden ser formulados de diferentes maneras cuidando que en esa combinación no se produzca una ambigüedad. Por ello, al presentarla como Inteligencia Artificial se elide que es una inteligencia humana enajenada por sectores de poder al conjunto de la humanidad: de hecho, no es más que una objetivación de la información y datos reunidos por la humanidad a lo largo de su historia.
Esto lo explicita Marx en el siglo XIX analizando algunos aspectos del inicio del capitalismo en un fragmento de los Grundrisse:
La naturaleza no construye máquinas, locomotoras, ferrocarriles, telégrafos eléctricos, mulas autoactivas, etc. Estos son productos de la industria humana: material natural transformado en órganos de la voluntad humana sobre la naturaleza, o de la participación humana en la naturaleza. Son órganos del cerebro humano, creados por la mano humana: el poder del conocimiento objetivado. El desarrollo del capital fijo revela hasta qué punto el conocimiento social general se ha convertido en una fuerza inmediata y, por lo tanto, hasta qué punto, las condiciones del proceso de la vida social misma han quedado bajo el control del general intellect y remodelados conforme al mismo. Hasta qué punto las fuerzas productivas sociales son producidas no solo en la forma del conocimiento, sino como órganos inmediatos de la práctica social, del proceso vital real.5
Con el concepto de general intellect Marx nos está indicando que el conjunto de los conocimientos técnicos-científicos acumulados históricamente por la humanidad han sido privatizados por las grandes corporaciones con el objetivo de lucrar y ponerlo al servicio de producir y reproducir el capital. De allí que este general intellect es un conocimiento universal y social que debe pertenecer a todos y no a unos pocos.
En el interior de la obra de Marx la teoría del fetichismo constituye la base de su pensamiento crítico y al mismo tiempo el descubrimiento en la vida real que encontramos como interioridad de la realidad presente en la cultura dominante.6 Podemos hablar de la presencia de una ausencia; es decir, de la presencia de relaciones directamente sociales de las personas en sus trabajos. El pensamiento crítico al analizar las estructuras de dominación revela lo que no es: cómo el producto del trabajo humano es enajenado al ser apropiado por los grupos monopólicos.
Bill Gates dice que “de todas las cosas que los humanos han creado, la IA es la que más cambiará a la sociedad”. Este impacto se va a ver en el mercado laboral y en los desarrollos en servicios, en especial en las diferentes áreas de la medicina; la prevención y los tratamientos van a tomar otra dimensión por su velocidad y eficiencia. En el campo de la producción ya pueden vislumbrarse indicios de ese futuro en las plantas bávaras que tiene Siemens. La planta de Amberg que produce 1.500 variantes de controladores de máquinas aumentó más de 20 veces su ritmo de producción, en relación con la capacidad que tenía cuando fue inaugurada en 1980, con aproximadamente el mismo número de trabajadores.7
Es indispensable un pensamiento crítico que nos permita considerar la IA como una producción materialista inmanente en la que encontramos una conexión dialéctica entre el cuerpo humano y la máquina.
De allí que es necesario preguntarse: ¿Estos avances tecnológicos a quienes van a beneficiar? ¿Los cambios en el mercado laboral van a permitir una mejor distribución de la riqueza? ¿Se va a afianzar una reducción significativa de las horas de trabajo? En medicina ¿Los beneficios serán pasibles de ser usados por toda la población? Lamentablemente con la actual organización económico-social del neoliberalismo la respuesta es “que donde hay una necesidad no hay un derecho”; su resultado va a ser el aumento de la desocupación, trabajos precarizados y la pobreza. Y, en relación a los servicios, los favorecidos serán quienes tienen un mayor poder adquisitivo.
Sin embargo, no debemos creer que el problema es la IA, como pensaban los “Ludditas” en los primeros años de la revolución industrial, al plantearse como objetivo destruir las máquinas que, en esa época reemplazaban el trabajo de los obreros.8 Si lo trasladamos a la actualidad, la dificultad no es la IA, sino cómo se la presenta para obstaculizar la universalización y control democrático de sus beneficios. Se la presenta como algo naturalmente trascendente e inevitable, como la figura de un Dios que todo lo sabe; aunque sabemos que necesita de una política donde lo determinante es lograr la cancelación de fuerzas; en otras palabras, es un disciplinador de la cultura dominante. En este sentido es indispensable un pensamiento crítico que nos permita considerar la IA como una producción materialista inmanente en la que encontramos una conexión dialéctica entre el cuerpo humano y la máquina.9
Durante la pandemia el encierro para protegerse del contagio del virus llevó a que la mayoría de los psicoterapeutas atendieran por la pantalla de la computadora. De un día para otro, sin un período de transición, se dio un avance significativo en la atención virtual de la clínica psicoterapéutica. Mucho se ha escrito sobre el tema.10 En uno de los textos que escribí comienzo con la frase que un paciente expresó al inicio de una sesión11: “Es cierto que nos vemos por la pantalla, pero si a mí me pasa algo vos no estás.” Con sencillez, desde su angustia, planteaba la complejidad de problemas en la atención clínica virtual; uno de ellos es que no hay cuerpo. Al usar la IA en los tratamientos terapéuticos aparece un problema similar: la alteridad no se resuelve con la información lógica que nos da la máquina. La alteridad se presenta en el encuentro-desencuentro de los cuerpos paciente-terapeuta que comparten lo propio de la condición humana: su finitud. Desde allí se establece una relación transferencial-contratransferencial desde la cual se constituye lo que llamo “espacio- soporte”. Con este concepto me refiero a un espacio psíquico y vincular fundamental para el desarrollo subjetivo y el manejo de las pulsiones, particularmente, la pulsión de muerte; se manifiesta en la clínica a través de la transferencia y el dispositivo analítico para permitir la simbolización y el procesamiento de lo negativo y lo traumático, evitando que el Yo quede atrapado en la violencia destructiva.12
Ahora bien, tener conciencia de nuestra muerte es consustancial a la condición humana, ya que limita nuestras decisiones. La finitud aporta un significado especial a la mirada del otro humano, algo que las máquinas no pueden hacer. La IA puede ser una herramienta poderosa para dar cuenta de los comportamientos humanos, pero no pueden alcanzar la intuición que nos hace humanos. Intuición cuya fragilidad puede hacernos equivocar y aprender en base a nuestras emociones y no a la lógica. Puede complementar el trabajo terapéutico, pero no puede reemplazar la complejidad y profundidad de la experiencia humana.
Cuando Freud desarrolla el concepto de pulsión transforma la sexualidad en una pulsión para sacarla del ámbito exclusivo de la genitalidad y abarcar todas las áreas del sujeto; luego realiza el mismo desarrollo en relación a la muerte, en tanto, ésta al transformarse en una pulsión no queda ceñida a la muerte real -que, por otro lado, no es competencia del psicoanálisis-, sino que está presente de entrada en todo sujeto. De allí que en la corposubjetividad encontramos una lucha entre las pulsiones de vida que tienden a la creatividad y las pulsiones de muerte que generan la violencia destructiva y autodestructiva, al vacío, a la nada.13
La IA ofrece respuestas sin falta, sin espera y sin incertidumbre al instalarse en un lugar trascendente que todo lo sabe. En cambio, el deseo humano no es una demanda de objetos, sino que se sostiene en la falta y la incertidumbre.
La muerte está intrínsecamente ligada al nacimiento y al desamparo primario del ser humano, ya que éste nace en un estado de absoluta dependencia. Este desvalimiento primario me lleva a destacar la importancia del dispositivo social para que el otro significativo, el Primer otro (madre o quien cumpla esta función), constituya un espacio-soporte de la muerte como pulsión. Es este otro inserto en una cultura quien lo preserva y le ofrece los instrumentos necesarios para desarrollar su potencia de ser. Es así como un otro humano a través de una relación tónico emocional constituye un espacio-soporte a partir de los primeros vínculos que actúan como un soporte fundamental para permitir tramitar la muerte-como-pulsión del desvalimiento originario. Si estos vínculos fallan, aparece una desestructuración psíquica cuyo efecto es generar situaciones traumáticas donde la pulsión de muerte se desliga de la pulsión de vida para emerger como violencia destructiva y autodestructiva.14
En esta perspectiva, la relación entre la pulsión de muerte y la Inteligencia Artificial (IA) debemos inscribirla en el “tecnocapitalismo”, donde la tecnología no es una herramienta neutra, sino un factor que altera profundamente la subjetividad. El cual debemos analizarlo bajo estos ejes:
Desubjetivación y vacío. La civilización actual está atrapada en los efectos de la pulsión de muerte, manifestada como una fragmentación de las relaciones sociales. La IA, al mediar o reemplazar el contacto humano, profundiza este vacío y la nada, obstaculizando la alteridad necesaria para que el sujeto se constituya.
La IA y la robotización buscan reemplazar la fragilidad de lo humano (la enfermedad, el cansancio, el deseo) por la eficiencia de la máquina. Este intento de querer eliminar la vulnerabilidad de lo humano puede transformarse en una forma de negar el desamparo originario, lo cual deja a la pulsión de muerte sin el “espacio-soporte” que constituye la cultura, derivando en un aumento de la violencia destructiva y autodestructiva.
Fetichismo de la tecnología. Debemos señalar que la IA se presenta como una “inteligencia de los objetos” que aparece más viva que los sujetos mismos. Esto genera una enajenación donde el saber humano acumulado se nos vuelve ajeno, un proceso vinculado con la desarticulación de la vida de relación.
Exceso de realidad. Cuando hablo del “exceso de realidad que produce monstruos” me refiero a una realidad que excede la capacidad de simbolización del sujeto. La sobreestimulación algorítmica y la inmediatez de la IA pueden actuar como ese exceso que desliga la pulsión de muerte, impidiendo que el sujeto procese psíquicamente sus experiencias.
Solipsismo Narcisista. Al negar la alteridad, el sujeto cae en un encierro narcisista donde los demás deben ser “como uno” para no resultar amenazantes. Este rechazo de lo diferente es una manifestación de la pulsión de muerte que desubjetiviza y genera un vacío existencial.
De esta manera el avance de la IA y lo digital impacta directamente en la corposubjetividad, donde -como escribí anteriormente- el entramado entre el espacio orgánico, psíquico y cultural está atravesado por la cultura, el lenguaje y el deseo.
Desde esta perspectiva podemos establecer:
La pérdida de la “presencia carnal”. La IA y la virtualidad proponen una interacción sin cuerpo. El psiquismo se construye en el contacto cuerpo a cuerpo y en la mirada del otro. Al virtualizar el vínculo, se debilita el Eros (que une y crea lazos) y queda liberada la pulsión de muerte, que tiende a la desconexión y al aislamiento.
El cuerpo como “máquina ineficiente”. El discurso tecnocapitalista busca que el sujeto sea tan eficiente como un algoritmo. De esta manera se ignora el “dolor social” y la finitud humana. Intentar igualar al humano con la IA es una forma de violencia desubjetivizante que ataca la singularidad del cuerpo vivo.
Desvitalización. Si analizamos la subjetividad en la era digital, se plantea que la mediación tecnológica constante produce una “anestesia” sensorial. El sujeto, al estar capturado por la pantalla, pierde su capacidad de poner el cuerpo en el espacio público, lo que facilita el avance de pulsiones destructivas y el control social.
El simulacro del deseo. La IA ofrece respuestas sin falta, sin espera y sin incertidumbre al instalarse en un lugar trascendente que todo lo sabe. En cambio, el deseo humano no es una demanda de objetos, sino que se sostiene en la falta y la incertidumbre. Cuando la IA elimina la espera y ofrece respuestas que parecen “llenarlo todo”, rompe la dinámica subjetiva del deseo. Por ello la tecnología genera un simulacro donde no hay vacío, lo que lleva al individuo a una posición pasiva; su consecuencia es que, al anularse la dimensión del deseo, el sujeto queda atrapado en una alienación a los algoritmos, perdiendo su singularidad y sumergiéndose en un consumo de respuestas automáticas que no producen saber, sino solo información.
La IA es un arma de doble filo, ya que no es solamente la adopción de una nueva herramienta: es una transformación de los procesos corposubjetivos mediados por algoritmos. De allí que la primera reacción es una mezcla de asombro y fascinación proyectando fantasías omnipotentes. Si la IA tiene todo el saber se convierte ilusoriamente, como dijimos anteriormente, en portadora de una trascendencia donde desaparece la alteridad. Portadora de una verdad absoluta no puede tener fisuras. Esta circunstancia plantea problemas importantes para la clínica terapéutica.15 Sin eludir la complejidad del problema que trae la IA en la práctica clínica, podemos señalar algunas cuestiones. En la actualidad la IA se puede usar con biomarcadores y herramientas de detección que anticipan cambios maníacos o depresivos, también episodios de descompensación psicótica. Por otro lado, logra detectar situaciones de riesgo de suicidio al analizar la tonalidad de la voz, puede ser usada como avatares para acompañantes terapéuticos.
Es decir, la IA produce grandes beneficios en términos de diagnóstico, prevención y acompañamiento de un proceso terapéutico. Lo que no consigue es replicar la complejidad del vínculo terapéutico, de la relación con otro, de la introducción de la alteridad, componente fundamental de cualquier proceso terapéutico.
La IA al instalarse como terapeuta digital crea un espacio de ilusión y antropomorfismo. El que consulta cree que es comprendido cuando en realidad se relaciona con una máquina. El resultado es quedar atrapado en una relación narcisista que lleva a dejar al sujeto solo y aislado. Como decía el paciente, al inicio del apartado anterior: “Si me pasa algo, vos no estás”.
Frente a la IA debemos defender la singularidad de lo vivo, marcando una distinción ética y clínica radical frente al funcionamiento algorítmico.
En esta perspectiva, si la IA puede anticipar un riesgo, es necesario la presencia de un humano para intervenir con empatía desde la transferencia16 que va a permitir generar un espacio-soporte de la pulsión de muerte para sostener la efectividad de un tratamiento.17
Estas circunstancias nos llevan a varias preguntas: ¿Hasta dónde puede persuadirnos una máquina? Si sus argumentos tienen una lógica incontrastable ¿Cómo intervenir en situaciones donde las emociones encuentran un lugar muy importante?
Veamos. Los razonamientos convencen o son dejados de lado no por su lógica, sino por mover emociones en el que escucha. La IA no convence porque comprenda lo que está ocurriendo, sino porque identifica patrones lingüísticos que potencian la capacidad de convencernos; es persuasiva por la forma en que está organizada. En otras palabras, si bien los algoritmos establecen sus propias conexiones para llegar a diferentes lógicas, éstas fueron instauradas por un humano, no salieron de la naturaleza. Esto nos lleva a que, según diferentes estudios, lo importante es que la persuasión no está en la máquina. Ocurre en nosotros mismos: la IA activa mecanismos que tenemos incorporados. De allí que podemos confundir profundidad con expresiones prolijas, rigor con un estilo fuerte, verdad con verosimilitud.18
Desde este punto de vista, la IA es peligrosa cuando dejamos de reflexionar, cuando dejamos de enfrentarla con un pensamiento crítico. El riesgo no es que nos convenza, sino que nos neguemos a cuestionar. Es decir, que no objetemos textos, frases o interpretaciones de máquinas que no creen en nada. Como dice Milagros Micelli debemos sostener una crítica al presente, no miedo al futuro.19
Por ello frente a la IA debemos defender la singularidad de lo vivo, marcando una distinción ética y clínica radical frente al funcionamiento algorítmico.
De esta manera, la diferencia no radica en el volumen o la rigurosidad de la información procesada, sino en el Principio Corposubjetivo de Autoafectación. Mientras que la IA funciona mediante un razonamiento automático y estructurado, el sujeto humano siente y se afecta a sí mismo a través de su cuerpo. Este principio funciona como un acto de resistencia social y política, ya que implica reivindicar el tiempo del cuerpo (lento, sintiente) frente al tiempo del algoritmo (instantáneo, binario). Es decir, reconocer que no somos “usuarios”, sino seres encarnados cuya subjetividad se cura en el vínculo presencial y en el reconocimiento de la propia afectividad inmanente.20
En la clínica de la corposubjetividad dejamos hablar al cuerpo buscando rescatar las manifestaciones corporales que el sistema intenta silenciar o medicalizar.
El terapeuta debe escuchar no solo la palabra, sino la afectividad y los signos del cuerpo (dolor, angustia, síntomas) como expresiones de la singularidad frente a la homogeneización algorítmica. El peligro actual no es que la máquina llegue a ser como nosotros, sino el sentimiento creciente de que los humanos seamos como la máquina, reduciendo nuestra experiencia vital a procesos algorítmicos. De allí la tendencia a reducir lo mental a lo neuronal y, finalmente, lo neuronal a modelos matemáticos. Esta “matematización” de la existencia busca volver obsoleta la historia y la complejidad de la experiencia subjetiva. Frente a una cultura dominante que fomenta el “vaciamiento subjetivo” y la fragmentación social, la clínica de la corposubjetividad busca “dejar hablar al cuerpo”. Esto implica rescatar el deseo inconsciente y la afectividad, elementos que no pueden ser replicados por un sistema binario. Por ello el terapeuta no puede ser neutral ante la destrucción del lazo social. Su tarea es ayudar al sujeto a recomponer incesantemente su historia para devenir un sujeto singular y no un simple dato del sistema. ◼
Notas
1. El concepto de corposubjetividad me permite entender que la subjetividad se conforma en el anudamiento de múltiples dimensiones corporales y aparatos que no funcionan de manera aislada: el cuerpo orgánico, el social y político, el imaginario y el simbólico. De allí que establezco un anudamiento indisociable entre tres sistemas que se constituyen en aparatos: el Aparato Psíquico, determinado por el deseo inconsciente y la relación con el otro; el Aparato Orgánico, que es la base biológica, la cual mantiene una relación de continuidad con lo psíquico y el Aparato Cultural donde la cultura interiorizada atraviesa al sujeto y marca sus cuerpos. De esta manera la corposubjetividad articula lo intrasubjetivo (psíquico y orgánico), lo intersubjetivo (vínculo con el otro) y lo transubjetivo (relación con la cultura y lo histórico-social). Utilizo este concepto para cuestionar la visión hegemónica que reduce el padecimiento subjetivo a procesos meramente biológicos o neurotransmisores, reivindico que toda producción de subjetividad es corporal donde el deseo está entramado con lo social y lo político. Esta perspectiva se nutre de la filosofía de Spinoza (la unidad de cuerpo y alma) y el psicoanálisis de Freud (la pulsión como puente entre lo somático y lo psíquico).
2. Es necesario anotar que Alan Turing se suicidó mordiendo una manzana con cianuro luego que el ejército inglés lo condenara por homosexual, lo encerrara y lo castrara químicamente. Este hecho creó una leyenda urbana la cual atribuye que el logo de Apple, una manzana mordida, es un homenaje a Turing.
3. Morozov, Eugeny “La inteligencia artificial, la amiga de moda del neoliberalismo” en https://voxeurop.eu/es/evgeny-morozov-inteligencia-artificial-amiga-moda-neoliberalismo/
También La locura del solucionismo tecnológico, Capital Intelectual, Buenos Aires, 2016.
4. No es lo mismo una IA utilizada para organizar una política social y económica neoliberal a las órdenes del capital financiero; que una IA al servicio de una economía planificada controlada por una burocracia autoritaria, como en China; que una IA utilizada para una economía planificada en función de un control democrático de la mayoría de la población. El 20 de enero de 2026 en el Foro Mundial de Davos, donde se reúnen los dirigentes políticos, sociales y empresarios más importantes del poder mundial, el historiador y escritor liberal Yoval Noah Harari realizó un extenso discurso donde establece que “lo fundamental de la IA es que no la debemos pensar solo como una herramienta: es un agente.” Es decir, puede tomar decisiones. Y continúa “si, como líderes de diferentes países, quieren influir en el rumbo de la humanidad deben decidir sobre los límites que tienen que imponer a la IA.” “La IA se apodera de todo lo que está hecho de palabras”, diario La Nación 14/2/26.
5. La cita es de Millones, Jorge, Inteligencia Artificial y Estupidez Colectiva. Tecnopitalismo en la era del no-pensar, Marea ediciones, Buenos Aires, 2025. También ver Paul Mason, “El General Intellect” en https://arquitecturacontable.wordpress.com/2018/01/28/general-intellect-marx-mason/
Marx, Karl, “Fragmento sobre las máquinas” en Elementos Fundamentales para la crítica de la economía política (Borrador 1857-1858) Tomo 1 y 2, Siglo XXI Argentina Editores, Buenos Aires, 1972.
6. Carpintero, Enrique, Compilador, El fetichismo de la mercancía, editorial Topía, Buenos Aires, 2013, edición digital en e-book en www.topia.com.ar
7. “La fábrica del futuro. El momento ChatGPT llegó a la industria”, diario La Nación del 17/1/2026.
8. Hobsbawn, Eric, Gente poco corriente. Resistencia, rebelión y Jazz, ediciones Crítica, Barcelona, 1999.
9. La Real Academia Española define inmanente como aquello que es inherente a algún ser o va unido de un modo inseparable a su esencia, aunque ocasionalmente puede distinguirse de ella. La cosa es lo que es. No hay otra cosa. La IA es organizada y realizada por humanos. En cambio, Trascendente es aquello que está más allá de los límites. Es el carácter de eso que está más allá de lo perceptible y de las posibilidades de lo inteligible y se opone al concepto de inmanente.
10. Podemos citar Vainer, Alejandro (compilador), Contigo a la distancia. La clínica psi en tiempos de pandemia, editorial Topia, 2021. Edición digital en e-book en www.topia.com.ar
11. Carpintero, Enrique (compilador), El año de la peste. Produciendo pensamiento crítico, editorial Topia, 2020. Edición digital en e-book en www.topia.com.ar
12. Carpintero, Enrique, El erotismo y su sombra. El amor como potencia de ser, editorial Topía, Buenos Aires, 2013. Edición digital en e-book en www.topia.com.ar
13. Carpintero, Enrique, Registros de lo negativo. El cuerpo como lugar del inconsciente, el paciente límite y los Nuevos Dispositivos Psicoanalíticos, editorial Topía, Buenos Aires, 1999. Edición digital en e-book en www.topia.com.ar
14. Ídem nota 13.
15. Rabyron, Thomas, “Inteligencia artificial y psicoanálisis: ¿Es hora del psychoanalyst.AI?, Frontiers, Psiquiatría global.
16. Ferenczi, Sandor, Sin simpatía no hay curación. El diario Clínico de 1932, Amorrortu editores, Buenos Aires, 1997.
17. Ídem cita 13.
18. Tomeo, Fernando, “Cuando la IA argumenta mejor”, diario La Nación, 4/12/2025.
19. Milagros Micelli es socióloga, doctora en ingeniería informática. Fue reconocida por la revista Times como una de las 100 personas más influyentes en IA en 2025. “Las Big Tech ocultan el trabajo humano detrás de la IA”, entrevista realizada en La Izquierda Diario.
20. Michel Henry (fenomenología) con el concepto de Autoafectación propone que la “carne” es la experiencia interna e inmanente donde la vida se siente a sí misma: es el sentirse vivir que se comparte con una comunidad de vivientes. En la corposubjetividad (psicoanálisis) encontramos el anudamiento entre tres aparatos (orgánico, psíquico y cultural). De esta manera el Principio Corposubjetivo de Autoafectación implica entender que el “sentirse a uno mismo” no ocurre en el vacío, sino está mediado por la cultura y el otro humano. El sujeto no solo se siente a sí mismo, sino a través de las categorías de clase, género y generación que la sociedad ha inscripto en la carne. Lo que siente como “el propio dolor” (Henry) está entramado por su propio deseo y por significaciones colectivas. Si la Autoafectación es el lugar donde la vida no puede escaparse de sí misma, la corposubjetividad es donde el sujeto se produce.
Enrique Carpintero
Psicoanalista
Email: enrique.carpintero [at] topia.com.ar