Por Diego Venturini
diegocventurini@elpsiconalitico.com.ar
Hace ya unos años -no tantos- que vengo pensando y escribiendo sobre los veloces avances de la tecnología (1) y esto se volvió un tema frecuente de conversación con mis colegas docentes, psicoanalistas, amigos y familiares que saben de mi interés al respecto. Hace unos días mi colega docente el Profesor Eduardo Venturo, especialista en temas de geografía, me hizo llegar un libro sobre su área que conecta notablemente con mis intereses sobre la IA y llamó muchísimo mi atención, por eso se lo agradezco en estos párrafos y les quiero comentar lo que me hizo pensar.
Se trata de la obra «Atlas de inteligencia artificial: Poder, política y costos planetarios» de la investigadora Kate Crawford.
Desde los medios de comunicación y también desde algunos medios académicos la inteligencia artificial (IA) se nos suele presentar como una fuerza etérea, una «nube» inmaterial de algoritmos abstractos que habitan en un plano puramente digital y que abonan en el imaginario social un halo mágico acerca de la IA. Crawford, palabra tras palabra, logra ir desmantelando esta mitología, argumentando de forma contundente que la IA no es ni «artificial» ni «inteligente».
A través de una estructura cartográfica, Crawford nos ofrece un mapa de las infraestructuras físicas, el trabajo humano y las lógicas políticas que sostienen esta industria, revelando que se trata, fundamentalmente, de una tecnología de extracción global diseñada para servir a las estructuras de poder dominantes.
La materialidad de la IA: una geología de los medios
Para la autora, la IA estaría siendo una extensión de los procesos extractivos de los recursos geológicos de la Tierra, transformando recursos no renovables en poder computacional. Crawford nos hace viajar a lugares como la mina de litio de Silver Peak en Nevada o los lagos de barro tóxico en Baotou, Mongolia Interior, para demostrar que la base de la IA es una minería brutal. El llamado «oro blanco» (litio) y otros minerales de tierras raras son esenciales para las baterías y componentes que permiten el funcionamiento de los centros de datos y dispositivos móviles.
Esta extracción conlleva costos que la industria tecnológica raramente asume: daño ambiental masivo, enfermedades en las comunidades locales y una huella de carbono que crece de forma alarmante.
Crawford denuncia que hay un mito acerca de la tecnología verde y señala que el entrenamiento de un solo modelo de procesamiento de lenguaje puede emitir el equivalente a la vida útil de cinco automóviles. La metáfora de la «nube», muy usada y naturalizada en las redes, plantea que actúa como una estrategia de «ceguera oceánica» que oculta que el sistema depende de cables submarinos, contenedores de carga y un consumo eléctrico colosal que está transformando el planeta dejando de manera insostenible.
El trabajo fantasma y la algoritmización de los cuerpos
Uno de los puntos más críticos de la obra es la revelación de que la IA funciona gracias a una vasta fuerza laboral oculta, que ella define como «trabajo fantasma». Detrás de la ilusión de la automatización total en plataformas como Amazon Mechanical Turk hay miles de microtrabajadores mal pagados encargados de etiquetar datos para que los sistemas parezcan inteligentes. Para ilustrar esto Crawford utiliza el término «fauxtomatización» (2) -acuñado por Barkan en 2015- utilizándolo en este caso para denotar la falsa automatización de las IA, afirmando que las empresas contratan personas que realizan tareas rutinarias para mantener la apariencia de que las máquinas son autónomas.
En los centros de distribución de Amazon, esta lógica alcanza un nivel inhumano. Crawford describe cómo los trabajadores son tratados como robots, monitoreados por sensores que evalúan cada segundo de su tiempo y forzados a seguir un ritmo de productividad algorítmica que a menudo provoca lesiones físicas. Esta gestión del trabajo es un regreso a las prácticas de explotación del taylorismo y el fordismo del siglo XX, pero con una vigilancia especial que permite a las empresas observar y modular hasta el último micromovimiento fisiológico del empleado.
La captura de los datos y el fin del consentimiento
El libro analiza la evolución de la recolección de datos, pasando de experimentos con consentimiento, como el proyecto FERET en los años noventa, a un saqueo masivo de los bienes comunes digitales. Crawford sostiene que, en la última década, se ha normalizado la idea de que cualquier material en línea (fotos personales, selfis de bebés, textos privados) es un recurso libre para ser extraído sin permiso. Los conjuntos de datos de entrenamiento, como ImageNet, se han convertido en la verdad fundamental sobre la cual la IA interpreta el mundo, pero son colecciones cargadas de sesgos, errores y una deshumanización profunda.
Un ejemplo escalofriante parece ser el uso de bases de datos de prontuarios policiales (mugshots) para entrenar sistemas de reconocimiento facial tal como se ve en la película Sentencia previa de 2002 (3). Crawford argumenta que esto representa un giro de la imagen a la infraestructura: la vida y el dolor de las personas se neutralizan para convertirse en material técnico inerte. Al ignorar el contexto social y político de donde provienen los datos, la IA termina amplificando las desigualdades estructurales bajo una fachada de neutralidad científica.
Clasificación, emociones y el eco de la frenología (4)
Crawford vincula las prácticas actuales de clasificación en el aprendizaje automático con tradiciones pseudocientíficas desacreditadas, como la craneometría de Samuel Morton del siglo XIX. Al igual que Morton llenaba cráneos con plomo para justificar jerarquías raciales, la IA contemporánea impone categorías binarias de género y clasificaciones raciales simplistas que no son hechos biológicos, sino construcciones políticas.
La autora es especialmente crítica con el reconocimiento emocional automático, una industria multimillonaria basada en las teorías de Paul Ekman sobre emociones universales. Crawford señala que no hay evidencia científica sólida de que un rostro pueda revelar de forma fiable un estado mental interior, y advierte que estos sistemas se están usando para tomar decisiones críticas en contrataciones y vigilancia, basándose en lo que Barrett llama «huellas digitales de emociones» que no existen. Estas herramientas son, en esencia, una forma de «fisionomía digital» que busca especificar identidades externas para centralizar el control.
El estado vigilante y la IA como certificado de poder
Finalmente, el «Atlas» explora cómo la IA es un instrumento de soberanía y control estatal. Crawford analiza los archivos de Snowden para demostrar que las agencias de inteligencia han sido los guardianes históricos del big data, desarrollando técnicas de vigilancia masiva que ahora se han filtrado a la vida civil. A través de empresas como Palantir o sistemas como Ring de Amazon, las lógicas militares de selección de objetivos y ataques por «firma» de metadatos se aplican a la policía local y a la gestión de beneficios sociales.
La IA no es una tecnología neutral; es un sistema que amplía las asimetrías de poder existentes. Crawford rechaza el «determinismo encantado» —la idea de que la IA es una fuerza mágica e inevitable— y la sitúa en el contexto del capital organizado y la extracción planetaria. El libro concluye que la ética de la IA es insuficiente si no se cuestiona el poder. La verdadera solución, según la autora, reside en movimientos interconectados por la justicia laboral, climática y de datos que rechacen la aplicación de la IA en áreas donde esta socava los derechos fundamentales y la dignidad humana.
En resumen, Crawford hace una llamada a pensar críticamente, a no dar lugar a los mitos tecnocráticos y a arrojar luz acerca de que la IA es una infraestructura física y política que precisa una regulación urgente.
Notas
- https://elpsicoanalitico.com/2023/05/31/avances-tecnologicos-i-a-blockchain-ra-rv-iot-5g-el-psicoanalisis-tiene-algo-para-decir/
- Fauxtomatización: Este término, una mezcla de las palabras en inglés faux (falso) y automation (automatización), describe el uso de mano de obra humana, a menudo invisible y mal pagada, para realizar tareas que se anuncian o se perciben como completamente automatizadas. El término fue acuñado por el diseñador de experiencia de usuario y activista Aral Balkan en un artículo de 2015. https://www.linkedin.com/pulse/la-fauxtomatizaci%C3%B3n-falsa-promesa-de-automatizaci%C3%B3n-y-gildardo-aranda-5shsc/
- Minority Report, Sentencia previa, filme de Steven Spielberg de 2002, basado en una novela de Philip K Dick, https://www.filmaffinity.com/ar/film660421.html
- Frenología: pseudociencia del siglo XIX, desarrollada por Franz Joseph Gall, que pretendía determinar la personalidad, el carácter y las tendencias criminales mediante la medición de las protuberancias del cráneo. Sostenía que las áreas cerebrales funcionales se reflejaban en la forma craneal. Fue desacreditada en la década de 1840. https://es.wikipedia.org/wiki/Frenolog%C3%ADa