Press "Enter" to skip to content
Con la aparición de los chatbots, la externalización del pensamiento —y, por lo tanto, también el cuestionamiento crítico de las normas sociales y las relaciones de poder existentes— está adquiriendo una nueva forma. (Jaap Arriens / NurPhoto vía Getty Images)

Necesitamos el pensamiento crítico que la IA destruye

Traducción: Florencia Oroz

Las luchas contra la opresión comienzan cuando las personas reflexionan críticamente sobre sus experiencias. ¿Qué ocurre con esas luchas cuando delegamos nuestro pensamiento en la IA y sustituimos a los interlocutores humanos por chatbots obsecuentes?

Millones de personas le piden ahora a los chatbots que les resuman libros, redacten correos electrónicos e incluso les expliquen acontecimientos políticos. Pero lo que desde cierta perspectiva parece una revolución en la productividad también puede ser algo más inquietante: la silenciosa externalización del juicio mismo.

Los autores que escriben sobre inteligencia artificial llevan mucho tiempo afirmando que supone un riesgo existencial porque, por ejemplo, podría llegar a ser tan poderosa que se volviera contra los seres humanos. Pero la IA puede crear un tipo diferente de riesgo existencial, como señala el filósofo Nir Eisikovits, no en el sentido apocalíptico que a menudo se imagina, sino en relación con la cuestión de qué significa ser humano. Uno de los peligros más subestimados de estos sistemas radica en la creciente tendencia de los usuarios a delegar la tarea de formar juicios en los resultados algorítmicos de los chatbots, arriesgándose así a la erosión gradual de su capacidad de pensamiento independiente.

Los efectos secundarios negativos que acompañan al uso de los grandes modelos de lenguaje (LLM) quedan vívidamente ilustrados por el fenómeno de la «deuda cognitiva». Desde una perspectiva económica, es difícil discutir las ganancias de productividad a corto plazo logradas mediante el uso de sistemas de IA. Al delegar en la IA numerosas tareas que antes realizaban los seres humanos, se observan importantes ganancias de eficiencia: se aceleran los flujos de trabajo, se racionalizan los procesos y, en general, las rutinas organizativas se vuelven más eficientes.

Sin embargo, la resiliencia y la eficiencia generadas mediante la delegación en sistemas de IA podrían amenazar con una pérdida gradual de las capacidades cognitivas que se les están subcontratando. Un reciente estudio del MIT que encontró una actividad cerebral significativamente reducida entre los usuarios habituales de chatbots, por ejemplo, ofrece un respaldo inicial a esta preocupación.

Si bien los debates sobre la amenaza que las corporaciones modernas de IA representan para la democracia tienden a centrarse en el hecho de que los datos (y, por lo tanto, el control sobre los algoritmos) se concentran cada vez más en manos de las grandes empresas tecnológicas que, en gran medida, eluden la supervisión pública, otra cuestión importante queda sorprendentemente relegada a un segundo plano con frecuencia. Se trata de una cuestión sobre las condiciones previas para que las personas puedan participar en los procesos democráticos y en los proyectos políticos emancipadores.

La externalización del pensamiento no es, por supuesto, un fenómeno nuevo. De hecho, es el tema principal del clásico ensayo de Immanuel Kant de 1784, «¿Qué es la Ilustración?». Para Kant, el proceso de emancipación consiste en liberarse de la «inmadurez autoinfligida» de dejar que otros piensen por uno y, en su lugar, hacer uso de las propias facultades de razonamiento. Escribe:

Es tan conveniente ser inmaduro. Si tengo un libro que piensa por mí, un pastor que tiene conciencia por mí, un médico que juzga mi dieta por mí, y así sucesivamente, entonces no necesito preocuparme en absoluto. No tengo necesidad de pensar si tan solo puedo pagar; otros se encargarán de buen grado de la desagradable tarea por mí.

Sin embargo, con la aparición de los chatbots con LLM, la externalización del pensamiento —y, por lo tanto, también el cuestionamiento crítico de las normas sociales y las relaciones de poder existentes— está tomando una nueva forma.

Un sujeto sin subjetividad

Pero, ¿por qué debería ser motivo de preocupación la externalización del propio pensamiento (y, en muchos casos, incluso de los propios sentimientos) a los chatbots? Y más concretamente, ¿por qué el uso de los chatbots amenaza la capacidad de las personas para participar en la política democrática o emancipadora?

Sugiero —siguiendo vagamente a Slavoj Žižek— que los chatbots representan una manifestación altamente tecnificada de lo que yo llamaría una forma descafeinada de subjetividad. Las sociedades capitalistas liberales, argumenta Žižek, se caracterizan por una tendencia estructural a evitar la ambivalencia. Esta dinámica se hace visible primero en el ámbito del comportamiento de los consumidores: en lugar de aceptar el alcohol o la cafeína, con sus conocidos efectos secundarios negativos, los consumidores recurren cada vez más a la cerveza sin alcohol o al café descafeinado.

El chatbot, en su forma más avanzada, es un sujeto «descafeinado» simplemente porque carece de algo esencial para los seres humanos: el principio mismo de la subjetividad. El deseo humano de herramientas de comunicación descafeinadas, como los chatbots, expresa un deseo de contacto con lo que podríamos describir como un «sujeto sin subjetividad».

La observación de Žižek sobre la lógica de consumo de las sociedades capitalistas liberales puede parecer, a primera vista, banal. Pero adquiere un significado de gran alcance una vez que se consideran sus implicaciones a nivel de la subjetividad y la política. La creciente atracción de las personas por los chatbots como compañeros es sintomática de una evitación sistemática de la confrontación con el Otro, es decir, con otro sujeto humano real.

¿Por qué la gente podría preferir hablar con un sujeto «descafeinado»? Derek Thompson lo expresa claramente: «A diferencia de los cónyuges más pacientes, ellos podrían decirnos que siempre tenemos razón. A diferencia del mejor amigo del mundo, podrían responder instantáneamente a nuestras necesidades sin la distracción tan humana de tener que llevar su propia vida».

El aspecto «con cafeína» de la existencia humana —que se manifiesta, por ejemplo, en la agresión pasiva y la ambigüedad desempoderante, pero también en la necesaria confrontación con los propios defectos y debilidades— está siendo cada vez más desplazado por las interacciones con los bots, porque son compañeros de conversación que siempre nos dan la sensación de que somos la mejor versión de nosotros mismos.

La filósofa de la tecnología Shannon Vallor, en su libro The AI Mirror, explica el peligro de tales chatbots de la siguiente manera:

Lo que hacen los espejos de IA es extraer, amplificar e impulsar los poderes dominantes y los patrones más frecuentemente registrados de nuestro pasado documentado y convertido en datos. Al hacerlo, desvían nuestra visión de las posibilidades más nuevas, más raras, más sabias, más maduras y más humanas que debemos abrazar para el futuro. En lugar de preguntarnos unos a otros en qué podríamos convertirnos ahora, le pedimos a los espejos de IA que nos muestren quiénes ya somos y hemos sido, y que a partir de ahí predigan lo que debe venir después.

Los chatbots pueden considerarse sujetos sin subjetividad porque carecen de aquellas características que nos convierten en sujetos reales en primer lugar: trayectorias del pasado moldeadas biográficamente, que son en sí mismas condiciones previas para la autorreflexión y, con ella, para los esfuerzos de transformación social. Las respuestas de la IA no surgen de la experiencia real, sino de la agregación estadística de los pasados de otras personas.

Mientras que la subjetividad humana implica esencialmente la reflexión sobre el propio pasado y, por lo tanto, es capaz de la autotransformación, el chatbot se limita a reproducir el pensamiento dominante del pasado documentado. En este sentido, tiende a la estabilización y reproducción del statu quo.

Por ejemplo, como destaca la experta en ética de la IA Zinnya del Villar, los modelos de lenguaje como GPT y BERT suelen asociar trabajos como «enfermera» con las mujeres y «científico» con los hombres, lo que refleja los estereotipos incrustados en sus datos de entrenamiento procedentes de textos históricos y medios de comunicación. De manera similar, cuando se entrenan con ejemplos de contratación del pasado plagados de sesgos —como currículos que favorecen a los hombres para puestos técnicos—, estos sistemas perpetúan la discriminación de género al filtrar las solicitudes de manera que refuerzan normas obsoletas en lugar de innovar más allá de ellas mediante la reflexión crítica.

La desaparición de la experiencia

Avantika Tewari sostiene que la pérdida de subjetividad que implica el uso creciente de la IA puede servir para reforzar el sistema capitalista:

Así como el capitalismo reduce el trabajo a una mera función dentro de un sistema más amplio, la IA reduce la creatividad a un proceso mecánico, despojándola de sus dimensiones subjetivas e intencionales. La llamada «igualdad» entre los textos generados por IA y la creatividad humana tiene menos que ver con la calidad intrínseca del resultado y más con su papel dentro de un sistema que prioriza la eficiencia y la productividad por encima de la expresión artística genuina.

Si la intención y la subjetividad son fundamentales para lo que significa ser humano, este hecho ayuda a explicar cómo la IA fomenta las tendencias alienantes endémicas del capitalismo. La sustitución de la cognición humana por la IA en diversos ámbitos, similar a la automatización del trabajo humano en general, implica asumir que el pensamiento es simplemente un proceso técnico —algo que puede desglosarse en pasos y automatizarse— en lugar de algo que surge y se forma a partir de la vida real en el mundo.

Pero el pensamiento humano no funciona así. Nuestros juicios y elecciones surgen de nuestras historias y conflictos personales. Los sistemas de IA no tienen tales experiencias propias. Reducen el pensamiento a patrones en datos existentes —lo que se ha registrado en el pasado— y lo procesan estadísticamente. Carecen de lo que hace que el pensamiento humano sea creativo y abierto al cambio.

El sujeto proletario, tal como lo concibió Karl Marx —a pesar de haber sido reducido por la organización capitalista de la producción a mera fuerza de trabajo—, sigue siendo un sujeto, cuyas acciones y percepciones están ancladas en su propia experiencia concreta. Esto queda ilustrado por el fenómeno de la alienación dentro del proceso de trabajo, tal como lo entendió Marx.

La alienación presupone que existe una forma de subjetividad que lleva consigo su propio pasado, sus expectativas y sus reivindicaciones sobre el mundo, y que ahora se enfrenta al proceso de producción capitalista como algo así como un cuerpo extraño. Precisamente porque los trabajadores, como sujetos, aportan su propia historia y experiencia al proceso de trabajo, pueden experimentar este proceso como algo alienante.

Para Marx, esta brecha entre el trabajador y el proceso de producción capitalista abre un espacio para un sentimiento de descontento experimentado subjetivamente —y, en última instancia, también para posibilidades de acción orientadas a transformar el orden existente. Este descontento surge de la tensión entre la experiencia subjetiva del trabajador y la estructura objetiva del proceso de producción, que priva a los trabajadores de su agencia al mismo tiempo que hace uso de su fuerza de trabajo.

Sin embargo, con el auge de los chatbots, está ocurriendo algo nuevo: es posible que incluso nuestra capacidad de sentirnos insatisfechos —de percibir que algo no está bien— se vea erosionada. El chatbot parece ser un sujeto que habla, pero no posee un pasado propio, ni una historia de experiencias y, por lo tanto, carece de subjetividad. Sus respuestas no surgen del procesamiento de la experiencia vivida, sino de la agregación estadística de los pasados ya documentados de otros.

En la medida en que las personas externalizan cada vez más la reflexión, la crítica e incluso la articulación del descontento a tales sistemas, la posibilidad de un pensamiento y una acción emancipadores puede marchitarse. Porque el impulso para el cambio se desarrolla a partir de la tensión entre la experiencia de una persona y las condiciones sociales existentes, una tensión que los chatbots no nos proporcionan ni son capaces de generar por sí mismos.

Cierre

Archivado como

Publicado en Artículos, Educación, homeCentroPrincipal, Ideas, Política and Tecnología

Ingresa tu mail para recibir nuestro newsletter

Jacobin Logo Cierre