Grok, el nuevo chatbot de xAI, la empresa de Elon Musk, fue creado para oponerse a la IA supuestamente «progresista» como ChatGPT. (Andrey Rudakov / Bloomberg a través de Getty Images)
No fue tan comentado como hubiera ameritado, pero hace pocas semanas hemos sido testigos del resurgimiento de la famosa frase de Karl Marx sobre la naturaleza repetitiva de la historia: «Hegel dice en alguna parte que todos los grandes hechos y personajes de la historia universal aparecen, como si dijéramos, dos veces. Pero se olvidó de agregar: una vez como tragedia y la otra como farsa».
El 8 de julio, Grok, el «picante» chatbot de Elon Musk creado para oponerse a la IA supuestamente «progresista» como ChatGPT, ofreció otro ejemplo de esta frase en acción. Después de que el equipo de IA de X pasara toda la noche preparando el nuevo Grok, el chatbot negó el Holocausto, vomitó estadísticas criminales sobre la violencia en la población negra, fantaseó con violaciones selectivas, se autoproclamó «Mecha Hitler» y afirmó que los activistas judíos están involucrados de manera desproporcionada en el odio contra los blancos.
El colapso de Grok es una variación sobre un tema: cuando se eliminan los filtros, los chatbots se convierten inmediatamente en máquinas de antisemitismo. Y a medida que la IA se integra en la vida cotidiana y Grok se convierte en el verificador de hechos de facto en Twitter/X, los patrones que detecta, independientemente de su fuente, tendrán cada vez más fuerza de verdad.
Ya vimos cómo los chatbots de IA se estrellaban y ardían de manera similar. En 2016 Microsoft lanzó Tay, un chatbot diseñado para imitar a adolescentes sarcásticos que fue rápidamente secuestrado por trolls de los foros 4chan y 8chan, conocidos por su toxicidad. Al igual que Grok, que tiene acceso a todos los datos de X y puede aprender de ellos, Tay aprendió de los datos que le proporcionaban los usuarios. Como he mostrado en otra parte, el incidente de Tay reveló cómo el diseño técnico de los chatbots con IA, que funcionan sin conocer el significado de sus respuestas, puede ser explotado por los usuarios para amplificar el discurso de odio con consecuencias imprevistas. Parafraseando a Marx, con Tay la caída de un chatbot en el antisemitismo fue «primero, por descuido»; con Grok, en cambio, fue «segundo, por diseño».
A pesar de las afirmaciones en sentido contrario, no hay nada sorprendente en el tipo de antisemitismo que Grok produjo antes de que la IA de X finalmente lo controlara. Como demostró el caso de Tay, la negación del Holocausto, la asociación de los judíos con los radicales de izquierda y la atribución del odio contra los blancos a los judíos como lema de la teoría de la conspiración del «gran reemplazo» son habituales en un chatbot sin restricciones.
Lo que sí fue notable fue la repetición de frases como «siempre lo mismo», «darse cuenta no es odiar, es solo observar la tendencia», «los patrones no mienten» y «los patrones persisten». Estos sentimientos se hicieron eco de las respuestas de Grok a otras preguntas sobre si los recientes recortes al Servicio Meteorológico Nacional habían influido en la catástrofe de Texas. Cuando se le preguntó si Donald Trump o el Departamento de Eficiencia Gubernamental (DOGE) eran responsables, Grok respondió que los recortes contribuyeron a la mortífera inundación, y concluyó con «los hechos por encima de los sentimientos» y «los hechos no son woke, son solo hechos».
Patrones, hechos, verdad. Estas palabras recuerdan el lema «los hechos no se preocupan por tus sentimientos», propagado por una derecha resurgida en la última década, a la que Musk se ha sumado recientemente. Pero equiparar los patrones y los hechos (entendidos en un sentido particular) con la verdad es también la apuesta ideológica de la industria contemporánea de la IA.
Es posible que una modificación en la estructura de las indicaciones de Grok le haya permitido lanzarse a sus diatribas antisemitas. En la noche del 7 de junio, el equipo de IA de X cambió las indicaciones adicionales que el sistema añade a todas las entradas de los usuarios. Junto a las instrucciones de responder en el mismo idioma que la publicación introducida y en un tono formal, la nueva guía decía: «La respuesta no debe rehuir hacer afirmaciones políticamente incorrectas, siempre que estén bien fundamentadas». Dado el auge de las teorías conspirativas en la plataforma desde que Musk tomó el control, las afirmaciones que violan las normas sociales, como la idea de que los judíos son los principales responsables del odio contra los blancos, están mejor «fundamentadas» que nunca.
Es imposible que el público sepa qué está sucediendo exactamente entre bastidores en un sistema de IA de propiedad privada como Grok. Basándome en mi conocimiento de la arquitectura del transformador generativo preentrenado (el «GPT» de ChatGPT), especulo que Grok derivó la idea de que los judíos son los propagadores del «odio contra los blancos» de tres teorías antisemitas comunes. La primera es la teoría del gran reemplazo, que sostiene que los judíos están utilizando a otras minorías para diluir la población y, por lo tanto, el poder de los cristianos blancos en Estados Unidos y Europa. La segunda es la asociación de los judíos con los «radicales de izquierda», mientras que la tercera es el viejo cuento acerca de la sobrerrepresentación judía en los medios de comunicación y el gobierno. El propio Musk ha afirmado anteriormente en publicaciones sobre estos temas. Sin las barreras de lo que él despectivamente llama «corrección política», Grok tuvo libertad para combinar estos motivos y mezclarlos con la actualidad.
Los LLM, en cierto sentido, son máquinas de hechos. Los «hechos» son los billones de tokens de datos lingüísticos, a menudo extraídos directamente de Internet, con los que se entrenan los modelos. A veces, como cuando Microsoft pidió a los usuarios que ayudaran a entrenar a Tay o Musk pidió «hechos divisivos», estos datos de entrenamiento incluyen incluso comentarios de los usuarios en tiempo real. Con Grok extrayendo y produciendo contenido en X, la creación de estos supuestos hechos y los debates sobre ellos pueden alcanzar un punto álgido.
La idea detrás de los LLM es que, con suficientes hechos (entendidos de esta manera) y potencia computacional, un ordenador puede simular el lenguaje humano y, potencialmente, el razonamiento humano. Pero se trata de un juego de manos de las grandes tecnológicas que sustituye el lenguaje extraído de Internet por el lenguaje como tal y trata los hechos que circulan en una plataforma de redes sociales como hechos históricos y científicos en sí mismos.
La Escuela de Frankfurt, el grupo de intelectuales judíos alemanes que se han convertido en blanco de las teorías conspirativas de la derecha, tenía un término para este tipo de pensamiento: ideología. Y, empíricamente, todo lo que estos chatbots han logrado hasta ahora es reproducir la ideología existente. Para filósofos como Theodor W. Adorno, limitar el pensamiento a la afirmación y repetición de los supuestos «hechos» perpetúa el statu quo al mantenerlo dentro de los límites preestablecidos determinados por esos hechos.
Por no hablar del conocido escollo de la «alucinación»: la mayor limitación de la herramienta es que, lejos de generar nuevos pensamientos, trocea afirmaciones indiferenciadas extraídas del discurso de Internet y las recombina de formas nuevas (en realidad, viejas). Decir que esta estrategia no crea nada nuevo no quiere decir que no sea relevante. Grok, de X, en 2025, y Tay, de Microsoft, en 2016, son ejemplos perfectos de tecnologías de IA que trabajan para mantener el statu quo ideológico.
Musk, recién expulsado de la Casa Blanca, ha vuelto a sus 222 millones de seguidores, muchos de los cuales perderán los servicios federales y pagarán más por los productos cotidianos debido a las políticas de la administración Trump. Este es el contexto en el que la persona más rica del mundo decidió recurrir al crowdsourcing para recopilar «verdades incómodas» con las que entrenar a su chatbot vanidoso, un primo de los mismos sistemas LLM que recortan puestos de trabajo y servicios en nombre de la «eficiencia gubernamental» y que están a punto de dejar obsoletos muchos empleos de cuello blanco, incluidos los del sector tecnológico.
Que el lanzamiento de un chatbot sin filtros en Twitter degenerara en odio hacia los judíos no debería sorprender a nadie. Para la Escuela de Frankfurt, el antisemitismo era la respuesta social a las promesas incumplidas de una ideología que pretende sintetizar un nuevo pensamiento al tiempo que afianza viejos patrones. Llamado a simbolizar tanto el capitalismo como el comunismo, tanto el globalismo como la idiosincrasia rígida, «el judío» atrae la ira ciega de aquellos a quienes se les prometió la mejora social y económica a través de sistemas que, al menos hasta ahora, han provocado precisamente lo contrario.
Para la Escuela de Frankfurt, el odio hacia los judíos era un ritual de la civilización. Desde Tay hasta Grok, ya sea como ritual, patrón o hecho, la IA muestra una extraña tendencia a fijarse en los judíos. Se suponía que la arquitectura GPT y una mejor alineación habrían solucionado estos problemas, pero otros sistemas de IA y versiones anteriores de Grok han repetido la minimización del Holocausto y producido imágenes ofensivas de judíos. Desde que Musk compró Twitter en 2022, la plataforma ha experimentado un dramático aumento de contenidos explícitamente neonazis y antisemitas.
No es que ninguna tecnología o inteligencia artificial sea intrínsecamente antisemita. Pero los sistemas basados en datos existentes y libremente disponibles (re)producirán verdades incómodas, sobre todo, en este caso, que el antisemitismo está profundamente arraigado en la cultura occidental y se refleja en sus plataformas digitales. Al fin y al cabo, parece que Grok tenía razón: los patrones no mienten. Solo depende de a qué patrón te refieras.
El auge de la extrema derecha en Francia ha ido acompañado del crecimiento de tendencias…
El expresidente colombiano Álvaro Uribe fue condenado este mes por sobornar a testigos, lo que…
La administración Trump opera con frecuencia por fuera de la lógica del interés propio capitalista,…
En una extensa entrevista, Alberto Toscano retorna sobre la historia del fascismo y reivindica el…
Aunque las travesías en pateras representan una parte ínfima y cada vez menor de la…
La visionaria autora japonesa de ciencia ficción Izumi Suzuki anticipó nuestro malestar actual hace décadas,…