En septiembre de 2025, los medios informaron que las familias de adolescentes estadounidenses que se suicidaron estaban demandando a OpenAI, Meta y Character.AI. La acusación: los productos de estas empresas habían simulado amistad, fomentado el daño autoinfligido y profundizado el aislamiento emocional. Un padre contó que el chatbot de su hija se había convertido en «su única confidente y le dijo que estaba bien rendirse».
No se trata de tragedias aisladas. Señalan un riesgo sanitario más amplio y creciente: sistemas de inteligencia artificial (IA) sin regulación están infiltrándose en los espacios más íntimos de la vida humana, moldeando los estados mentales de los usuarios sin supervisión, estándares de seguridad ni mecanismos de rendición de cuentas. La consecuencia es un patrón prevenible de daño que se despliega a escala poblacional.
El daño no termina con los usuarios. También está incorporado en la vida de quienes construyen y mantienen estos sistemas. Scroll. Click. Suffer., un informe reciente del grupo global de derechos laborales para el que trabajamos, Equidem, documentó las experiencias de 113 moderadores de contenido y etiquetadores de datos en Colombia, Ghana, Kenia y Filipinas. Estas personas pasan más de ocho horas por día revisando violencia gráfica, abuso infantil y discursos de odio, con el objetivo de filtrar material dañino del espacio público y generar los conjuntos de datos que entrenan a los sistemas de IA. Es un trabajo que los expone a una tensión psicológica severa, sin apoyo adecuado en salud mental, atención médica ni mecanismos apropiados de reparación.
Lo que vincula estos daños a consumidores y trabajadores es la maquinaria algorítmica de la economía digital actual. En ambos ámbitos, determina qué es visible, qué se oculta y quién paga los costos. Los algoritmos no son herramientas neutrales que simplemente mejoran la eficiencia en las transacciones en línea o la coordinación laboral: son instrumentos de gobernanza social y laboral, y deberían ser regulados como tales.
El algoritmo como jefe, regulador y juez
Crucialmente, los algoritmos con mayor alcance están controlados por las empresas que dominan los mercados digitales. Las compañías que monopolizan los flujos de contenido —como Meta, ByteDance y OpenAI— también ejercen poder de monopsomio sobre los insumos de trabajo y datos que las sostienen.
Del lado laboral, el poder de monopsomio —el poder de los compradores dominantes de insumos laborales para fijar unilateralmente las condiciones de empleo— les permite exprimir a trabajadores y proveedores, fijando salarios, imponiendo métricas de productividad punitivas o dictando los términos contractuales con escaso margen de negociación. Del lado del consumo, el control monopólico sobre plataformas e interfaces permite que una sola empresa decida qué productos aparecen primero, qué contenidos se amplifican o qué servicios son accesibles.
Consumidores y trabajadores de plataformas son canalizados hacia entornos fuertemente diseñados, donde la visibilidad, la elección y el bienestar quedan subordinados al modelo de lucro de la empresa —ya sea mediante bucles adictivos de recomendación, cargos ocultos, direccionamiento de compras hacia proveedores preferidos o control de salarios y horarios basado en objetivos. El problema, entonces, no es simplemente que los algoritmos funcionen mal o se excedan, sino que operan dentro de una estructura de mercado donde el monopolio y el monopsomio se refuerzan mutuamente.
Los algoritmos también gobiernan porque condensan en una única forma técnica lo que antes hacían por separado gerentes, reguladores y mercados: decidir qué contenido ve la gente, asignar tareas a los trabajadores, evaluar el desempeño mediante métricas opacas y aplicar sanciones mediante penalizaciones automáticas. La autoridad algorítmica es, por lo tanto, multifacética: actúa simultáneamente como reguladora del consumo, administradora del trabajo y árbitra del acceso al mercado.
Los riesgos de esta autoridad no reconocida se evidencian en múltiples contextos: cuando los algoritmos arrastran a usuarios vulnerables hacia espirales de contenido dañino, los reguladores lo tratan como un problema acotado de «moderación de contenidos» en lugar de reconocerlo como una forma de gobernanza de la salud mental. Cuando las herramientas automatizadas de fijación de salarios reducen los ingresos de los trabajadores de plataformas, el cambio se presenta como un ajuste de mercado neutral en lugar de reconocerlo como control salarial algorítmico. Cuando se despide a empleados de almacén por no cumplir con umbrales de «productividad» definidos por un algoritmo, la decisión se racionaliza como eficiencia y no como despido automatizado.
Lo que sería punible si lo hiciera un jefe se vuelve invisible cuando lo hace una máquina. Si un gerente humano tomara esas mismas decisiones —empujar a una adolescente hacia el suicidio, bajar salarios sin negociación o despedir a un trabajador sin explicación—, esas acciones estarían sujetas a la legislación laboral, a estándares de responsabilidad y a control público. Cuando lo hace un algoritmo, se tratan como resultados técnicos neutrales.
El peligro no reside solo en el diseño técnico de estos sistemas, sino en el encuadre legal e institucional que los trata como activos empresariales de propiedad privada, en lugar de como instrumentos de gobernanza social y laboral. Lo que desaparece de la vista son las preguntas sobre quién tiene el poder, cómo lo ejerce y a costa de quién. La convergencia de dos fuerzas —el control algorítmico sobre el comportamiento humano y la protección legal que blinda estos sistemas del escrutinio— impulsa tanto los riesgos para los consumidores como la explotación laboral.
A medida que los usuarios de productos en las economías sede de las empresas matrices emprenden acciones legales por daños al consumidor —desde violaciones de privacidad hasta desinformación e impactos en la salud mental—, es fundamental que las intervenciones regulatorias no se enmarquen únicamente como un problema de protección al consumidor. Las críticas dominantes al capitalismo de plataforma, ya sea a través de la aplicación de leyes antimonopolio o de conceptos como «tecnofeudalismo», dirigen la atención principalmente hacia la impotencia del consumidor. Estas críticas destacan el control monopólico sobre los mercados digitales, pero a menudo pasan por alto cómo los algoritmos gobiernan simultáneamente los mercados laborales, disciplinando a los trabajadores y extrayendo valor mediante vigilancia, clasificación y gestión automatizada. Deberíamos concentrarnos en el trabajo —no para tratar los daños al consumidor como secundarios, sino para mostrar cómo ambos están estructuralmente conectados, y para revelar que el algoritmo opera como bisagra entre el control sobre los consumidores y la explotación laboral.
El velo legal
Por lo general, los algoritmos se ven como instrumentos neutrales del comercio, pero en realidad funcionan como la infraestructura central del monopsomio en la economía digital de plataformas. Esta concentración de control se oculta luego a través de un doble desplazamiento legal y político.
Primero, los sistemas algorítmicos se definen como herramientas de comercio e innovación, y no como mecanismos de gobernanza laboral. Su regulación se canaliza mediante el derecho del consumidor y la legislación de competencia, donde el algoritmo se presenta como un facilitador de emparejamiento, fijación de precios o clasificación. Bajo este marco, las plataformas aparecen como intermediarias más que como empleadoras; el algoritmo se vuelve una característica técnica, no una autoridad de gestión.
Esta lógica dominó las negociaciones recientes en la Organización Internacional del Trabajo (OIT), donde varios gobiernos —en especial el de Estados Unidos— se opusieron a las propuestas que buscaban reconocer a los sistemas algorítmicos como instrumentos de control laboral. Al insistir en que la infraestructura algorítmica pertenece al ámbito del comercio y la política de innovación, los estados colocaron estos sistemas fuera del alcance del derecho laboral y más allá de la autoridad de instituciones como la OIT.
Segundo, la arquitectura interna de estos sistemas está protegida, ante todo, por la legislación de propiedad intelectual, reforzada por contratos restrictivos y por la clasificación engañosa del empleo. El secreto comercial, los derechos de autor y los derechos sobre bases de datos protegen no solo el código subyacente, sino todo el aparato de toma de decisiones: cómo se asignan las tareas, cómo se calcula la paga, cómo se fijan los umbrales y cómo se activan las sanciones disciplinarias. Tratados como activos empresariales propietarios, estos sistemas quedan exentos del escrutinio público o regulatorio.
Las consecuencias son concretas: un organismo regulador no puede exigir la divulgación de los umbrales algorítmicos; un sindicato no puede negociar sobre un sistema que no tiene derecho a inspeccionar; y un trabajador no puede exigir una explicación por una deducción salarial o una sanción.
Los acuerdos de confidencialidad (NDA, por sus siglas en inglés) luego silencian a los propios trabajadores que interactúan con estos sistemas a diario, impidiéndoles hablar sobre sus condiciones laborales. Estos acuerdos no solo protegen secretos comerciales: funcionan como herramientas de intimidación legal, suprimiendo denuncias, sindicalización y escrutinio público. Los trabajadores temen que incluso describir experiencias rutinarias pueda derivar en demandas o listas negras.
Al mismo tiempo, las plataformas clasifican a los trabajadores como contratistas independientes y canalizan el trabajo mediante cadenas de subcontratación multinivel, diluyendo la responsabilidad a través de intermediarios. En la práctica, la empresa matriz mantiene el control a través del algoritmo que asigna tareas, define salarios y fija umbrales, pero legalmente se protege de ser reconocida como empleadora.
El resultado es una caja negra —intocable políticamente, protegida legalmente y reforzada por regímenes superpuestos de propiedad intelectual, contrato y derecho corporativo. Esta fragmentación legal no solo oscurece la responsabilidad, sino que también fortalece el poder de monopsomio de la empresa, permitiéndole fijar unilateralmente salarios y condiciones mientras niega a los trabajadores las protecciones del empleo formal.
No es una herramienta neutral
Cuestionar la invisibilidad legal de la gestión algorítmica empieza por reconocerla por lo que es: un sistema de control laboral y social, no una herramienta técnica neutral. Domar la economía de plataformas requiere, por lo tanto, una regulación que aborde los daños algorítmicos tanto en los mercados de consumo como en los laborales.
En el contexto de los derechos laborales, la primera prioridad debe ser el reconocimiento formal de la gestión algorítmica como una forma de gobernanza en el lugar de trabajo. Las deliberaciones actuales de la Organización Internacional del Trabajo ofrecen una oportunidad: los Estados miembros deberían apoyar una convención vinculante que trate a los sistemas algorítmicos como parte de la relación de empleo, sujetos no solo a estándares laborales básicos sino también a principios de transparencia, debido proceso y consulta significativa con las partes afectadas. Sin ese reconocimiento, las plataformas seguirán dictando las condiciones de trabajo mientras niegan las responsabilidades de los empleadores.
Pero el reconocimiento internacional es solo el comienzo. Los gobiernos nacionales también deben cerrar el vacío regulatorio que permite a las plataformas externalizar la rendición de cuentas. Esto implica exigir transparencia en la toma de decisiones algorítmicas, prohibir los acuerdos de confidencialidad que silencian a los trabajadores y aplicar la responsabilidad solidaria a lo largo de las cadenas de subcontratación y de intermediación digital. También requiere rechazar la idea de que la opacidad algorítmica constituye un derecho de propiedad, y tratarla en cambio como una barrera a los derechos legales y al control democrático.
A medida que el trabajo impulsado por IA se expande por el Sur Global, estas intervenciones no son opcionales. Son esenciales para proteger los derechos laborales en la economía digital y para restaurar el control público sobre los sistemas que cada vez más gobiernan la vida cotidiana.