Press "Enter" to skip to content
ENIAC, acrónimo de Electronic Numerical Integrator And Computer,​ fue una de las primeras computadoras de propósito general. Ejército de los Estados Unidos.

Internet debe ser un bien público

Si Internet fue construido por instituciones públicas, ¿por qué es controlado por corporaciones privadas? Para revertir esto, debemos conocer la historia de la privatización de la red.

El 1 de octubre de 2016 Internet cambió, pero nadie lo notó. Esta transformación invisible afecta al componente más importante que hace que Internet sea utilizable: el Sistema de Nombres de Dominio (DNS). Cuando usted escribe el nombre de un sitio web en su navegador, el DNS es el que convierte ese nombre en la cadena de números que especifica la ubicación real del sitio web. Al igual que una guía telefónica, el DNS relaciona los nombres que son significativos para nosotros con los números que no lo son.

Durante años, el gobierno estadounidense ha controlado el DNS. Pero en 2016 el sistema pasó a ser responsabilidad de una organización sin ánimo de lucro con sede en Los Ángeles llamada Corporación de Internet para la Asignación de Nombres y Números (ICANN). En realidad, la ICANN lleva gestionando el DNS desde finales de los años 90 en virtud de un contrato con el Departamento de Comercio. La novedad es que la ICANN ahora tiene una autoridad independiente sobre el DNS, según un modelo de «múltiples partes interesadas» que supuestamente hacen más internacional la gobernanza de Internet.

Es probable que el impacto real haya sido pequeño. Por ejemplo, se mantuvieron las medidas de protección de marcas que vigilan el DNS en nombre de las empresas. Y el hecho de que la ICANN tenga su sede en Los Ángeles y esté constituida de acuerdo con la legislación estadounidense significa que el gobierno de ese país siguió ejerciendo su influencia, aunque de forma menos directa.

Pero el significado simbólico es enorme. El traspaso marcó el último capítulo de la privatización de Internet. Concluye un proceso que comenzó en la década de 1990, cuando el gobierno estadounidense privatizó una red construida con un enorme gasto público. A cambio, el gobierno no exigió nada: ninguna compensación, y ninguna restricción o condición sobre la forma que tomaría Internet.

No había nada inevitable en este resultado: reflejaba una opción ideológica, no una necesidad técnica. En lugar de enfrentarse a cuestiones críticas de supervisión y acceso popular, la privatización excluyó la posibilidad de encaminar Internet por una vía más democrática. Pero la lucha no ha terminado. Para comenzar a revertir la situación y reclamar Internet como un bien público debemos revisar la historia, en gran parte desconocida, de cómo se produjo la privatización.

 

Los orígenes públicos de Internet

A Silicon Valley a menudo le gusta fingir que la innovación es el resultado de los empresarios que juguetean en los garajes. Pero la mayor parte de la innovación de la que depende Silicon Valley procede de la investigación gubernamental, por la sencilla razón de que el sector público puede permitirse asumir riesgos que el sector privado no puede.

Es precisamente el aislamiento de las fuerzas del mercado lo que permite al gobierno financiar el trabajo científico a largo plazo que acaba produciendo muchos de los inventos más rentables.

Esto es especialmente cierto en el caso de Internet. Internet fue una idea tan radical e improbable que solo décadas de financiación y planificación públicas pudieron hacerla realidad. No solo hubo que inventar la tecnología básica, sino que hubo que construir la infraestructura, formar a los especialistas y dotar de personal a los contratistas, financiarlos y, en algunos casos, desprenderse directamente de las agencias gubernamentales.

A veces se compara Internet con la red de carreteras interestatales, otro gran proyecto público. Pero como señala el activista jurídico Nathan Newman, la comparación solo tiene sentido si el gobierno «hubiera imaginado primero la posibilidad de los coches, subvencionado la invención de la industria automovilística, financiado la tecnología del hormigón y el alquitrán, y construido todo el sistema inicial».

La Guerra Fría proporcionó el pretexto para esta ambiciosa empresa. Nada aflojó tanto las cuerdas del bolsillo de los políticos estadounidenses como el miedo a quedarse atrás con respecto a la Unión Soviética. Este temor se disparó en 1957, cuando los soviéticos pusieron el primer satélite en el espacio. El lanzamiento del Sputnik provocó una auténtica sensación de crisis en la clase dirigente estadounidense y condujo a un aumento sustancial de los fondos federales para la investigación.

Una de las consecuencias fue la creación de la Agencia de Proyectos de Investigación Avanzada (ARPA), que más tarde cambiaría su nombre por el de Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA). ARPA se convirtió en el brazo de I+D del Departamento de Defensa. En lugar de centralizar la investigación en los laboratorios del gobierno, ARPA adoptó un enfoque más distribuido, cultivando una comunidad de contratistas tanto del mundo académico como del sector privado.

A principios de la década de 1960, ARPA comenzó a invertir fuertemente en informática, construyendo grandes ordenadores centrales en universidades y otros centros de investigación. Pero incluso para una agencia tan generosamente financiada como ARPA, este gasto desmedido no era sostenible. En aquella época, un ordenador costaba cientos de miles, si no millones, de dólares. Así que ARPA ideó una forma de compartir sus recursos informáticos de forma más eficiente entre sus contratistas: construyó una red.

Esta red era ARPANET, y sentó las bases de Internet. ARPANET conectaba los ordenadores a través de una tecnología experimental llamada conmutación de paquetes, que consistía en dividir los mensajes en pequeños trozos llamados «paquetes», dirigirlos a través de un laberinto de conmutadores y volver a ensamblarlos en el otro extremo.

Hoy en día, este es el mecanismo que mueve los datos a través de Internet, pero en aquel momento, la industria de las telecomunicaciones lo consideraba absurdamente poco práctico. Años antes, las Fuerzas Aéreas habían intentado persuadir a AT&T para que construyera una red de este tipo, sin éxito. ARPA incluso ofreció ARPANET a AT&T después de que estuviera en funcionamiento, prefiriendo comprar tiempo en la red en lugar de gestionarla ellos mismos.

Ante la oportunidad de adquirir la red informática más sofisticada del mundo, AT&T se negó. Los ejecutivos simplemente no veían el dinero en ello. Su miopía fue una suerte para el resto de nosotros. Bajo gestión pública, ARPANET floreció. El control gubernamental dio a la red dos grandes ventajas. La primera era el dinero: ARPA podía inyectar dinero en el sistema sin tener que preocuparse por la rentabilidad. La agencia encargó investigaciones pioneras a los informáticos de más talento del país a una escala que habría sido suicida para una empresa privada.

Y, lo que es igual de importante, ARPA aplicó una ética de código abierto que fomentaba la colaboración y la experimentación. Los contratistas que contribuían a ARPANET tenían que compartir el código fuente de sus creaciones o se arriesgaban a perder sus contratos. Esto catalizó la creatividad científica, ya que los investigadores de una serie de instituciones diferentes podían perfeccionar y ampliar el trabajo de los demás sin vivir con el temor de la ley de propiedad intelectual.

La innovación más importante que se produjo fue la de los protocolos de Internet, que surgieron a mediados de la década de 1970. Estos protocolos hicieron posible que ARPANET se convirtiera en Internet, al proporcionar un lenguaje común que permitía que redes muy diferentes se comunicaran entre sí.

La naturaleza abierta y no propietaria de Internet aumentó enormemente su utilidad. Prometía un único estándar interoperable para la comunicación digital: un medio universal, en lugar de un mosaico de dialectos comerciales incompatibles.

Promovida por ARPA y adoptada por los investigadores, Internet creció rápidamente. Su popularidad pronto hizo que científicos ajenos al ejército y al selecto círculo de contratistas de ARPA exigieran acceso. En respuesta, la National Science Foundation (NSF) emprendió una serie de iniciativas destinadas a llevar Internet a casi todas las universidades del país. Estas iniciativas culminaron en NSFNET, una red nacional que se convirtió en la nueva «columna vertebral» de Internet.

La columna vertebral era un conjunto de cables y ordenadores que formaban la arteria principal de Internet. Se asemejaba a un río: los datos fluían de un extremo a otro, alimentando afluentes, que a su vez se ramificaban en arroyos cada vez más pequeños. Estos flujos servían a los usuarios individuales, que nunca tocaban la red troncal directamente. Si enviaban datos a otra parte de Internet, éstos subían por la cadena de afluentes hasta la red troncal, y luego bajaban por otra cadena, hasta llegar al flujo que servía al destinatario.

Una de las lecciones de este modelo es que Internet necesita muchas redes en sus márgenes. El río es inútil sin afluentes que amplíen su alcance. Por eso la NSF, para garantizar la mayor conectividad posible, también subvencionó una serie de redes regionales que enlazaban las universidades y otras instituciones participantes con la red troncal de la NSFNET.

Todo esto no fue barato, pero funcionó. Los académicos Jay P. Kesan y Rajiv C. Shah han calculado que el programa NSFNET costó más de 200 millones de dólares. Otras fuentes públicas, como los gobiernos estatales, las universidades subvencionadas por el Estado y las agencias federales, probablemente contribuyeron con otros 2000 millones de dólares a la creación de redes con la NSFNET.

Gracias a esta avalancha de dinero público, una tecnología de comunicaciones de vanguardia incubada por ARPA se puso a disposición de los investigadores estadounidenses a finales de la década de 1980.

 

El camino hacia la privatización

Pero a principios de los noventa, Internet se estaba convirtiendo en víctima de su propio éxito. La congestión plagaba la red, y cada vez que la NSF la actualizaba, se acumulaba más gente. En 1988, los usuarios enviaban menos de un millón de paquetes al mes. En 1992, enviaban 150 000 millones. Al igual que las nuevas autopistas producen más tráfico, las mejoras de la NSF no hicieron más que avivar la demanda, sobrecargando el sistema.

Está claro que a la gente le gustaba Internet. Y estas cifras habrían sido aún mayores si la NSF hubiera impuesto menos restricciones a sus usuarios. La Política de Uso Aceptable (AUP) de la NSFNET prohibía el tráfico comercial, preservando la red sólo para fines de investigación y educación. La NSF consideraba que esto era una necesidad política, ya que el Congreso podría recortar la financiación si se consideraba que el dinero de los contribuyentes estaba subvencionando a la industria.

En la práctica, la AUP era en gran medida inaplicable, ya que las empresas utilizaban regularmente la NSFNET. Además, el sector privado llevaba décadas ganando dinero con Internet, tanto como contratista como beneficiario del software, el hardware, la infraestructura y el talento de los ingenieros desarrollados con fondos públicos.

La AUP puede haber sido una ficción legal, pero tuvo un efecto. Al excluir formalmente la actividad comercial, generó un sistema paralelo de redes privadas. A principios de la década de 1990, surgieron en todo el país diversos proveedores comerciales que ofrecían servicios digitales sin restricciones sobre el tipo de tráfico que podían transportar.

La mayoría de estas redes tenían su origen en la financiación gubernamental y contaban con veteranos de la ARPA por su experiencia técnica. Pero, sean cuales sean sus ventajas, las redes comerciales tenían prohibido por la AUP conectarse a Internet, lo que inevitablemente limitaba su valor.

Internet había prosperado bajo propiedad pública, pero estaba llegando a un punto de ruptura. El aumento de la demanda por parte de los investigadores ponía a prueba la red, mientras que la AUP impedía que llegara a un público aún más amplio.

No eran problemas fáciles de resolver. Abrir Internet a todo el mundo, y crear la capacidad necesaria para acogerlos, planteaba importantes retos políticos y técnicos.

El director de la NSFNET, Stephen Wolff, llegó a ver la privatización como la respuesta. Creía que ceder Internet al sector privado aportaría dos grandes beneficios: Aliviaría la congestión provocando una afluencia de nuevas inversiones y suprimiría la AUP, permitiendo a los proveedores comerciales integrar sus redes en NSFNET. Liberada del control gubernamental, Internet podría convertirse por fin en un medio de comunicación de masas.

El primer paso tuvo lugar en 1991. Unos años antes, la NSF había adjudicado el contrato de explotación de su red a un consorcio de universidades de Michigan llamado Merit, en asociación con IBM y MCI. Este grupo había hecho una oferta significativamente inferior, percibiendo una oportunidad de negocio. En 1991, decidieron sacar provecho, creando una filial con ánimo de lucro que empezó a vender acceso comercial a NSFNET con la bendición de Wolff.

La medida enfureció al resto del sector de las redes. Las empresas acusaron con razón a la NSF de hacer un trato secreto para conceder a sus contratistas un monopolio comercial, y armaron el suficiente alboroto como para que se celebraran audiencias en el Congreso en 1992. Estas audiencias no cuestionaron la conveniencia de la privatización, sino sus condiciones. Ahora que Wolff había puesto en marcha la privatización, los otros proveedores comerciales simplemente querían una parte de la acción.

Uno de sus directores ejecutivos, William Schrader, testificó que las acciones de la NSF eran similares a «dar un parque federal a K-mart». Sin embargo, la solución no era conservar el parque, sino dividirlo en múltiples K-marts.

Las audiencias obligaron a la NSF a aceptar un mayor papel de la industria en el diseño del futuro de la red. Como era de esperar, esto produjo una privatización aún más rápida y profunda. Anteriormente, la NSF había considerado la posibilidad de reestructurar NSFNET para permitir que más contratistas la dirigieran.

En 1993, en respuesta a las aportaciones de la industria, la NSF decidió dar un paso mucho más radical: eliminar NSFNET por completo. En lugar de una red troncal nacional, habría varias, todas ellas propiedad de proveedores comerciales y gestionadas por ellos. Los líderes de la industria afirmaron que el rediseño garantizaba la «igualdad de condiciones». Para ser más exactos, el campo seguía estando inclinado, pero abierto a unos cuantos jugadores más. Si la antigua arquitectura de Internet había favorecido el monopolio, la nueva está hecha a medida para el oligopolio.

No había tantas empresas que hubieran consolidado una infraestructura suficiente para operar una red troncal. Cinco, para ser exactos. La NSF no estaba abriendo Internet a la competencia, sino transfiriéndola a un pequeño puñado de empresas que esperaban. Sorprendentemente, esta transferencia vino sin condiciones. No habría supervisión federal de las nuevas redes troncales de Internet, ni normas que regulasen el funcionamiento de la infraestructura de los proveedores comerciales.

Tampoco habría más subvenciones para las redes regionales sin ánimo de lucro que habían conectado los campus y las comunidades a Internet en los días de la NSFNET. Pronto fueron adquiridas o quebradas por empresas con ánimo de lucro. En 1995, la NSF puso fin a NSFNET. En unos pocos años, la privatización fue completa.

La rápida privatización de Internet no suscitó ninguna oposición ni apenas debate. Aunque Wolff abrió el camino, actuó desde un amplio consenso ideológico.

El triunfalismo del libre mercado de los años 90 y el clima político intensamente desregulador fomentado por los demócratas de Bill Clinton y los republicanos de Newt Gingrich enmarcaron la plena propiedad privada de Internet como algo beneficioso e inevitable.

El colapso de la Unión Soviética reforzó este punto de vista, ya que la justificación de la Guerra Fría para una planificación pública más sólida desapareció. Por último, la profunda influencia de la industria sobre el proceso garantizó que la privatización adoptara una forma especialmente extrema.

Tal vez el factor más decisivo en la cesión fue la ausencia de una campaña organizada que exigiera una alternativa. Un movimiento de este tipo podría haber propuesto una serie de medidas destinadas a popularizar Internet sin privatizarla por completo. En lugar de abandonar las redes regionales sin ánimo de lucro, el gobierno podría haberlas ampliado.

Estas redes, financiadas con las tasas que se cobran a los proveedores de redes troncales comerciales, permitirían al gobierno garantizar el acceso a Internet de alta velocidad y bajo coste a todos los estadounidenses como un derecho social. Mientras tanto, la FCC podría regular las redes troncales, fijando las tarifas que se cobran entre sí por transportar el tráfico de Internet y supervisándolas como un servicio público.

Pero promulgar incluso una fracción de estas políticas habría requerido una movilización popular, e Internet era todavía relativamente oscura a principios de los noventa, en gran parte confinada a los académicos y especialistas. Era difícil crear una coalición en torno a la democratización de una tecnología que la mayoría de la gente ni siquiera sabía que existía.

En este panorama, la privatización obtuvo una victoria tan completa que se hizo casi invisible, y revolucionó silenciosamente la tecnología que pronto revolucionaría el mundo.

 

Reclamando la plataforma del pueblo

Casi treinta años después, Internet ha crecido enormemente, pero la estructura de propiedad de su infraestructura principal es prácticamente la misma. En 1995, cinco empresas eran propietarias de la red troncal de Internet. Hoy en día, hay entre siete y doce proveedores principales de redes troncales en Estados Unidos, dependiendo de cómo se cuente, y más en el extranjero. Aunque una larga cadena de fusiones y adquisiciones ha provocado cambios de marca y reorganización, muchas de las mayores empresas estadounidenses tienen vínculos con el oligopolio original, como AT&T, Cogent, Sprint y Verizon.

Las condiciones de la privatización han facilitado a los titulares la protección de su posición. Para formar una Internet unificada, las redes troncales deben interconectarse entre sí y con proveedores más pequeños. Así es como el tráfico viaja de una parte de Internet a otra. Sin embargo, como el gobierno no especificó ninguna política de interconexión cuando privatizó Internet, los backbones pueden negociar el acuerdo que quieran.

Por lo general, se permiten la interconexión de forma gratuita, porque les beneficia mutuamente, pero cobran a los proveedores más pequeños por transportar el tráfico. Estos contratos no solo no están regulados, sino que suelen ser secretos. Negociados a puerta cerrada con la ayuda de acuerdos de confidencialidad, garantizan que el funcionamiento profundo de Internet no sólo está controlado por las grandes empresas, sino que se oculta a la vista del público.

Más recientemente han surgido nuevas concentraciones de poder. La red troncal no es la única pieza de Internet que está en manos de relativamente pocas personas. En la actualidad, más de la mitad de los datos que llegan a los usuarios estadounidenses en las horas punta proceden de sólo treinta empresas, de las que Netflix ocupa una parte especialmente importante.

Del mismo modo, gigantes de las telecomunicaciones y el cable como Comcast, Verizon y Time Warner Cable dominan el mercado de los servicios de banda ancha. Estas dos industrias han transformado la arquitectura de Internet construyendo accesos directos a las redes de cada una de ellas, evitando la red troncal. Proveedores de contenidos como Netflix envían ahora su vídeo directamente a proveedores de banda ancha como Comcast, evitando una ruta tortuosa por las entrañas de Internet.

Estos acuerdos han desencadenado una tormenta de controversia y han contribuido a dar los primeros pasos hacia la regulación de Internet en Estados Unidos. En 2015, la FCC anunció su resolución más contundente hasta la fecha para hacer cumplir la «neutralidad de la red», el principio de que los proveedores de servicios de Internet deben tratar todos los datos de la misma manera, independientemente de si provienen de Netflix o del blog de alguien. En la práctica, la neutralidad de la red es imposible dada la estructura actual de Internet. Pero como grito de guerra, ha centrado la atención pública en el control corporativo de Internet, y ha producido victorias reales.

La resolución de la FCC reclasificó a los proveedores de banda ancha como «transportistas comunes», lo que los somete por primera vez a la regulación de las telecomunicaciones. Y la agencia ha prometido utilizar estos nuevos poderes para prohibir a las empresas de banda ancha que bloqueen el tráfico a determinados sitios, reduzcan la velocidad de los clientes y acepten la «priorización pagada» de los proveedores de contenidos.

La decisión de la FCC es un buen comienzo, pero no va lo suficientemente lejos. Rechaza explícitamente la «regulación prescriptiva de las tarifas en todo el sector» y exime a los proveedores de banda ancha de muchas de las disposiciones de la Ley de Comunicaciones de 1934, que data del New Deal. También se centra en la banda ancha, dejando de lado la red troncal de Internet. Pero la decisión es una cuña que puede ampliarse, sobre todo porque la FCC ha dejado abiertas muchas de las especificidades en torno a su aplicación.

Otro frente prometedor es la banda ancha municipal. En 2010, la empresa municipal de electricidad de Chattanooga (Tennessee) empezó a vender a los residentes un servicio de Internet de alta velocidad asequible. Gracias a una red de fibra óptica construida en parte con fondos federales de estímulo, la empresa ofrece algunas de las velocidades de Internet residencial más rápidas del mundo.

La industria de la banda ancha ha respondido con fuerza, presionando a las legislaturas estatales para que prohíban o limiten experimentos similares. Pero el éxito del modelo de Chattanooga ha inspirado movimientos a favor de la banda ancha municipal en otras ciudades, como Seattle, donde la concejala socialista Kshama Sawant lleva tiempo defendiendo la idea.

Pueden parecer pequeños pasos, pero apuntan a la posibilidad de construir un movimiento popular para revertir la privatización. Esto implica no sólo agitar para ampliar la supervisión de la FCC y los servicios públicos de banda ancha de propiedad pública, sino cambiar la retórica en torno a la reforma de Internet.

Una de las obsesiones más dañinas entre los reformistas de Internet es la noción de que una mayor competencia democratizará Internet. Internet necesita mucha infraestructura para funcionar. Rebanar las grandes corporaciones propietarias de esta infraestructura en empresas cada vez más pequeñas con la esperanza de que el mercado acabe por crear mejores resultados es un error.

En lugar de intentar escapar de la grandeza de Internet, deberíamos aceptarla y ponerla bajo control democrático. Esto significa sustituir a los proveedores privados por alternativas públicas cuando sea factible, y regularlas cuando no lo sea.

No hay nada en las tuberías ni en los protocolos de Internet que le obligue a producir inmensas concentraciones de poder corporativo. Se trata de una elección política, y podemos elegir otra cosa.

 

 

Cierre

Archivado como

Publicado en Artículos, Ciencia y tecnología, Estado, homeIzq and tecnología

Ingresa tu mail para recibir nuestro newsletter

Jacobin Logo Cierre