Академический Документы
Профессиональный Документы
Культура Документы
A principios del 2000, Google condujo una de sus primeros experimentos online. El
resultado fue un desastre.
El error de Google comenzó con una pregunta simple: ¿Cuántos resultados debería arrojar
por cada consulta? La joven compañía siempre le había dado a sus usuarios diez
resultados, porque eso era lo que la compañía líder anterior, AltaVista, había hecho. A
pesar de esto, operadores de búsqueda competidores como Yahoo! devolvían veinte, y los
1
grupos de discusión sugerían que los usuarios preferían aún más.
Los investigadores de Google decidieron intentar una prueba real, dividiendo grupos de
usuarios, los cuales recibirían veinte, veinticinco o treinta resultados, en lugar de diez.
Pero cuando chequearon un mes más tarde, descubrieron (para su asombro) que más
resultados habían causado enormes caídas en el tráfico de búsqueda. Las búsquedas del
grupo de treinta resultados habían caído más del 20 por ciento, y cientos de miles de
usuarios habían abandonado Google a la vez.
Los investigadores se apresuraron por averiguar qué habían hecho mal. ¿Los usuarios se
sentían sobrepasados por tantos resultados? Los datos no demostraban información al
respecto. ¿Los usuarios simplemente clickeaban el botón de “siguiente” menos veces?
Para empezar, pocos usuarios lo hacían, por lo que este efecto era improbable.
Eventualmente, Google rastreó la caída de tráfico a una fuente sorprendente: arrojar más
resultados tomaba una fracción de segundo más. El grupo de control esperaba 0.4
segundos por lo general, mientras que aquellos en el grupo de los veinticinco resultados
esperaban 0.9 segundos. Luego de un par de días, esta ventaja agregada significaba poco.
Pero con el paso de las semanas, los efectos de ese “medio segundo extra” se
multiplicaron. La gente visitaba Google con menor frecuencia, y desarrollaban menos
búsquedas cuando lo hacían. Incluso cuando el experimento terminó, los usuarios que
habían perdido no volvieron inmediatamente. Su uso comenzó a crecer de nuevo, pero
2
desde un nuevo punto de partida (más bajo).
1
Para una discusión completa sobre los primeros experimentos de Google, ver Mayer, 2007.
2
Experimentos subsecuentes han demostrado que puede llevar semanas o meses para que esos usuarios
regresen a sus niveles previos, ver Hölzle, 2012.
Existen varias moralejas para la historia de los experimentos del joven Google, las cuales
serán desmenuzadas a lo largo de este libro. Pero la lección más importante es sobre
cómo comprender la ventaja online.
La supervivencia digital depende de la habilidad para atraer usuarios, para lograr que se
mantengan por más tiempo, y para hacerlos regresar una y otra vez. La pegajosidad que
logra que el interés en internet crezca, en la cual una pequeña ventaja inicial en el
crecimiento logra una enorme brecha a largo plazo.
¿Cómo se concentraron tanto las audiencias online y los ingresos digitales? ¿Qué es lo que
significa esta concentración para los negocios, la política, las noticias, incluso para la
seguridad nacional? ¿Es inevitable el oligopolio online, o existe alguna salida de la trampa
de internet? Estas son buenas preguntas que éste libro busca responder. Para nosotros
hoy, como para Google hace dos décadas, la primera lección es la siguiente: pequenos
efectos que se mezclan rápidamente no son pequeños efectos.
La escasez de atención.
La World Wide Web f ue construída en un intento explícito por eliminar las jerarquías en
las comunicaciones. Lo ha intentando mediante la combinación de otras tecnologías
previamente desarrolladas con el mismo objetivo en mente. La primera de estas fue el
hipertexto, creado en la década de 1960 por el sociólogo Ted Nelson. Los documentos
hipertextuales fueron diseñados para ser consumidos de manera no secuencial. Links
dentro del texto podrían llevarnos a otros pasajes interesantes, definiciones, gráficos,
tablas, o incluso otros documentos dentro de la misma computadora. La segunda
tecnología fue la internet, que para 1980 se había vuelto ubicua en todas las universidades
y centros de investigación. La internet había sido creada como una red de persona a
persona, en la cual no existían centros: cada computadora podía enviar y recibir
información de cualquier otra computadora.
Tim Berners-Lee, el creador de la web, notó que el hipertexto podía escalar a la cina de
internet. En lugar de limitarse a una sóla computadora, el hipertexto podría unir
documentos en computadoras en diferentes continentes. Berners-Lee llamó al proyecto la
“World Wide Web” para enfatizar que “cualquier punto puede ser unido a cualquier otro”
3
y para reflejar “la naturaleza de las personas y computadoras que el sistema podría unir” .
En la primera oración del proyecto inicial de www´s, una de las primeras páginas web,
Berners-Lee declaró: “No hay techo para la Web”. Se suponía que todos los sitios, todas
las páginas fueran creados de igual manera.
Si no existían sitios “top” en la World Wide Web en 1991, ciertamente los hay ahora. El
hecho de que algunos sitios y aplicaciones sean mucho más populares que otras es el dato
más importante de la vida online. Nos conectamos en Facebook, mientras los sitios
competidores consiguen menos de un 1 por ciento del tráfico de Facebook. Buceamos en
la Web usando Google o Bing, y los motores de búsqueda que compiten con ellos
obtienen una minúscula cuota del mercado. Leemos y escribimos nuestros e-mails usando
Google o Yahoo! o Microsoft. Usamos eBay para subastar, y compramos nuestros libros (y
con el tiempo, cualquier cosa) en Amazon. Entre los cientos de miles de sitios en la Web,
las cuatro firmas más grandes (Google, Facebook, Microsoft y Yahoo!) capturan un tercio
de todas las visitas online.
La concentración de los ingresos online es aún más dramática. Las diez firmas digitales
más grandes siempre han dominado la publicidad digital, tomando tres cuartos de dólares
publicitarios desde, al menos, mediados de 1990. Pero el cambio a telefonía móvil y video
ha intensificado la concentración al máximo. Desde mediados del 2016, Google y
Facebook reunieron más del 73 por ciento de la publicidad digital en Estados Unidos,
4
siendo un importante duopolio que genera más de $60 billones por año.
3
Berners Lee, 2000, p-23.
4
Ingram, 2017.
las granjas de servidores, fibra y software importan tanto, y cómo los sitios con más
contenido y mejor diseño son capaces de llevar la competencia online a su favor.
El libro también detalla cómo las audiencias son vendidas por ingresos a través de
publicidades y suscripciones. Este intercambio es altamente desigual: por varias razones,
los puntos de venta más grandes ganan mucho más dinero por cada miembro de su
audiencia que los pequeños. Esta relación recíproca entre el dinero y la atención crea un
ciclo de retroalimentación, en el cual sitios y aplicaciones que tienen éxito temprano
pueden invertir para volverse aún más exitosas.
Este pasaje de Simon ha sido repetido tan comúnmente que roza el cliché, con Google
clamando encontrar la cita en más de 4.5 millones de páginas web.
Muchos eruditos han retomado desde donde Simon lo dejó. En las últimas dos décadas
muchos libros y artículos han sido escritos sobre la “escasez de atención”, a pesar de que
esta frase ha animado ideas radicalmente diferentes sobre los medios digitales. Algunas
discusiones han sido encapotadas en la jerga de los negocios o en retórica ciber-utópica.
Una declaración temprana incluso propuso que la “transacción de la atención” llegaría a
6
reemplazar el dinero tradicional. Trabajos más recientes, como el excelente The
marketplace of Attention de James Webster, no han confiado en una visión idealizada de
la web, sino en información sobre cómo son verdaderamente consumidos los medios
digitales.
5
Simon, 1971.
6
Goldhabber, 1997.
modelos tomados de los dominios económicos tales como el comercio internacional y las
finanzas matemáticas, para demostrar que el mundo digital no es tan diferente después
de todo. Las grandes firmas digitales aún son dominantes por razones que los economistas
encontrarán novedosas y al mismo tiempo familiares. Diversas preferencias pueden servir
para concentrar audiencias más que para separarlas.
Pero más fundamentalmente, este libro desafía las afirmaciones de que “el dinero no
7
puede comprar atención” . Esta creencia de que la atención digital no puede ser
comprada es tejida a lo largo de la erudición de internet y los debates públicos, pero es
lisa e innegablemente equivocada. Demostrar exactamente cómo las audiencias son
compradas y vendidas es el tema central de este libro.
A pesar de esto, existe un punto clave en el cual este libro está de acuerdo con trabajos
anteriores: entender la economía de la atención es crucial para entender el impacto social
de los medios digitales. Como escribe James Webster, “Los medios digitales necesitan una
8
audiencia antes de que puedan lograr un objetivo” . Más allá de los intereses comerciales,
hay mucho en juego. Pensar en la economía de la atención nos lleva a considerar la
política económica de la atención, y viceversa. Por un lado, las decisiones y políticas
públicas ayudan a determinar quién gana y quién pierde en la vida online. Por el otro, la
economía de la atención digital constantemente modela la vida pública, incluyendo qué
contenido es producido, dónde van las audiencias, y finalmente, qué noticias e
información democrática ven los ciudadanos.
Fuerzas de concentración.
7
Ibid.
8
J. Webster, 2014, p. 1.
9
edificación geológica . En cierto sentido, la geología se mantuvo por 150 años como la
mitad de una disciplina.
Esta suerte de entendimiento desigual se dio en las ciencias sociales, también. Escribiendo
en 1997, Paul Krugman argumentó que la geografía económica (el estudio de dónde
ocurren espacialmente la producción y el consumo) era como la geología antes del
descubrimiento de las placas tectónicas: “los economistas entendieron por qué la
10
actividad económica se esparce, pero no por qué se concentra.” Los economistas
entendían cómo grandes rentas empujaban la actividad económica lejos de un centro
11
urbano, un proceso bien modelado por los modelos de oferta y demanda de Econ 101 .
Pero dichos modelos tenían un problema crítico: no podían explicar por qué, en primer
lugar, las ciudades no se formaban. Buenos modelos de formación de ciudades surgieron
únicamente una vez que los economistas comprendieron cómo una competencia
imperfecta podía generar concentraciones urbanas, por ejemplo, como los corredores de
bolsa en el bajo Manhattan, New York podían superar a aquellos en Manhattan, Kansas.
Aquellos que escriben sobre medios digitales afrontan hoy el mismo tipo de problema que
previamente afectó a la geología y la economía espacial. La distribución de las audiencias
virtuales, como la distribución de personas en el mundo real, es el resultado de un “tire y
afloje” entre fuerzas de concentración y fuerzas de dispersión. Pero mientras las fuerzas
de dispersión han sido largamente estudiadas y celebradas, las fuerzas que concentran
audiencias han sido sistemáticamente ignoradas.
La mayoría de los escritos hasta la fecha han asumido que los medios digitales producirán
12
una “difusión centrífuga” en las audiencias. Una y otra vez, observadores han dicho que
la web es un medio de “radiodifusión” o “punto de referencia”, que inclina el campo de
juego hacia los pequeños productores de contenido, que (para parafrasear a la Corte
Suprema de Estados Unidos en Reno v.ACLU - 1997), volverá a todas las personas
panfletarias. Nos han dicho que “los imperios monolíticos de los medios masivos se están
13
disolviendo hacia una variedad de industrias artesanales” , que internet ha empoderado
14 15
un “ejército de Davids” , que internet significa “el fin de los grandes”. Estos argumentos
no se han concentrado en sí las audiencias eran difundidas, sino en cuán rápido y cuán
lejos se estaban moviendo.
9
Ver discusión en Krugman, 1997, pp. 52–55.
10
Ibid, p-54.
11
von Tunen [1826], 1966.
12
Blumler and Kavanagh, 1999.
13
Negroponte, 1995, p. 58.
14
Reynolds, 2006
15
Mele, 2013.
A pesar de esto, el tráfico de información demuestra que las audiencias se rehúsan a
descentralizarse. Este libro es, en parte, una extensión de mi libro anterior El Mito de la
Democracia Digital, e l cual demostró que las audiencias digitales siguen patrones de ley
de poder concentrado. Algunos comentaristas rechazaron esta evidencia de concentración
considerándola prematura, diciendo que ignoraba la naturaleza rápidamente evolutiva de
la internet. Micah Sifry argumentó, por ejemplo, que “es peligroso llegar a declaraciones
16
cerradas sobre un espacio tan joven y dinámico” . Matt Bai sugirió que la evidencia del
17
libro sobre la concentración de audiencia online “sólo reflejaba un momento particular” .
Todos estos comentadores están en lo cierto sobre que algunas viejas fuerzas de
concentración no aplican para los medios digitales. No hay escasez de posibilidades en la
web. Las firmas de medios digitales no tienen la necesidad de mantener imprentas o flotas
de camiones de delivery. Los ciudadanos estimulados pueden compartir videos sin tener
una licencia de transmisión. Periodistas independientes pueden empezar sus propias
publicaciones digitales sólamente con una laptop y una café de Starbucks.
Pero el implacable foco en los nuevos sitios de pequeña escala ignora a los elefantes en el
cuarto: las enormes plataformas digitales donde los usuarios pasan la mayor parte de su
tiempo, y que absorben prácticamente todas las ganancias online. Cuando celebramos la
propagación de blogs de ciudadanos, debemos también entender por qué la gran mayoría
son abandonados sin ser leídos. Las fuerzas centrípetas merecen tanta atencißon como las
centrifugadoras.
16
Sifry, 2009.
17
Bai, 2009
El Capítulo 3 va más allá, demostrando que las grandes firmas y websites son mucho
mejores personalizando su contenido para los usuarios. Los medios digitales definidos por
“The Daily Me” no favorecen a los productores de contenido a pequeña escala, como
muchos han asumido. En cambio, favorecen a aquellos con recursos: dinero, staff,
información, manejo digital, propiedad intelectual, una audiencia establecida.
Mejores modelos.
Detallar las fuerzas que concentran las audiencias de internet es un comienzo. Pero lo que
se necesita especialmente no son nuevos datos sino nuevos modelos, t eorías que
expliquen los amplios patrones del tráfico digital y los ingresos de Facebook y Google en
comparación con los pequeños blogs personales. Lo que necesitamos son teorías simples
que puedan explicar tanto la enorme concentración en la web como la enorme cantidad
de sitios pequeños.
Los Capítulos 4 y 5 toman la tarea de construir modelos, usando enfoques diversos pero
complementarios. El Capítulo 4 construye un modelo de economía formal para la
producción de contenido online. Este modelo deductivo está basado en tres supuestos
clave. Primero, asumimos que los grandes sitios tienen economías de gran escala, tanto en
la producción de contenido como en su habilidad para transformar su audiencia en
ingresos. Segundo, asumimos que los usuarios tienen al menos modestas preferencias por
algo de diversidad en lo que buscan. Tercero, asumimos también que los usuarios
enfrentan costos de búsqueda o costos de cambio en la búsqueda de nuevo contenido.
El Capítulo 5 toma un camino diferente, usando información sobre las fluctuaciones del
tráfico web. Los defensores del “espera y verás” tienen razón sobre una cosa: la web es un
medio dinámico, y han existido grandes brechas en nuestro entendimiento sobre cómo el
tráfico evoluciona todo el tiempo. Los sitios ganan y pierden tráfico todos los días. Sitios
nuevos emergen constantemente, y sitios viejos caen en la irrelevancia.
Para los optimistas de un internet que nunca envejece, este giro es un pilar en su fe.
Miren a Facebook, la discusión plantea: prácticamente una década de vida, y ahora es la
propiedad más visitada en la Internet. O miren al Hufngton Post, fundado en 2005, el cual
se convirtió en uno de los primeros 10 sitios de noticias online, incluso antes de que se
uniera con el venerable AOL. Las grandes firmas web han sido especialmente agresivas al
empujar esta línea. Google le ha dicho repetidamente a los reguladores que no necesita
ser regulado, dado que “la competencia está sólo a un click de distancia”.
Pero estas posturas esconden un error básico. La manera más fácil de ver el error es
considerar otro espacio definido tanto por la incesante concentración y el constante
cambio: la bolsa de valores.
A pesar de que miles de acciones cotizan en bolsas públicas, la mayoría del valor del
mercado se concentra en unas doscientas compañías: grandes firmas como Apple,
Microsoft, Google, Exxon, General Electric y el Bank of America. Cuanto más pequeña es
una compañía, en promedio, más volátil se vuelve su valor de mercado. Las grandes
compañías suelen ser inversiones más seguras que las pequeñas. Incluso cuando las
grandes firmas enfrentan algún shock negativo inesperado (como, por decir, vuelvan
cientos de millones de galones de petróleo en el Golfo de México) su valor de mercado
cae apenas modestamente. Aún más, la estructura de la bolsa de valores es mucho más
estable que los valores mismos. No sabemos qué valor será el quinto más grande
maniana, pero sí sabemos cuánto variará en relación a los otros valores en el mercado.
El Capítulo 5 demuestra que el tráfico web sigue patrones notablemente similares. Los
grandes sitios tienen audiencias más estables, día tras día, mes tras mes, anio tras anio.
Los sitios más pequeños son mucho más volátiles. Mientras que los sitios individuales
constantemente crecen y caen, la estructura a grandes rasgos del tráfico web es
constante. No podemos predecir qué sitio será el más visitado el día de mañana, pero
sabemos qué porción del tráfico recibirá.
Los modelos de economía de la atención que propone este libro son bastante generales.
Mucha de la evidencia en las primeras partes del libro proviene de la esfera comercial de
la web y los medios digitales, donde las dinámicas de la economía de la atención son
particularmente fuertes, y donde las dinámicas online no son tan diferentes a los patrones
offline que conocemos.
Pero una de las grandes contribuciones de estos modelos es iluminar áreas de la web que
van más allá del contenido puramente comercial. Las implicancias más importantes de la
economía de la atención incluyen la esfera pública, la mezcla de noticias e información,
debate ciudadano y acción colectiva, que es el centro de las políticas democráticas.
Entonces los últimos capítulos de este libro se concentran en la esfera pública de la vida
online y, especialmente, en las noticias online.
Este giro hacia las noticias llega por varias razones. No sólo es que la salud de noticias sea
de crucial importancia para la democracia, sino que es también el área donde la economía
de la atención digital ha llegado a sus cambios más grandes. Los diarios locales en los
Estados Unidos siempre han producido la mayor parte del periodismo nacional, y
empleado a la mayoría de los periodistas norteamericanos. Pero como el consumo de
noticias online ha llegado a un punto de inflexión, hemos presenciado un colapso histórico
en los ingresos de las lecturas impresas.
Incluso más allá de la importancia cívica de las noticias, y de la rapidez del cambio en el
negocio de la información, existen razones teóricas que explican por qué miramos el
contenido de noticias online. Este contenido proviene de las más desafiantes pruebas a
nuestros modelos de economía de la atención, y es ésta el área en la cual el análisis del
libro desafía más fuertemente los trabajos anteriores.
Entonces, los Capítulos 6 y 7 miran a las noticias a través del lente de la economía de la
atención. El Capítulo 6 comienza observando a las noticias locales en la web. Muchos han
esperado que las fuentes de noticias online despegarán al mismo tiempo que los diarios y
emisoras locales decaían. Usando información de comScore, basada en un panel de más
de 250.000 usuarios web dentro de los 100 mercados de información más grandes, este
capítulo provee la mirada más comprensiva a las noticias locales online hasta la fecha.
Los editores de periódicos han repetido que los periódicos locales tienen un problema de
18
ingresos, no de lectores, que “muchas personas llegaron, pero no muchas publicidades” .
De hecho, los sitios de noticias locales sólo toman aproximadamente un sexto del tráfico
de noticias, o sólo una mitad del 1 por ciento del tráfico total. Dentro de los mercados
18
Morton, 2011.
locales de noticias, los sitios de noticias de diarios y televisión absorben prácticamente
toda la atención. Ni un sólo medio originalmente web de noticias locales (ni uno e ntre los
cien medios más grandes) se acerca al tráfico de un típico sitio de noticias o medio
televisivo local. Los periódicos pueden verse debilitados, pero estos monarcas enfermos
siguen siendo más grandes que sus advenedizos competidores.
Cualquier propuesta para salvar al periodismo local debe partir de la dinámica natural de
las audiencias digitales. Los periódicos locales, y especialmente los más pequeños, han
roto todas las reglas para construir sitios pegajosos. A nivel general, tardan en cargar, son
desordenados, y (seamos honestos) frecuentemente feos. Y mientras los periódicos le
prestan cada vez más atención al tráfico digital, usualmente no entienden lo que las
métricas online significan verdaderamente.
Construir una versión más rigurosa de la economía de la atención nos hace repensar
muchas cosas “obvias” sobre la web. Incluso desafía la única suposición más importante
sobre la era digital: la creencia de que internet hace que distribuir contenido sea
prácticamente gratuito.
En las primeras páginas de La Riqueza de las Redes, Yochai Benkler propone que internet
ha abolido las economías “industriales” que han pertenecido a tecnologías de
comunicación más antiguas:
Muchos otros eruditos han hecho lo mismo. Clay Shirky escribe en Aquí vienen todos q ue
los desafíos de la “amateurización masiva” se enfocan en dos preguntas principales:
“¿Qué pasa cuando los costos de reproducción y distribución se van? ¿Qué pasa cuando
no ya exista nada especial sobre publicar, porque los usuarios pueden hacerlo por sí
20
mismos?” Jay Rosen plantea que internet fomenta el periodismo “llevando a cero los
costos de llegada a la gente, y mediante la gran reducción de capital requerido para una
21
producción de calidad.” O como un libro propone, “en un área clave, internet reduce el
costo estructural de las firmas de medios y productores de contenidos: baja el costo de
distribución.”
22
De hecho, la última cita me pertenece. Estaba equivocado, y este libro intenta explicar
por qué.
Es cierto que el costo por mover, almacenar o procesar información es ahora barato, y se
vuelve cada vez más barato constantemente. Pero ahora nos movemos, almacenamos y
procesamos tanta información que el gasto total es masivo. Quién paga e stos costos se ha
desplazado, con consecuencias importantes. Pero los costos de los servidores y el
desarrollo web son más grandes que el costo de las líneas de telégrafo o las prensas
mecánicas o los transmisores televisivos. Los centros de información de Google (o Amazon
o Facebook) son exactamente la clase de gasto de capital multibillonario que se suponían
obsoletos.
El error más profundo de aquellos que defienden la libre distribución digital, ha sido una
angosta definición de lo que cuentan como costos de distribución. Los costos de
distribución, como sugiere la cita de Rosen, deben incluir todos los costos de llevar el
contenido delante de los ciudadanos. Pero esto incluye no solamente los costos de
información, o los costos de los servidores. Al contrario, el costo de la distribución del
contenido digital es el costo total que lleva construir una audiencia durante meses y años.
19
Benkler, 2006, pp. 3–4.
20
Shirky, 2009, pp. 59–60.
21
Rosen, 2011.
22
Hindman, 2009, pp. 86–87.
la pegajosidad. Los costos de distribución incluyen el diseño del sitio, y todas las
características que incrementan el compromiso de los lectores. Los costos de distribución
incluyen el equipo y el esfuerzo necesarios para personalizar el contenido. Los costos de
distribución incluyen la habilidad y la infraestructura que se requieren para optimizar los
motores de búsqueda. Los costos de distribución incluyen la compra de tráfico a través de
publicidades y links pagos. Los costos de distribución incluyen los costos de construir
aplicaciones móviles y hacer que los websites sean amigables para los celulares.
Simplemente porque los costos de la distribución online sean diferentes a los de otros
medios no quiere decir que sean pequeños.
Construir una audiencia online es como llenar de aire un globo con una fuga lenta. Uno
debe seguir inflando, para mantener un nivel constante de inversión, o los esfuerzos
previos serán perdidos rápidamente.estos costos indirectos de distribución no son
opcionales. Para un sitio de noticias o un blog, mantener un nivel de pegajosidad por
sobre lo normal es un asunto de vida o muerte.
Muchos han esperado que la web vuelva a las noticias y al debate político menos
centralizado, que expanda y diversifique el número de periodistas y sitios de noticias, y
que vuelva al capital menos importante a la hora de ganar audiencias. El número de sitios
puede haberse expandido, pero la esfera pública se mantiene altamente concentrada. La
cantidad de periodistas se ha desplomado y las “fake news” se multiplicaron, pero los
medios digitales son tan dependientes de algunos porteros corporativos como siempre lo
han sido. Construir una audiencia consistente sigue siendo enormemente caro. La
economía de la atención ha condenado la mayoría de nuestras esperanzas cívicas sobre la
web. Este libro es un eulogio post mortem (al explicar por qué las cosas han terminado así,
y por qué esta no es una fase pasajera).
La renuencia de muchos por abandonar esas esperanzas fallidas ahora amenaza con
empeorar la situación. Para todas las fallas de internet, existen pasos concretos que
podemos tomar para fortalecer la audiencia pública online. Pero primero debemos
entender el abismo entre nuestra internet imaginaria y ficcionalizada y la menos
inspiradora realidad.
En febrero de 1996 John Perry Barlow, mejor conocido como el compositor de The
Grateful Dead, publicó un breve manifiesto titulado “Una declaración de la Independencia
del Ciberespacio”. En turgida prosa que remite a Hegel más que a Jefferson, Barlow afirmó
que la internet era inmune a las regulaciones y enteramente separado del “mundo
23
industrial” . Internet era “el nuevo hogar de la mente”, donde “lo que sea que la mente
humana pueda crear puede ser reproducido y distribuido infinitamente bajo ningún costo.
El transporte global del pensamiento ya no requiere de sus fábricas para realizarse”. Los
gobiernos no podían esperar gobernar el ciberespacio, porque internet no era
simplemente una tecnología, sino “un acto de la naturaleza”.
Sin embargo, en importantes formas, no nos hemos vuelto más inteligentes sobre
internet. Errores conceptuales sobre la “naturaleza” de internet siguen siendo la razón
fundamental de nuestras politicas públicas. Los oímos de los labios del secretario de
Estado y del presidente de la FCC, incluso del presidente de Estados Unidos. Los leemos en
las publicaciones de nuestros colegas y en los libros más vendidos. Goliats corporativos se
23
Barlow, 1996.
24
Turner, 2006; ver también Helmreich, 1998.
25
Doherty, 2004.
preocupan a los gritos por la amenaza que sufren frente a estudiantes en un garage
26
(comúnmente falsificando sus propios orígenes bajos en el proceso) .
El problema al escribir sobre “la” internet, entonces, es que no hay una internet, sino dos.
La primera que efectivamente existe es la internet que la mayoría de nosotros utilizamos
diariamente, incluso constantemente. La segunda es la que llamamos internet imaginaria,
la idealizada, ficcionalizada internet que “todos saben” está democratizando la
comunicación y la vida económica. Una y otra vez, nuestro entendimiento de la internet
real se ve oscurecido por la fe infundada en la internet idealizada.
En la internet imaginaria, muchos suponen que las audiencias son desparramadas apenas
entre miles de sitios. En la internet real, en contraste, un tercio de las visitas web van a las
principales 10 firmas más grandes. Mientras el anterior presidente de la FCC Tom Wheeler
27
imagina que internet “distribuye la actividad económica” , la internet real deja que dos
firmas controlen más de la mitad de las ganancias de la publicidad online. El presidente de
la FCC durante la administración de Trump, Ajit Pai, similarmente imagina que la internet
provee “incontables” fuentes de noticias locales, mientras que la información del mundo
real de la FCC demuestra que la mayoría de los norteamericanos sólo tienen algunas
opciones de noticias locales online en realidad. En la internet imaginaria, la
personalización favorece a los sitios pequeños. En la real, las economías de escala y las
matemáticas de focalización significan que sólo los grandes sitios pueden personalizar la
publicidad y el contenido eficazmente. La internet imaginada puede ser “post industrial”,
pero en la real prácticamente todas las ganancias van a aquellas firmas que construyen
fábricas gigantes.
Al mismo tiempo, la internet imaginaria nos engaña sobre las dinámicas de las audiencias
digitales. En la internet que imaginamos, los giros de la audiencia son una fuerza
niveladora. En realidad, los giros desiguales son los que crean esta concentración digital
tan intensa. La web real cambia más rápido en el fondo que en la cima, donde los grandes
sitios disfrutan de una relativa seguridad. En la internet imaginaria, los costos de cambio
son triviales y la competición está “sólo a un click de distancia”. En la real, los usuarios son
más l eales a los centros digitales que a los minoristas de ladrillo y mortero. La economía
de la publicidad, que fue utilizada para pagar tarifas más altas por lector a los medios
locales sobre los nacionales, ha dado un giro sobre su cabeza.
26
Ver Heath y Heath, 2011.
27
Wheeler, 2013.
Nuestra visión ficcionalizada de internet ni siquiera comprende bien la arquitectura
tecnológica. La internet imaginaria sigue siendo una red de persona a persona tal como lo
era en 1995. Hoy, en la internet real, la mayor parte del tráfico nunca toca la columna
vertebral pública. Los pequeños sitios no son ni remotamente iguales en su hardware o
software o en sus fibras (a menos claro, que dependan de gigantes digitales como Amazon
o Google, haciendo la desigualdad aún más profunda).
Uno de los objetivos de este libro es achicar la brecha entre la internet imaginaria y la real,
entre la que tantos celebran y aquella más importante, compleja y desigual, que hoy está
entretejida en nuestras vidas. Apuntar las áreas específicas en las cuales la realidad no se
condice con nuestras suposiciones es el primer paso en ese proceso.
Pero derribar mitos significa poco si no logra reemplazar teorías folclóricas de la internet
por algo mejor. Irónicamente, un pensamiento más claro sobre internet se logra tomando
toda esta charla sobre su “naturaleza” muy seriamente.
Sin embargo, si queremos entender las audiencias online, es válido volver al pensamiento
de Darwin, y tomándolo incluso más literalmente que los estudios previos. Basándome en
lo que hemos visto en capítulos anteriores, propongo un modelo evolutivo de las
audiencias digitales. Como el argumento original de Darwin, este modelo puede ser
31
reducido a una serie de premisas que se construyen entre sí.
Comencemos con la primera: casi todos los sitios pueden soportar más audiencia de la que
efectivamente tienen. La arquitectura tecnológica de la web permite un crecimiento de las
audiencias prácticamente instantáneo. Las audiencias no son limitadas por la capacidad de
impresión o el rango de emisión. Los sitios bien diseñados pueden mantenerse en pie
incluso cuando reciben diez o cien veces más audiencia de la que esperaban.
28
Turner, 2006; Schumpeter, 1942.
29
Dimmick, 2002.
30
Napoli, 2011; ver también Stober, 2004
31
Ver Ernst Mayr 1982, Bowler,1989; Gould, 2002.
Segundo, categorías de contenido demuestran una audiencia estable. Colectivamente, las
audiencias de noticias, clima o compras han sido notablemente consistentes a lo largo del
tiempo. Los grandes cambios de audiencia han sucedido con la apertura de nuevos nichos
de contenido (como Youtube o Netflix) o al usar internet en situaciones que previamente
eran difíciles (como los smartphones o tablets). Pero la porción de audiencia de los
contenidos de noticias, por ejemplo, se ha mantenido prácticamente sin cambios a lo
largo de los últimos 20 años.
Tercero, tanto para los usuarios como los websites en sí mismos, los recursos son
limitados. El trabajo, la familia y el descanso compiten por la atención de los usuarios,
como lo hacen otro tipo de medios. La renovación de sitios web es limitada. Los equipos
son limitados, y aún más escasean los verdaderos talentos y las personas con experiencia.
Al unir estas tres premisas el resultado será (una cuarta premisa), la competencia por la
atención es feroz. La noción de que la web produce una pelea sin retenciones por la
audiencia es prácticamente un cliché, como vimos en el capítulo 1. Pero mientras la severa
competencia por las audiencias existe innegablemente, las características y consecuencias
de esa competencia han sido groseramente incomprendidas.
Pero siguiendo con el resto de los argumentos de Darwin podemos demostrar por qué la
competencia igualitaria no puede durar. Consideremos la quinta premisa: con recursos
limitados, los websites difieren en los rasgos que les permiten construir audiencias. Como
hemos catalogado, algunas características de los sitios web importan enormemente en la
tarea de construir una audiencia. El tiempo de carga del sitio importa. La arquitectura
tecnológica importa. El diseño, la marca, y la accesibilidad para el usuario importan.
Muchas otras características importan también, algunas para todos los websites, otras
para algunos nichos en particular.
32
Shirky, 2010.
33
Hobbes, 1996.
Por último, los sitios con rasgos favorables aumentan su cuota de mercado con el tiempo.
Los rasgos favorables hacen a un sitio pegajoso: aumentan la probabilidad de que los
usuarios lo visiten y lo usen por más tiempo. Por conveniencia, llamaremos a este modelo
selección de audiencia, por la selección natural en biología. La etiqueta de selección de
audiencia puede sonar empoderadora, incluso meritocrática. Pero en realidad, las
audiencias raramente logran elegir entre tantas opciones igualmente buenas.
El reporte de Darwin deja afuera varios detalles claves, siendo que fue escrito un siglo
antes del descubrimiento del ADN. Pero aún así fue de vital importancia para conectar la
biología de gran escala (especies y ecosistemas) con las presiones sobre organismos
individuales. En la teoría de Darwin, su “momento eureka” llegó mientras leía a Thomas
Malthus. Malthus proponía que la sociedad está condenada a superar su fuente de
alimento porque la población humana crece geométricamente. Si cada pareja tiene cuatro
hijos, por ejemplo, la población se duplicará en cada generación. En un flash, Darwin se
dio cuenta que la selección natural no sería acumulativa, sino compuesta: la población de
organismos con rasgos favorables se multiplica con cada generación exitosa. La selección
natural es desarrollada a través del crecimiento exponencial.
El principal desafío para los intelectuales de internet es similar. Públicamente han tenido
problemas para conectar la macroestructura de las audiencias digitales con el
comportamiento a nivel micro, es decir, las decisiones individuales sobre qué clickear,
34
leer, mirar, y qué escuchar. Este libro demuestra que el salto intuitivo es el mismo tanto
para los medios digitales como para la biología: se trata de entender que incluso las
pequeñas diferencias diarias en el crecimiento de las audiencias se componen
exponencialmente. Cientos de características en un sitio influencian cuánto se quedarán
los usuarios, y qué tan probable es que vuelvan, desde la velocidad de carga de una página
hasta su diseño general o la frescura de su contenido. Los pequeños efectos se multiplican
con cada visita, y quienes publican con una mayor pegajosidad aumentan su porción de
mercado a lo largo del tiempo. Este proceso es responsable de la macro estructura de la
web.
La selección de audiencia significa por lo tanto, que el crecimiento es una función que
depende de cuán grande ya es la audiencia de un sitio. Sólo los visitantes actuales llegan a
apreciar una suma de contenido nuevo o las mejoras en el nivel de carga. Los momentos
de igualdad competitiva son efímeros. Una pequeña ventaja temprana puede convertirse
en una ventaja insuperable. Medio porcentual más en el crecimiento diario puede
convertirse en una llamativa ventaja de crecimiento en menos de un año.
34
Watts, 2011, pp. 61–64.
Las noticias empeoran para las organizaciones pequeñas. Como hemos visto, la
pegajosidad es cara. Los grandes sitios no sólo tienen bases de datos de usuarios más
grandes sobre las cuales soportar estos costos, sino que también ganan más por cada
visitante. El mismo usuario es mucho más valioso para Facebook o Google de lo que lo es
para un periódico local. Tratar los cambios en las audiencias como un proceso orgánico y
evolutivo, por lo tanto, no nos lleva a un nivelamiento radical. Las energías destructivas de
internet (“creativas” o no) no son aplicadas de igual manera.
Este modelo evolutivo de tráfico ha profundizado las consecuencias para cada aspecto de
los medios digitales. El primero y principal es el siguiente: cuando la competencia por
atención es un conflicto darwiniano sin fin, la distribución digital nunca es gratis.
El economista Milton Friedman (entre otros) era aficionado a la frase “no existe tal cosa
como un almuerzo gratis”. El punto de Friedman era que alguien en algún lugar siempre
pagará por el costo de ese almuerzo “gratuito”. Cuando los pubs norteamericanos crearon
la práctica de los almuerzos “gratuitos” antes de la prohibición, esos almuerzos eran
pagados con el aumento del costo de las bebidas, y haciendo la comida gratuita
extremadamente salada, para que los consumidores necesiten de los tragos más caros
para saciar su sed.
El mismo principio funciona para las audiencias digitales. Alguien siempre debe pagar por
los costos de la distribución digital, que son los costos de la construcción de audiencias.
Los billones de dólares invertidos en granjas de servidores y plataformas de software son
costos de distribución. El diseño web y de aplicaciones es un costo de distribución, dado
que las interfaces malas frenan el crecimiento de audiencias. El contenido nuevo es un
costo de distribución, dado que pocos lectores quieren leer la misma pieza dos veces.
Los costos de distribución también incluyen los costos de búsqueda, que son distribuidos
entre los gigantes digitales, editores independientes, e incluso usuarios. Google y
Facebook pagan mediante la filtración de billones de items hasta encontrar aquellos que
satisfagan a los usuarios. Quienes publican también pagan los costos de búsqueda, al
optimizar su contenido para lograr más visibilidad en los motores de búsqueda y redes
sociales, o simplemente mediante la compra de publicidad. Buzzfeed y el Hufngton Post
pagan millones de dólares para asegurar que Facebook distribuya sus historias, dinero que
va hacia el diseño del sitio o el manejo de su contenido. No es menos importante que los
consumidores individuales pagan parte de estos costos al invertir sus esfuerzos por
encontrar el contenido que encaje con sus intereses.
Estos costos de distribución vuelcan nuestro entendimiento de la internet como una
plataforma neutral. El Protocolo de Internet venció a los primeros estándares de
competencia de la red en gran parte por su mínimo acercamiento. Respetar el “consenso
general y código de ejecución” significaba que la internet ya estaba corriendo en millones
de máquinas mientras las alternativas de las corporaciones o el gobierno aún estaban en
35
el tablero.
La pregunta más importante es: ¿tienen los editores pequeños una chance razonable de
construir una audiencia? Hoy la respuesta es no, no sin la ayuda de las grandes firmas
digitales.
Voz política.
Estos gastos de distribución caros pero poco convencionales desafían nuestras nociones
sobre la apertura de internet, y nos fuerzan a reconsiderar un enorme volúmen de
estudios sobre internet.
Cientos de piezas de estudio han afirmado que internet expande las voces políticas, y
vuelve más barata la llegada a las audiencias para ciudadanos y grupos políticos pequeños.
En palabras de Jennifer Earl y Karina Kimport, la internet debería proveer los costos para
36
grupos, individuos y editores de pequeña escala. Sin embargo, la competencia
darwiniana por la atención ha destruído esta idea a lo largo del tiempo. Para estar
seguros, han existido enormes cambios en los costos de distribución. Google y Facebook
invierten billones en sus plataformas, que pueden ser apalancadas por incontables grupos
y publicaciones para la construcción de audiencia. Algunos grupos y organizaciones
pueden incluso pagar por la construcción de audiencias en modos poco convencionales.
Pero es un profundo error ver la distribución digital como barata o incluso “gratuita”.
Las mismas dificultades pueden verse en la capa organizativa de la política. Los grupos de
interés deberían beneficiarse por los recortes de gastos de internet. Sin embargo, un
trabajo de Trevor Trall, Dominik Stecula y Diana Sweet ha encontrado que los recortes de
gastos son mínimos, y que los grupos de interés encuentran aún más d ifícil atraer la
38
atención pública en el ambiente digital. El libro de David Karpf Activismo Analítico ha
demostrado similarmente que las nuevas organizaciones políticas basadas en datos se
benefician de las escalas masivas. La feroz competencia por la atención significa que aún
es más difícil para los activistas de pequeña escala lograr reconocimiento público.
Muchos de los trabajos más citados sobre internet han afirmado que la internet haría que
la distribución de contenido se vuelva vulgar. Las colecciones sueltas de ciudadanos
podrían funcionar como medios de comunicación, publicando información cívica,
opiniones políticas e incluso reportajes originales. Wikipedia y algunos blogs políticos han
sido evocados repetidamente como ejemplos exitosos de distribución de contenido
creado.
Como un trabajo por Yochai Benkler, Aaron Shaw y Benjamin Mako Hill ha notado, la
cuestión no es si la producción colaborativa es posible, sino bajo qué condiciones es
39
posible que sea exitosa. Una y otra vez, la producción colaborativa en el mundo real ha
sido incapaz de competir con los modelos tradicionales corporativos.
Los modelos de audiencias evolutivas explican esta falla al resaltar el intratable problema
de la pegajosidad. Rápidas velocidades de carga, buenos diseños web, plataformas de
testeos, aplicaciones móviles, contenido constantemente actualizado (entre otras ciencias
características) son mucho más fáciles de alcanzar con una estructura organizacional
jerárquica. Incluso los sitios que dependen mucho de los usuarios para hacer y filtrar
contenido, como Facebook, Twitter y Reddit, son corporaciones que se apoyan en
comando y control para las decisiones importantes (sin mencionar los billones de dólares
de capital privado).
38
Trall, Stecula, and Sweet, 2014.
39
Karpf, 2016.
Los estudios sobre la producción colaborativa de contenido son como estudiar la ecología
40
de las islas para entender la evolución. Wikipedia ha disfrutado desde el comienzo de
una rara protección de sus competidores corporativos. La Enciclopedia Británica e incluso
Microsoft Encarta no podían alcanzar a Wikipedia en precio, velocidad, o cobertura de
cultura popular. Pero el inusual nicho de Wikipedia socava la afirmación de que la
producción colaborativa puede ser un modelo para otros tipos de contenidos. Wikipedia
es el equivalente digital del pájaro dodo: una solución evolutiva fantástica que funciona
únicamente aislada de la competencia.
Mejores modelos de audiencias digitales son cruciales, también, para reenmarcar los
trabajos intelectuales sobre la gobernabilidad de internet.
Durante las últimas dos décadas, intelectuales han destacado la manera en la que los
Estados, firmas privadas y demás instituciones ejercen poder sobre la internet. Una
preocupación ha sido la habilidad de los actores corporativos para moldear el ecosistema
41
informativo con muy poco debate público. Como afirma Robert G. Picard, las grandes
firmas digitales “están crecientemente cambiando los mecanismos de control e influencia
de los medios desde las esferas públicas hasta las privadas, reduciendo la habilidad del
público para influenciar mediante determinadas políticas democráticas, y volviendo más
42
difícil la vigilancia pública de los medios y sistemas de comunicación.” Esta influencia se
origina parcialmente del hecho de que decisiones técnicas aparentemente neutrales
suelen reforzar las relaciones de poder: en palabras de Laura DeNardi, “los arreglos de
43
arquitectura tecnológica son arreglos de poder”.
Una comprensión más amplia de la infraestructura es crucial, también, para entender los
nuevos debates sobre la neutralidad de la red. Los modelos de audiencia evolutivos,
constantemente cambiantes de este libro ofrecen una nueva y mejor explicación de por
qué la neutralidad de internet es tan indispensable como insuficiente para una internet
abierta.
El mito fundacional de internet, y luego de la World Wide Web ha sido que la tecnología
47
trataba cada computadora y cada paquete de datos de igual manera. Aún así, los
servicios de internet han tratado repetidamente de crear un “carril rápido” para algunas
compañías favorecidas que pagan mejor para un mejor acceso para sus usuarios.
Los modelos evolutivos de audiencias digitales ayudan a explicar por qué el fin del
refuerzo de la neutralidad de la red es una amenaza tan importante para los productores
de contenido, especialmente para los más pequeños. Si los proveedores de servicios como
45
Bagdikian, 2004.
46
E. M. Noam, 2015.
47
Wu, 2003.
Comcast y Time Warner y Verizon pueden pedirle a los editores que paguen más por
cargas rápidas en sus sitios y aplicaciones, los productores de contenido se verán forzados
a pagar o enfrentar una brecha de audiencia aún más amplia. Comcast y Time Warner
están en una posición para un sacudón prácticamente mafioso: “Tienes un adorable sitio,
sería una pena que los tiempos de carga crezcan y tengas enormes pérdidas de tráfico.”
Para estar seguros, la ISPS ha argumentado repetidamente que cualquier impacto será
pequenio, una afirmación soportada por los billones de dólares que han gastado
oponiéndose a las regulaciones. Si este libro nos ha enseñado algo, es esto: los efectos
pequeños que se repiten constantemente no son efectos pequeños.
El rechazo de la FCC de Trump por la neutralidad es desalentador. Aún así una de las
lecciones centrales de este libro es que la neutralidad de la red por sí misma no es
suficiente. I ncluso si pudiéramos llevar a la internet a su arquitectura original, eso no sería
suficiente para eliminar la concentración de audiencia y poder en unos pocos grandes
sitios. Asegurar una internet abierta es, por lo tanto, no sólo trabajo de la FCC o de los
reguladores internacionales. Requiere de la ayuda de un sector más amplio de
reguladores.
Los Estados Unidos y la Unión Europea cuentan aproximadamente con el 80% de las
ganancias de Google y Facebook, haciendo de estos dos mercados un punto clave para
modelar las conductas de estas firmas. A pesar de que las leyes antimonopolios básicas
son similares a ambos lados del Atlántico, desde 2013 ha habido una creciente separación
sobre cómo aplicarlas, un desacuerdo con consecuencias enormes.
La ley de EE.UU define una firma como monopolio si ésta tiene “poder de mercado
significativo y perdurable, es decir, la habilidad a largo plazo de aumentar sus ganancias o
48
excluir a sus competidores.” La primera parte de esta prueba (la habilidad de alterar los
precios) el poder de mercado de estas firmas es obvio. Google, Facebook, Microsoft,
Amazon y Apple tienen cuotas de mercado mucho mayores que los umbrales establecidos
para el mercado. Todas menos Amazon han producido márgenes de ganancias de más de
48
FTC, n.d.
un 30% anio tras anio, una imposibilidad en mercados competitivos con entradas sin
49
restricciones.
Aún así, los reguladores norteamericanos han sido tibios incluso cuando las firmas fueron
encontradas con las manos en la masa. En 2012, por ejemplo, Google fue atrapado
promoviendo sus propios productos y servicios por sobre los de sus competidores, incluso
50
cuando sus propios registros demostraron que los usuarios preferían otros contenidos.
Este es un comportamiento anticompetitivo de manual, y la FCC concluyó que existió un
“real daño a los consumidores y a la innovación”. En 2013 toda la Comisión votó en contra
de llevar el caso a juicio, y en su lugar instauraron un débil estatuto que dejaba a Google
libre para demandar contratos exclusivos con sus sitios aliados.
La decisión de la FTC en 2013 de no perseguir a Google terminó con su asociación con los
reguladores antimonopolio de la Unión Europea, que previamente era bastante buena. En
junio de 2017, oficiales de la UE terminaron su investigación con una multa de 2.42
billones por promover sus propios productos de comparación de compras sobre los de sus
54
competidores. Margrethe Vestager, la Comisionada Europea por la Competencia, sugirió
que podrían haber más casos en contra de Google en el futuro. Algunos comentadores de
EE.UU y el mismo Google han sugerido que la decisión de la UE fue motivada por el
proteccionismo. Aún así, la decisión es sensata, según las reglas de EE.UU y la UE.
El poder de mercado duradero de Google es claro como el cristal si juzgamos a las firmas
de internet con las mismas reglas que a cualquier otra industria. L as fábricas de otras
firmas son vistas como barreras para la entrada, pero las fábricas de información de
49
El caso de Amazon es particular, siendo que su crecimiento principal es el de la plataforma en sí en lugar
de las ganancias.
50
Mullins, Winkler, and Kendall, 2015.
51
Federal Trade Commission, 2012, p. 112.
52
Shapiro and Varian, 1998; ver capítulo 2.
53
Federal Trade Commission, 2012, p. 112.
54
Scott, 2017.
Google son, de alguna manera, dejadas afuera del análisis. La base de códigos
multimillonaria de Microsoft y su ejército de usuarios son vistas como ventajas duraderas;
pero las de Google de alguna manera no lo son. Las firmas digitales más grandes son
creadoras de mercado que se llevan aproximadamente un tercio de todas las ganancias
que se mueven en su ecosistema. Los creadores de mercados son muy difíciles de
desplazar una vez que se establecen.
Google y otros gigantes digitales ciertamente tienen algunas grandes ventajas. Las
economías focalizadas brindan el poder de la fijación de precios, asegurando que las
firmas con una mayor base de usuarios sean capaces de extraer más dólares por usuario.
Los testeos de variables pueden reducir dramáticamente el riesgo de dar pasos en falso
para las grandes firmas, y limitan las oportunidades de entrada para los competidores
nuevos (capítulo 2). Pero estas ventajas son agregadas a muchas otras ventajas de larga
data que importan tanto como lo hacen para las industrias de ladrillo y mortero.
55
Wu, 2011
56
Yarow, 2013.
57
Orbach, 2013.
58
Easterbrook, 2008.
Irónicamente, la historia de firmas como Google, Facebook y Amazon demuestra por qué
medidas antimonopolio son cruciales. En la última mitad de la década de 1990, Microsoft
logró derribar a Netscape en las llamadas guerras de navegadores. La estrategia de
Microsoft fue romper deliberadamente los estándares abiertos sobre los cuales la web se
había construído, volviendola un jardín amurallado al que sólo podría accederse con los
productos de Microsoft. La larga investigación del Departamento de Justicia sobre
Microsoft produjo un modesto asentamiento. Pero aún más importante, la investigación
acortó la conducta anticompetitiva que habría derrumbado las entonces nacientes firmas
como Google, Amazon o E-Bay.
Si el refuerzo antimonopolios es crítico, las herramientas que estas firmas han utilizado
obsesionadamente para aumentar sus audiencias pueden también volver más fácil el
trabajo de los reguladores. Las pruebas de funcionamiento, en particular, son una
poderosa manera de medir el poder de las firmas digitales en maneras que van más allá
de antiguos criterios como los de HHI. Los reguladores pueden ver, con información
experimental del mundo real, cuánto importan las decisiones de las grandes firmas para
los sitios menos populares, y cuán encerrados en los mismos sitios están los usuarios en
realidad. Incluso más beneficiosa para los reguladores resulta que gran parte de la
información que necesitan para tomar mejores decisiones ya existe, en los miles de
experimentos online corriendo alrededor del reloj. Tomar esta información, e incorporar a
la sanción de reglas es clave para las leyes antimonopolios del siglo XXI.
Así mismo, a pesar de lo importantes que son las peleas en torno a la neutralidad de la red
y las leyes antimonopolio, eventos recientes han demostrado que el crecimiento de los
gigantes digitales no es sólamente una amenaza para la innovación o los bolsillos de los
consumidores. También refuerza las manos de los actores estatales, incluso aquellos que
trabajan para dinamitar la democracia. Dos décadas después de la Declaración de Barlow,
el ciberespacio es un espacio menos libre del poder del Estado que nunca antes.
La vigilancia estatal está fuertemente ligada con el poder de las grandes firmas digitales.
Las capacidades de la NSA han crecido a cuestas de las redes, herramientas y técnicas de
compañías como Google, Facebook y Verizon. Su infraestructura copia los almacenes de
seguridad de información de los gigantes digitales, y depende críticamente del diseño de
software que Google y Facebook han desarrollado, incluso han contratado a parte del staff
fundador de Facebook. Y, por supuesto, las firmas digitales más grandes funcionan como
paradas comerciales para toda clase de información personal: email, historial de
navegación, datos de locación, e incluso información de tarjetas de crédito. La tentación
de los gobiernos por usar esta información a través de leyes o medios encubiertos es muy
fuerte.
59
Cualquier respuesta efectiva a la “vigilancia capitalista” debe comenzar con las dinámicas
de las audiencias evolutivas que nos han traído hasta aquí. La vigilancia de usuarios en
firmas como Google comenzó principalmente con el imperativo de crecer más rápido que
otros. Las pruebas de funcionamiento y las colecciones de información de audiencia
fueron usadas para mejorar y personalizar las recomendaciones incluso antes de que
fueran aplicadas para focalizar la publicidad, definitivamente antes de que Google tuviera
un modelo de negocio claro.
Cualquier intento para acortar la vigilancia, entonces, debe lidiar con el crecimiento
imperativo. La vigilancia genera técnicas que producen crecimientos más rápidos. es
esencial para autocompletar resultados de búsqueda, para servicios localizados, para
asistentes que se activan mediante la voz, para recomendaciones de noticias
personalizadas y muros de redes sociales, e incontables características altamente
pegajosas.
Esto significa, nos guste o no, que las firmas individuales no pueden simplemente decidir
no rastrear a sus usuarios. El crecimiento lento en una web evolutiva es un suicidio en
cámara lenta. Los fundamentalistas de la privacidad cuya única propuesta es “no nos
rastreen” se pierden del rol fundamental de la pegajosidad y las audiencias compuestas.
Acciones de firmas como Apple, que han integrado el aprendizaje maquinario para
bloquear ciertos usuarios en su navegador Safari, son ahora posiblemente los primeros
pasos para tomar acciones unilaterales que lastimen a rivales como Google y Facebook.
Por contraste, las soluciones que dependen de la acción voluntaria de unas pocas firmas
son insostenibles por sí mismas. Para las firmas que quieren limitar su colección de
información privada, no existe por el momento una solución para su dilema. Una
regulación fuerte es la única salida de este conflicto.
Las audiencias evolutivas crean otras vulnerabilidades, también: ellas proveen maneras
novedosas y frecuentemente insidiosas para que los Estados influyan en el discurso
público. Un trabajo reciente de Samantha Bradshaw y Phil Howard ha catalogado la rápida
emergencia de “tropas cibernéticas” (partidos gobernantes, militares o políticos
59
Zuboff, 2015.
organizados para modelar la opinión pública en las redes sociales) en más de doscientos
60
países.
Algunos estados han desarrollado y usado estas capacidades para construir los medios
domésticos. Por ejemplo, la internet de China está separada de la del resto del mundo por
una “gran pared” que filtra el contenido político, y el gobierno chino monitorea la
actividad online e interviene para limitar la acción colectiva. En los momentos críticos el
gobierno chino moviliza cientos de miles de ciudadanos para modelar la discusión pública,
principalmente mediante la distracción más que con la confrontación directa a los
61
discursos desfavorecedores.
Incluso más preocupante es el ejemplo de Rusia, cuyos esfuerzos van más allá de un
simple monitoreo doméstico y vigilancia. Como hemos visto, la web provee modelos de
negocios para las fake news y otros tipos de contenidos cuestionables. Pero Rusia parece
haber usado campañas coordinadas en escalas sin precedentes para amplificar estas
dinámicas y modelar la agenda de noticias.
Estos métodos digitales son particularmente efectivos porque son complementados con
métodos de espionaje tradicionales. Romper las reglas o utilizar métodos ilegales para
mejorar sus posiciones en los motores de búsqueda y redes sociales han sido algunas de
sus herramientas, pero la inteligencia estatal ha ido mucho más lejos de lo que los
criminales ordinarios o hackers talentosos podrían llegar. Por ejemplo, la revista Time
reportó que un programador ruso que trabajaba en Estados Unidos “regresó a Moscú y
llevó consigo una tropa de algoritmos que podrían ser utilizados en operaciones de
64
influencia”, siendo prontamente empleado por los servicios de inteligencia rusos. El
penetrante espionaje industrial fue también un factor clave en la decisión de Google de
abandonar China.
60
Bradshaw and Howard, 2017.
61
King, Pan, and Roberts, 2013, 2017.
62
Silverman, 2017.
63
Howard et al. 2017.
64
Calabresi, 2017.
Como secuela de la campaña de 2016, Google, Facebook y Twitter anunciaron sus
esfuerzos para combatir las cuentas falsas y este tipo de operaciones de influencia. Pero
esta clase de amenazas de actores de estado hacen que, incluso para las grandes firmas
privadas, defenderse sea increíblemente difícil. Consideremos sólo un punto de
vulnerabilidad: los miles de trabajadores de industrias tecnológicas que viven o tienen
familias en países extranjeros. Los algoritmos centrales detrás de Facebook y Google son
secretos para el público, pero son tenebrosamente accesibles para los gobiernos hostiles.
Vladimir Putin tiene una estrategia de redes sociales más grande, inteligente y mejor
financiada que cualquier otra organización de noticias. Las grandes firmas digitales se han
convertido en un punto débil, no sólo para las redes de comunicaciones, pero
potencialmente para la democracia en sí.
La habilidad de las naciones hostiles para hackear los medios digitales es una amenaza
nueva y preocupante. Pero a largo plazo, las economías cambiantes de los medios son
igualmente ominosas. Ya no es cierto que los medios locales son más focalizados que los
medios nacionales. Los medios nacionales generalmente obtienen más dinero que los
locales por la misma cantidad de lectores, y las consecuencias democráticas de esta gran
inversión en publicidad son profundas.
65
Petrova, 2011.
66
Starr, 2004, p. 257.
67
Chyi and Tenenboim, 2017.
Todos estos cambios amenazan la influencia e independencia de los periódicos. Esta
amenaza llega porque los costos de distribución han cambiado en lugar de reducirse.
Como hemos visto repetidamente, todo lo que va a la construcción de audiencias es un
costo de distribución. El hecho de que estos costos de adquisición de audiencia y
mantenimiento son principalmente pagados por otras firmas es una maldición en lugar de
una bendición, porque los periódicos ya no controlan sus propias audiencias.
Google, Facebook y Apple han hecho ofertas para mover los contenidos de las
organizaciones de noticias a sus propias plataformas. Los artículos instantáneos de
Facebook, las páginas móviles de Google, y Apple news se inclinaban para ser una manera
de mejorar la performance móvil fea, rota y tristemente lenta de muchos sitios de
noticias. Las soluciones de Facebook y Apple son particularmente dañinas para la
autonomía de los sitios de noticias, siendo que ellos funcionan únicamente en las
aplicaciones y plataformas de Facebook y Apple. Los amperios de fuentes abiertas son
mejores, pero aún rompen los estándares de la web y aumentan la dependencia de los
editores en Google, con artículos de noticias usualmente liderados desde los servicios de
Google. Los amperios podrían ser mejores que otras alternativas, pero magnifican la
pérdida de control que las organizaciones de noticias ya han experimentado.
Los periódicos no están del todo indefensos, como hemos visto. Con una mejor
comprensión de la pegajosidad, los periódicos y productores de contenido cívico podrían
hacer inversiones más inteligentes y maximizar sus posibilidades de construir audiencias.
En el medio del pánico por las fake news, muchos ciudadanos que odian los “grandes
medios” siguen teniendo un fuerte afecto por sus periódicos locales. Esta buena voluntad
sigue siendo un activo muy valioso, y los periódicos medianos tienen poco que temer por
los proyectos hiperlocales. Pero no puede esconderse el hecho de que muchos periódicos
(y crecientemente otras organizaciones de noticias) dependen ahora de las acciones de los
creadores de políticas y otros gigantes digitales para su propia supervivencia.
La teoría evolutiva es también una historia de extinción, no sólo crecimiento. Las especies
y ecosistemas pueden ser estables por millones de años hasta que, de repente, no lo son.
Cuando la comida desaparece, el nicho desaparece también, y los puntos de inflexión no
son siempre tan obvios de entrada. El repetitivo lenguaje sobre “ecosistemas” y
“diversidad” es poco descriptivo de cómo funcionan los ecosistemas reales. Y en cualquier
caso, lo que hemos construído online no es para nada un ecosistema, más bien un par de
monoculturas comerciales. Prácticamente toda la pirámide energética de internet
descansa hoy en el duopolio de Facebook y Google. Como lo demuestran eventos como la
hambruna de la papa irlandesa, cualquier monocultura está sólo a un ente patógeno de
distancia de la destrucción.