Вы находитесь на странице: 1из 32

The Internet trap.

La trampa de internet. Como la Economía Digital construye monopolios y debilita la


democracia. ​Matthew Hindman.

Capítulo I: ​Repensando la Economía de la Atención.

A principios del 2000, Google condujo una de sus primeros experimentos online. El
resultado fue un desastre.

El error de Google comenzó con una pregunta simple: ¿Cuántos resultados debería arrojar
por cada consulta? La joven compañía siempre le había dado a sus usuarios diez
resultados, porque eso era lo que la compañía líder anterior, AltaVista, había hecho. A
pesar de esto, operadores de búsqueda competidores como Yahoo! devolvían veinte, y los
1
grupos de discusión sugerían que los usuarios preferían aún más.

Los investigadores de Google decidieron intentar una prueba real, dividiendo grupos de
usuarios, los cuales recibirían veinte, veinticinco o treinta resultados, en lugar de diez.
Pero cuando chequearon un mes más tarde, descubrieron (para su asombro) que más
resultados habían causado enormes ​caídas en el tráfico de búsqueda. Las búsquedas del
grupo de treinta resultados habían caído más del 20 por ciento, y cientos de miles de
usuarios habían abandonado Google a la vez.

Los investigadores se apresuraron por averiguar qué habían hecho mal. ¿Los usuarios se
sentían sobrepasados por tantos resultados? Los datos no demostraban información al
respecto. ¿Los usuarios simplemente clickeaban el botón de “siguiente” menos veces?
Para empezar, pocos usuarios lo hacían, por lo que este efecto era improbable.

Eventualmente, Google rastreó la caída de tráfico a una fuente sorprendente: arrojar más
resultados tomaba una fracción de segundo más. El grupo de control esperaba 0.4
segundos por lo general, mientras que aquellos en el grupo de los veinticinco resultados
esperaban 0.9 segundos. Luego de un par de días, esta ventaja agregada significaba poco.
Pero con el paso de las semanas, los efectos de ese “medio segundo extra” se
multiplicaron. La gente visitaba Google con menor frecuencia, y desarrollaban menos
búsquedas cuando lo hacían. Incluso cuando el experimento terminó, los usuarios que
habían perdido no volvieron inmediatamente. Su uso comenzó a crecer de nuevo, pero
2
desde un nuevo punto de partida (más bajo).

1
Para una discusión completa sobre los primeros experimentos de Google, ver Mayer, 2007.
2
Experimentos subsecuentes han demostrado que puede llevar semanas o meses para que esos usuarios
regresen a sus niveles previos, ver Hölzle, 2012.
Existen varias moralejas para la historia de los experimentos del joven Google, las cuales
serán desmenuzadas a lo largo de este libro. Pero la lección más importante es sobre
cómo comprender la ventaja online.

La supervivencia digital depende de la habilidad para atraer usuarios, para lograr que se
mantengan por más tiempo, y para hacerlos regresar una y otra vez. La pegajosidad que
logra que el interés en internet crezca, en la cual una pequeña ventaja inicial en el
crecimiento logra una enorme brecha a largo plazo.

El ascenso de Google de advenedizo a la compañía más valiosa del mundo proviene de


haber aprendido esta lección. Google invirtió billones en hacer su sitio más rápido, pero a
la vez logró mucho, mucho más. Se reinventó a sí mismo no sólo como un motor de
búsquedas, sino como un haz de las actividades online más pegajosas: email, video,
mapas, celulares e incluso software de oficinas. Y en su búsqueda por una mayor porción
de la atención de sus usuarios, Google reconstruyó la infraestructura fundamental de
internet: nuevos centros de información más grandes que nunca antes, nuevos cables de
fibra óptica, nuevas maneras de dirigir aplicaciones ricas alrededor de la web y un nuevo y
veloz buscador que las uniera, nuevas formas de inteligencia artificial creando nuevos
tipos de chips para computadoras, incluso un nuevo sistema operativo para celulares que
maneja dos billones de celulares activos.

¿Cómo se concentraron tanto las audiencias online y los ingresos digitales? ¿Qué es lo que
significa esta concentración para los negocios, la política, las noticias, incluso para la
seguridad nacional? ¿Es inevitable el oligopolio online, o existe alguna salida de la trampa
de internet? Estas son buenas preguntas que éste libro busca responder. Para nosotros
hoy, como para Google hace dos décadas, la primera lección es la siguiente: pequenos
efectos que se mezclan rápidamente ​no son pequeños efectos.

La escasez de atención.

La ​World Wide Web es la tecnología más asombrosamente exitosa de los tiempos


modernos, una tecnología que ahora apuntala nuestras vidas sociales, económicas y
políticas. Usted probablemente ordenó este libro online (o incluso le fue dirigido
directamente hacia su celular o tablet). La web es tan popular, poderosa y omnipresente
que nos olvidamos cuánto ha fallado a su propósito original.

La ​World Wide Web f​ ue construída en un intento explícito por eliminar las jerarquías en
las comunicaciones. Lo ha intentando mediante la combinación de otras tecnologías
previamente desarrolladas con el mismo objetivo en mente. La primera de estas fue el
hipertexto, creado en la década de 1960 por el sociólogo Ted Nelson. Los documentos
hipertextuales fueron diseñados para ser consumidos de manera no secuencial. Links
dentro del texto podrían llevarnos a otros pasajes interesantes, definiciones, gráficos,
tablas, o incluso otros documentos dentro de la misma computadora. La segunda
tecnología fue la internet, que para 1980 se había vuelto ubicua en todas las universidades
y centros de investigación. La internet había sido creada como una red de persona a
persona, en la cual no existían centros: cada computadora podía enviar y recibir
información de cualquier otra computadora.

Tim Berners-Lee, el creador de la web, notó que el hipertexto podía escalar a la cina de
internet. En lugar de limitarse a una sóla computadora, el hipertexto podría unir
documentos en computadoras en diferentes continentes. Berners-Lee llamó al proyecto la
“World Wide Web” para enfatizar que “cualquier punto puede ser unido a cualquier otro”
3
y para reflejar “la naturaleza de las personas y computadoras que el sistema podría unir” .
En la primera oración del proyecto inicial de www´s, una de las primeras páginas web,
Berners-Lee declaró: “No hay techo para la Web”. Se suponía que todos los sitios, todas
las páginas fueran creados de igual manera.

Si no existían sitios “top” en la World Wide Web en 1991, ciertamente los hay ahora. El
hecho de que algunos sitios y aplicaciones sean mucho más populares que otras es el dato
más importante de la vida online. Nos conectamos en Facebook, mientras los sitios
competidores consiguen menos de un 1 por ciento del tráfico de Facebook. Buceamos en
la Web usando Google o Bing, y los motores de búsqueda que compiten con ellos
obtienen una minúscula cuota del mercado. Leemos y escribimos nuestros e-mails usando
Google o Yahoo! o Microsoft. Usamos eBay para subastar, y compramos nuestros libros (y
con el tiempo, cualquier cosa) en Amazon. Entre los cientos de miles de sitios en la Web,
las cuatro firmas más grandes (Google, Facebook, Microsoft y Yahoo!) capturan un tercio
de todas las visitas online.

La concentración de los ingresos online es aún más dramática. Las diez firmas digitales
más grandes siempre han dominado la publicidad digital, tomando tres cuartos de dólares
publicitarios desde, al menos, mediados de 1990. Pero el cambio a telefonía móvil y video
ha intensificado la concentración al máximo. Desde mediados del 2016, Google y
Facebook reunieron más del 73 por ciento de la publicidad digital en Estados Unidos,
4
siendo un importante duopolio que genera más de $60 billones por año.

Principalmente, este es un libro sobre la ​economía de la atención. ​Se concentra en la


interacción entre dinero y atención, y cómo cada una es intercambiada por la otra.
Demuestra cómo las firmas digitales invierten dinero (usualmente montanas de él) para
atraer y mantener a sus audiencias. El libro muestra por qué las inversiones en cosas como

3
Berners Lee, 2000, p-23.
4
Ingram, 2017.
las granjas de servidores, fibra y software importan tanto, y cómo los sitios con más
contenido y mejor diseño son capaces de llevar la competencia online a su favor.

El libro también detalla cómo las audiencias son vendidas por ingresos a través de
publicidades y suscripciones. Este intercambio es altamente desigual: por varias razones,
los puntos de venta más grandes ganan mucho más dinero por cada miembro de su
audiencia que los pequeños. Esta relación recíproca entre el dinero y la atención crea un
ciclo de retroalimentación, en el cual sitios y aplicaciones que tienen éxito temprano
pueden invertir para volverse aún más exitosas.

En sí misma, la idea de ​economías de la atención ​no es nueva. Podemos rastrear esta


noción en Herbert Simon, politólogo y ganador del Premio Nobel de economía.
Escribiendo sobre los problemas de la sobrecarga de información en la década de 1960,
Simon escribió que

“en un mundo rico en información, la riqueza de información significa la


escasez de algo más: escasez en lo que sea que esa información consuma. Lo que la
información consume es bastante obvio: consume la atención de sus destinatarios. Por lo
tanto la riqueza de información crea pobreza de atención y la necesidad de asignar esa
atención efectivamente entre la sobreabundancia de fuentes de información que puedan
5
consumirla.”

Este pasaje de Simon ha sido repetido tan comúnmente que roza el cliché, con Google
clamando encontrar la cita en más de 4.5 millones de páginas web.

Muchos eruditos han retomado desde donde Simon lo dejó. En las últimas dos décadas
muchos libros y artículos han sido escritos sobre la “escasez de atención”, a pesar de que
esta frase ha animado ideas radicalmente diferentes sobre los medios digitales. Algunas
discusiones han sido encapotadas en la jerga de los negocios o en retórica ciber-utópica.
Una declaración temprana incluso propuso que la “transacción de la atención” llegaría a
6
reemplazar el dinero tradicional. Trabajos más recientes, como el excelente ​The
marketplace of Attention ​de James Webster, no han confiado en una visión idealizada de
la web, sino en información sobre cómo son verdaderamente consumidos los medios
digitales.

Este libro difiere de trabajos previos sobre la economía de la atención en numerosas


maneras. Muy frecuentemente, la economía de la atención ha sido invocada para
argumentar que la “vieja” economía no vale, que el mundo digital está rompiendo las
cadenas del mundo analógico. Este libro utiliza nuevas fuentes de información, junto con

5
Simon, 1971.
6
Goldhabber, 1997.
modelos tomados de los dominios económicos tales como el comercio internacional y las
finanzas matemáticas, para demostrar que el mundo digital no es tan diferente después
de todo. Las grandes firmas digitales aún son dominantes por razones que los economistas
encontrarán novedosas y al mismo tiempo familiares. Diversas preferencias pueden servir
para concentrar audiencias más que para separarlas.

Pero más fundamentalmente, este libro desafía las afirmaciones de que “el dinero no
7
puede comprar atención” . Esta creencia de que la atención digital no puede ser
comprada es tejida a lo largo de la erudición de internet y los debates públicos, pero es
lisa e innegablemente equivocada. Demostrar exactamente cómo las audiencias son
compradas y vendidas es el tema central de este libro.

A pesar de esto, existe un punto clave en el cual este libro está de acuerdo con trabajos
anteriores: entender la economía de la atención es crucial para entender el impacto social
de los medios digitales. Como escribe James Webster, “Los medios digitales necesitan una
8
audiencia antes de que puedan lograr un objetivo” . Más allá de los intereses comerciales,
hay mucho en juego. Pensar en la economía de la atención nos lleva a considerar la
política económica de la atención, y​ viceversa. Por un lado, las decisiones y políticas
públicas ayudan a determinar quién gana y quién pierde en la vida online. Por el otro, la
economía de la atención digital constantemente modela la vida pública, incluyendo qué
contenido es producido, dónde van las audiencias, y finalmente, qué noticias e
información democrática ven los ciudadanos.

Fuerzas de concentración.

Construir una mejor versión de la economía de la atención comienza con un problema


clave: ​nuestro entendimiento de internet ha sido ladeado. ​Las fuerzas que dispersan la
atención digital son extensamente comprendidas, mientras que las fuerzas de
concentración no.

Esta suerte de asimetría de comprensión de la internet se parece bastante al avance


históricamente desigual del conocimiento en otros campos. Consideremos la historia de la
geología. Cuando fue organizada como un campo científico a finales de la década de 1970,
era principalmente el estudio de la erosión. Mientras los geólogos aprendieron
rápidamente cómo el viento y el agua movían montañas, descubrir qué era lo que las
originó en un principio resultaba más difícil. No fue hasta el sorprendente descubrimiento
de las placas tectónicas en la década de 1960 que la geología logró buenos modelos de

7
Ibid.
8
J. Webster, 2014, p. 1.
9
edificación geológica . En cierto sentido, la geología se mantuvo por 150 años como la
mitad de una disciplina.

Esta suerte de entendimiento desigual se dio en las ciencias sociales, también. Escribiendo
en 1997, Paul Krugman argumentó que la geografía económica (el estudio de dónde
ocurren espacialmente la producción y el consumo) era como la geología antes del
descubrimiento de las placas tectónicas: “los economistas entendieron por qué la
10
actividad económica se esparce, pero no por qué se concentra.” Los economistas
entendían cómo grandes rentas empujaban la actividad económica lejos de un centro
11
urbano, un proceso bien modelado por los modelos de oferta y demanda de Econ 101 .
Pero dichos modelos tenían un problema crítico: no podían explicar por qué, en primer
lugar, las ciudades no se formaban. Buenos modelos de formación de ciudades surgieron
únicamente una vez que los economistas comprendieron cómo una competencia
imperfecta podía generar concentraciones urbanas, por ejemplo, como los corredores de
bolsa en el bajo Manhattan, New York podían superar a aquellos en Manhattan, Kansas.

Aquellos que escriben sobre medios digitales afrontan hoy el mismo tipo de problema que
previamente afectó a la geología y la economía espacial. La distribución de las audiencias
virtuales, como la distribución de personas en el mundo real, es el resultado de un “tire y
afloje” entre fuerzas de concentración y fuerzas de dispersión. Pero mientras las fuerzas
de dispersión han sido largamente estudiadas y celebradas, las fuerzas que concentran
audiencias han sido sistemáticamente ignoradas.

La mayoría de los escritos hasta la fecha han asumido que los medios digitales producirán
12
una “difusión centrífuga” en las audiencias. Una y otra vez, observadores han dicho que
la web es un medio de “radiodifusión” o “punto de referencia”, que inclina el campo de
juego hacia los pequeños productores de contenido, que (para parafrasear a la Corte
Suprema de Estados Unidos en ​Reno v.ACLU -​ 1997), volverá a todas las personas
panfletarias. Nos han dicho que “los imperios monolíticos de los medios masivos se están
13
disolviendo hacia una variedad de industrias artesanales” , que internet ha empoderado
14 15
un “ejército de Davids” , que internet significa “el fin de los grandes”. Estos argumentos
no se han concentrado en sí las audiencias eran difundidas, sino en cuán rápido y cuán
lejos se estaban moviendo.

9
Ver discusión en Krugman, 1997, pp. 52–55.
10
Ibid, p-54.
11
von Tunen [1826], 1966.
12
Blumler and Kavanagh, 1999.
13
Negroponte, 1995, p. 58.
14
Reynolds, 2006
15
Mele, 2013.
A pesar de esto, el tráfico de información demuestra que las audiencias se rehúsan a
descentralizarse. Este libro es, en parte, una extensión de mi libro anterior ​El Mito de la
Democracia Digital, e​ l cual demostró que las audiencias digitales siguen patrones de ley
de poder concentrado. Algunos comentaristas rechazaron esta evidencia de concentración
considerándola prematura, diciendo que ignoraba la naturaleza rápidamente evolutiva de
la internet. Micah Sifry argumentó, por ejemplo, que “es peligroso llegar a declaraciones
16
cerradas sobre un espacio tan joven y dinámico” . Matt Bai sugirió que la evidencia del
17
libro sobre la concentración de audiencia online “sólo reflejaba un momento particular” .

Este argumento de “espera y verás” es una consecuencia natural de nuestro


entendimiento desequilibrado de las audiencias online. Si las únicas fuerzas que
modelaron el tráfico de internet fueran dispersivas, deberíamos entonces simplemente
esperar, y todo se nivelaría. Como Vladimir y Estragón en ​Esperando a Godot, ​muchos aún
mantienen la esperanza de que la internet que han estado esperando llegará.
Eventualmente.

Todos estos comentadores están en lo cierto sobre que algunas viejas fuerzas de
concentración no aplican para los medios digitales. No hay escasez de posibilidades en la
web. Las firmas de medios digitales no tienen la necesidad de mantener imprentas o flotas
de camiones de delivery. Los ciudadanos estimulados pueden compartir videos sin tener
una licencia de transmisión. Periodistas independientes pueden empezar sus propias
publicaciones digitales sólamente con una laptop y una café de Starbucks.

Pero el implacable foco en los nuevos sitios de pequeña escala ignora a los elefantes en el
cuarto: las enormes plataformas digitales donde los usuarios pasan la mayor parte de su
tiempo, y que absorben prácticamente todas las ganancias online. Cuando celebramos la
propagación de blogs de ciudadanos, debemos también entender por qué la gran mayoría
son abandonados sin ser leídos. Las fuerzas centrípetas merecen tanta atencißon como las
centrifugadoras.

Entonces, el cuerpo de este libro comienza documentando la otra mitad de la historia. El


capítulo 2 detalla cómo las grandes empresas de internet pueden tomar ventaja de una
gran cantidad de economías de escala, incluso más allá de un simple efecto de red. Como
grupo, los grandes sitios cargan más rápido. Son más bellos y más usables. Tienen más
contenido y son actualizados frecuentemente. Lideran primeros en los resultados de
búsqueda. Han establecido marcas, y los visitantes son más expertos en navegarlos. Existe
evidencia substancial de que cada uno de estos factores, individualmente, sirve para
concentrar el tráfico.

16
Sifry, 2009.
17
Bai, 2009
El Capítulo 3 va más allá, demostrando que las grandes firmas y websites son mucho
mejores personalizando su contenido para los usuarios. Los medios digitales definidos por
“The Daily Me” no favorecen a los productores de contenido a pequeña escala, como
muchos han asumido. En cambio, favorecen a aquellos con recursos: dinero, staff,
información, manejo digital, propiedad intelectual, una audiencia establecida.

Mejores modelos.

Detallar las fuerzas que concentran las audiencias de internet es un comienzo. Pero lo que
se necesita especialmente no son nuevos datos sino ​nuevos modelos, t​ eorías que
expliquen los amplios patrones del tráfico digital y los ingresos de Facebook y Google en
comparación con los pequeños blogs personales. Lo que necesitamos son teorías simples
que puedan explicar tanto la enorme concentración en la web como la enorme cantidad
de sitios pequeños.

Los Capítulos 4 y 5 toman la tarea de construir modelos, usando enfoques diversos pero
complementarios. El Capítulo 4 construye un modelo de economía formal para la
producción de contenido online. Este modelo deductivo está basado en tres supuestos
clave. Primero, asumimos que los grandes sitios tienen economías de gran escala, tanto en
la producción de contenido como en su habilidad para transformar su audiencia en
ingresos. Segundo, asumimos que los usuarios tienen al menos modestas preferencias por
algo de diversidad en lo que buscan. Tercero, asumimos también que los usuarios
enfrentan costos de búsqueda o costos de cambio en la búsqueda de nuevo contenido.

Individualmente, estos supuestos no son controversiales, pero combinarlos lleva a algunos


resultados sorprendentes. Los portales web y agregadores son una respuesta del mercado
a estos hechos estilizados. Los grandes sitios pueden dominar ​incluso si ​los sitios
pequeños producen mejor contenido que combine perfectamente con las preferencias de
los usuarios. El modelo sugiere, también, que los motores de búsqueda o redes sociales
pueden tener efectos compensatorios: llevando a los lectores más lejos, pero haciendo
aún más valiosas a las audiencias de los grandes motores de búsqueda o portales web. La
puja de Facebook por liderar otros sitios de noticias, o la lógica económica de las granjas
de contenido y las llamadas noticias falsas (​fake news), s​ on bien capturados por este
modelo simple.

El Capítulo 5 toma un camino diferente, usando información sobre las fluctuaciones del
tráfico web. Los defensores del “espera y verás” tienen razón sobre una cosa: la web es un
medio dinámico, y han existido grandes brechas en nuestro entendimiento sobre cómo el
tráfico evoluciona todo el tiempo. Los sitios ganan y pierden tráfico todos los días. Sitios
nuevos emergen constantemente, y sitios viejos caen en la irrelevancia.
Para los optimistas de un internet que nunca envejece, este giro es un pilar en su fe.
Miren a Facebook, la discusión plantea: prácticamente una década de vida, y ahora es la
propiedad más visitada en la Internet. O miren al Hufngton Post, fundado en 2005, el cual
se convirtió en uno de los primeros 10 sitios de noticias online, incluso antes de que se
uniera con el venerable AOL. Las grandes firmas web han sido especialmente agresivas al
empujar esta línea. Google le ha dicho repetidamente a los reguladores que no necesita
ser regulado, dado que “la competencia está sólo a un click de distancia”.

Pero estas posturas esconden un error básico. La manera más fácil de ver el error es
considerar otro espacio definido tanto por la incesante concentración y el constante
cambio: la bolsa de valores.

A pesar de que miles de acciones cotizan en bolsas públicas, la mayoría del valor del
mercado se concentra en unas doscientas compañías: grandes firmas como Apple,
Microsoft, Google, Exxon, General Electric y el Bank of America. Cuanto más pequeña es
una compañía, en promedio, más volátil se vuelve su valor de mercado. Las grandes
compañías suelen ser inversiones más seguras que las pequeñas. Incluso cuando las
grandes firmas enfrentan algún shock negativo inesperado (como, por decir, vuelvan
cientos de millones de galones de petróleo en el Golfo de México) su valor de mercado
cae apenas modestamente. Aún más, la ​estructura ​de la bolsa de valores es mucho más
estable que los valores mismos. No sabemos qué valor será el quinto más grande
maniana, pero sí sabemos cuánto variará en relación a los otros valores en el mercado.

El Capítulo 5 demuestra que el tráfico web sigue patrones notablemente similares. Los
grandes sitios tienen audiencias más estables, día tras día, mes tras mes, anio tras anio.
Los sitios más pequeños son mucho más volátiles. Mientras que los sitios individuales
constantemente crecen y caen, la estructura a grandes rasgos del tráfico web es
constante. No podemos predecir qué sitio será el más visitado el día de mañana, pero
sabemos qué porción del tráfico recibirá.

Es intuitivo pensar que el tráfico de Facebook o Google varía menos, en términos


porcentuales, que el tráfico de CNN.com o el del New York Times. Tiene sentido, también,
que el tráfico del NYTimes.com sea más estable que el tráfico de un blog pequenio. Las
consecuencias del tráfico web siendo estructurado de esta manera no son obvias, pero
son profundas. Como lo veremos, el patrón de “tamaño significa estabilidad” ​en sí mismo
es suficiente para producir las poderosas leyes que dominan la vida online. Esta
aglomeración de audiencias es horneada matemáticamente. Y mientras la noción de una
web dinámica, constantemente cambiante es frecuentemente evocada para argumentar
que la web empodera a los sitios pequeños, ya que pueden cambiar mucho más rápido
que los más grandes.
Las noticias y la esfera pública.

Los modelos de economía de la atención que propone este libro son bastante generales.
Mucha de la evidencia en las primeras partes del libro proviene de la esfera comercial de
la web y los medios digitales, donde las dinámicas de la economía de la atención son
particularmente fuertes, y donde las dinámicas online no son tan diferentes a los patrones
offline que conocemos.

Pero una de las grandes contribuciones de estos modelos es iluminar áreas de la web que
van más allá del contenido puramente comercial. Las implicancias más importantes de la
economía de la atención incluyen la esfera pública, la mezcla de noticias e información,
debate ciudadano y acción colectiva, que es el centro de las políticas democráticas.
Entonces los últimos capítulos de este libro se concentran en la esfera pública de la vida
online y, especialmente, en las noticias online.

Este giro hacia las noticias llega por varias razones. No sólo es que la salud de noticias sea
de crucial importancia para la democracia, sino que es también el área donde la economía
de la atención digital ha llegado a sus cambios más grandes. Los diarios locales en los
Estados Unidos siempre han producido la mayor parte del periodismo nacional, y
empleado a la mayoría de los periodistas norteamericanos. Pero como el consumo de
noticias online ha llegado a un punto de inflexión, hemos presenciado un colapso histórico
en los ingresos de las lecturas impresas.

Incluso más allá de la importancia cívica de las noticias, y de la rapidez del cambio en el
negocio de la información, existen razones teóricas que explican por qué miramos el
contenido de noticias online. Este contenido proviene de las más desafiantes pruebas a
nuestros modelos de economía de la atención, y es ésta el área en la cual el análisis del
libro desafía más fuertemente los trabajos anteriores.

Entonces, los Capítulos 6 y 7 miran a las noticias a través del lente de la economía de la
atención. El Capítulo 6 comienza observando a las noticias locales en la web. Muchos han
esperado que las fuentes de noticias online despegarán al mismo tiempo que los diarios y
emisoras locales decaían. Usando información de comScore, basada en un panel de más
de 250.000 usuarios web dentro de los 100 mercados de información más grandes, este
capítulo provee la mirada más comprensiva a las noticias locales online hasta la fecha.

Los editores de periódicos han repetido que los periódicos locales tienen un problema de
18
ingresos, no de lectores, que “muchas personas llegaron, pero no muchas publicidades” .
De hecho, los sitios de noticias locales sólo toman aproximadamente un sexto del tráfico
de noticias, o sólo una mitad del 1 por ciento del tráfico total. Dentro de los mercados

18
Morton, 2011.
locales de noticias, los sitios de noticias de diarios y televisión absorben prácticamente
toda la atención. Ni un sólo medio originalmente web de noticias locales (​ni uno e​ ntre los
cien medios más grandes) se acerca al tráfico de un típico sitio de noticias o medio
televisivo local. Los periódicos pueden verse debilitados, pero estos monarcas enfermos
siguen siendo más grandes que sus advenedizos competidores.

El Capítulo 7 va más allá, demostrando que nuestros modelos proveen inteligencia


procesable para fortalecer el periodismo local. Editores, líderes tecnológicos, académicos
y responsables políticos han propuesto un amplio y contradictorio set de “soluciones”
para la crisis de los medios locales. A la fecha, casi todos ellos están basados en un
diagnóstico errado del problema. Nos guste o no, preservar el periodismo local se trata
principalmente de ayudar a los periódicos a realizar la transición hacia la era digital. Los
periódicos no pueden monetizar una audiencia que no tienen.

Cualquier propuesta para salvar al periodismo local debe partir de la dinámica natural de
las audiencias digitales. Los periódicos locales, y especialmente los más pequeños, han
roto todas las reglas para construir sitios pegajosos. A nivel general, tardan en cargar, son
desordenados, y (seamos honestos) frecuentemente feos. Y mientras los periódicos le
prestan cada vez más atención al tráfico digital, usualmente no entienden lo que las
métricas online significan verdaderamente.

La audiencia compuesta es la fuerza más poderosa en internet. El éxito de las noticias


locales en la era digital dependen de este proceso compuesto, de medir la pegajosidad y
optimizarla. En contraste a las llamadas a la “experimentación” e “innovación”, repetidas y
vacías de contenido en el tráfico de noticias, este libro otorga medidas del mundo real con
las cuales medir el éxito.

No existe tal cosa como una “audiencia libre”.

Construir una versión más rigurosa de la economía de la atención nos hace repensar
muchas cosas “obvias” sobre la web. Incluso desafía la única suposición más importante
sobre la era digital: la creencia de que internet hace que distribuir contenido sea
prácticamente gratuito.

En las primeras páginas de ​La Riqueza de las Redes, ​Yochai Benkler propone que internet
ha abolido las economías “industriales” que han pertenecido a tecnologías de
comunicación más antiguas:

“La principal característica de la producción de información, cultura y comunicaciones


desde mediados del siglo XIX fue que una economía efectiva requería mayores inversiones
de capital físico. Prensas mecánicas de larga circulación, el sistema telegráfico, poderosos
radiotransmisores, y más tarde, poderosas transmisiones televisivas por cable y satélite, y
la computación se volvió necesaria para crear información y comunicarla en escalas que
fueron más allá de lo local... La producción de cultura e información tomó, en el curso de
este período, un modelo más industrial de lo que las economías de la información en sí
misma lo hubieran requerido. El crecimiento de las comunicaciones en red mediadas por
19
la computación, han cambiado este aspecto básico.”

Muchos otros eruditos han hecho lo mismo. Clay Shirky escribe en ​Aquí vienen todos q​ ue
los desafíos de la “amateurización masiva” se enfocan en dos preguntas principales:
“¿Qué pasa cuando los costos de reproducción y distribución se van? ¿Qué pasa cuando
no ya exista nada especial sobre publicar, porque los usuarios pueden hacerlo por sí
20
mismos?” Jay Rosen plantea que internet fomenta el periodismo “llevando a cero los
costos de llegada a la gente, y mediante la gran reducción de capital requerido para una
21
producción de calidad.” O como un libro propone, “en un área clave, internet reduce el
costo estructural de las firmas de medios y productores de contenidos: baja el costo de
distribución.”
22
De hecho, la última cita me pertenece. Estaba equivocado, y este libro intenta explicar
por qué.

Es cierto que el costo por mover, almacenar o procesar información es ahora barato, y se
vuelve cada vez más barato constantemente. Pero ahora nos movemos, almacenamos y
procesamos tanta información que el gasto total es masivo. ​Quién paga e​ stos costos se ha
desplazado, con consecuencias importantes. Pero los costos de los servidores y el
desarrollo web son más grandes que el costo de las líneas de telégrafo o las prensas
mecánicas o los transmisores televisivos. Los centros de información de Google (o Amazon
o Facebook) son exactamente la clase de gasto de capital multibillonario que se suponían
obsoletos.

El error más profundo de aquellos que defienden la libre distribución digital, ha sido una
angosta definición de lo que cuentan como costos de distribución. Los costos de
distribución, como sugiere la cita de Rosen, deben incluir todos los costos de llevar el
contenido delante de los ciudadanos. Pero esto incluye no solamente los costos de
información, o los costos de los servidores. Al contrario, el costo de la distribución del
contenido digital es el ​costo total que lleva construir una audiencia durante meses y años.

Los costos de distribución incluyen la necesidad de postear nuevo contenido


constantemente, dado que el volumen de nuevo contenido es un importante factor para

19
Benkler, 2006, pp. 3–4.
20
Shirky, 2009, pp. 59–60.
21
Rosen, 2011.
22
Hindman, 2009, pp. 86–87.
la pegajosidad. Los costos de distribución incluyen el diseño del sitio, y todas las
características que incrementan el compromiso de los lectores. Los costos de distribución
incluyen el equipo y el esfuerzo necesarios para personalizar el contenido. Los costos de
distribución incluyen la habilidad y la infraestructura que se requieren para optimizar los
motores de búsqueda. Los costos de distribución incluyen la compra de tráfico a través de
publicidades y links pagos. Los costos de distribución incluyen los costos de construir
aplicaciones móviles y hacer que los websites sean amigables para los celulares.
Simplemente porque los costos de la distribución online sean ​diferentes ​a los de otros
medios no quiere decir que sean ​pequeños.

Construir una audiencia online es como llenar de aire un globo con una fuga lenta. Uno
debe seguir inflando, para mantener un nivel constante de inversión, o los esfuerzos
previos serán perdidos rápidamente.estos costos indirectos de distribución no son
opcionales. Para un sitio de noticias o un blog, mantener un nivel de pegajosidad por
sobre lo normal es un asunto de vida o muerte.

El capítulo 8 concluye ofreciendo un ​modelo evolucionista d ​ e audiencias digitales. La


competencia darwiniana por la atención no produce la internet igualitaria que muchos
esperaban, porque los rasgos necesarios para la pegajosidad no son distribuidos
equitativamente. Una pequeña porción de pegajosidad le permite a los ganadores crecer
más rápido que los nichos que ocupan, monopolizando dinero y atención. Una
distribución cara significa que la apertura de internet no es ni intrínseca ni inevitable. Y
para todos los que conciben a internet como un “ecosistema”, los nichos digitales sólo son
tan brutales y frágiles como aquellos en el mundo real.

Muchos han esperado que la web vuelva a las noticias y al debate político menos
centralizado, que expanda y diversifique el número de periodistas y sitios de noticias, y
que vuelva al capital menos importante a la hora de ganar audiencias. El número de sitios
puede haberse expandido, pero la esfera pública se mantiene altamente concentrada. La
cantidad de periodistas se ha desplomado y las “fake news” se multiplicaron, pero los
medios digitales son tan dependientes de algunos porteros corporativos como siempre lo
han sido. Construir una audiencia consistente sigue siendo enormemente caro. La
economía de la atención ha condenado la mayoría de nuestras esperanzas cívicas sobre la
web. Este libro es un eulogio post mortem (al explicar por qué las cosas han terminado así,
y por qué esta no es una fase pasajera).

La renuencia de muchos por abandonar esas esperanzas fallidas ahora amenaza con
empeorar la situación. Para todas las fallas de internet, existen pasos concretos que
podemos tomar para fortalecer la audiencia pública online. Pero primero debemos
entender el abismo entre nuestra internet imaginaria y ficcionalizada y la menos
inspiradora realidad.

Capítulo 8: La “naturaleza” de internet.


“Los mejores productos no ganan. Ganan los que todo el mundo usa. Conozco
mucha gente que no querrá escuchar esto… pero no se equivoquen, las tácticas de
crecimiento son lo que nos trajo hasta aquí.”
-Andrew Bosworth, vicepresidente de Facebook.
Memo interno titulado “El feo”, 18 de junio de 2016.

En febrero de 1996 John Perry Barlow, mejor conocido como el compositor de The
Grateful Dead, publicó un breve manifiesto titulado “Una declaración de la Independencia
del Ciberespacio”. En turgida prosa que remite a Hegel más que a Jefferson, Barlow afirmó
que la internet era inmune a las regulaciones y enteramente separado del “mundo
23
industrial” . Internet era “el nuevo hogar de la mente”, donde “lo que sea que la mente
humana pueda crear puede ser reproducido y distribuido infinitamente bajo ningún costo.
El transporte global del pensamiento ya no requiere de sus fábricas para realizarse”. Los
gobiernos no podían esperar gobernar el ciberespacio, porque internet no era
simplemente una tecnología, sino “un acto de la naturaleza”.

Barlow no fue el primero en evocar leyes “naturales” o metáforas biológicas al hablar de


internet. La cultura tecnológica del Sur de California ha sido modelada tanto por la
24
contracultura ​teñida de ​Whole Earth Catalog y​ el capitalismo “evolucionado” inspirado
en Joseph Schumpeter. Pero el tratado de Barlow le dio a esta visión una audiencia más
amplia. El ensayo fue rápidamente replicado en otros cuarenta mil sitios, volviéndolo
posiblemente el más impresionante ejemplo de contenido viral hasta ese momento. Hoy,
la Declaración es usualmente citada como el cenit de la estupidez de la tecno-utopía de
los 90´s. El mismo Barlow, cuando le preguntaron por la declaración en 2004 dijo que
25
“todos crecemos y nos volvemos más inteligentes.”

Sin embargo, en importantes formas, no nos hemos vuelto más inteligentes sobre
internet. Errores conceptuales sobre la “naturaleza” de internet siguen siendo la razón
fundamental de nuestras politicas públicas. Los oímos de los labios del secretario de
Estado y del presidente de la FCC, incluso del presidente de Estados Unidos. Los leemos en
las publicaciones de nuestros colegas y en los libros más vendidos. Goliats corporativos se

23
Barlow, 1996.
24
Turner, 2006; ver también Helmreich, 1998.
25
Doherty, 2004.
preocupan a los gritos por la amenaza que sufren frente a estudiantes en un garage
26
(comúnmente falsificando sus propios orígenes bajos en el proceso) .

El problema al escribir sobre “la” internet, entonces, es que no hay una internet, sino dos.
La primera que efectivamente existe es la internet que la mayoría de nosotros utilizamos
diariamente, incluso constantemente. La segunda es la que llamamos ​internet imaginaria,
la idealizada, ficcionalizada internet que “todos saben” está democratizando la
comunicación y la vida económica. Una y otra vez, nuestro entendimiento de la internet
real se ve oscurecido por la fe infundada en la internet idealizada.

La brecha entre la internet que imaginamos y la real no es sólo un asunto de énfasis, o


tono optimista, o florecimiento retórico. Como este libro ha demostrado, confundir estas
dos internets lleva a errores fácticos básicos.

En la internet imaginaria, muchos suponen que las audiencias son desparramadas apenas
entre miles de sitios. En la internet real, en contraste, un tercio de las visitas web van a las
principales 10 firmas más grandes. Mientras el anterior presidente de la FCC Tom Wheeler
27
imagina que internet “distribuye la actividad económica” , la internet real deja que dos
firmas controlen más de la mitad de las ganancias de la publicidad online. El presidente de
la FCC durante la administración de Trump, Ajit Pai, similarmente imagina que la internet
provee “incontables” fuentes de noticias locales, mientras que la información del mundo
real de la FCC demuestra que la mayoría de los norteamericanos sólo tienen algunas
opciones de noticias locales online en realidad. En la internet imaginaria, la
personalización favorece a los sitios pequeños. En la real, las economías de escala y las
matemáticas de focalización significan que sólo los grandes sitios pueden personalizar la
publicidad y el contenido eficazmente. La internet imaginada puede ser “post industrial”,
pero en la real prácticamente todas las ganancias van a aquellas firmas que construyen
fábricas gigantes.

Al mismo tiempo, la internet imaginaria nos engaña sobre las dinámicas de las audiencias
digitales. En la internet que imaginamos, los giros de la audiencia son una fuerza
niveladora. En realidad, los giros desiguales son los que crean esta concentración digital
tan intensa. La web real cambia más rápido en el fondo que en la cima, donde los grandes
sitios disfrutan de una relativa seguridad. En la internet imaginaria, los costos de cambio
son triviales y la competición está “sólo a un click de distancia”. En la real, los usuarios son
más l​ eales a los centros digitales que a los minoristas de ladrillo y mortero. ​La economía
de la publicidad, que fue utilizada para pagar tarifas más altas por lector a los medios
locales sobre los nacionales, ha dado un giro sobre su cabeza.

26
Ver Heath y Heath, 2011.
27
Wheeler, 2013.
Nuestra visión ficcionalizada de internet ni siquiera comprende bien la arquitectura
tecnológica. La internet imaginaria sigue siendo una red de persona a persona tal como lo
era en 1995. Hoy, en la internet real, la mayor parte del tráfico nunca toca la columna
vertebral pública. Los pequeños sitios no son ni remotamente iguales en su hardware o
software o en sus fibras (a menos claro, que dependan de gigantes digitales como Amazon
o Google, haciendo la desigualdad aún más profunda).

Uno de los objetivos de este libro es achicar la brecha entre la internet imaginaria y la real,
entre la que tantos celebran y aquella más importante, compleja y desigual, que hoy está
entretejida en nuestras vidas. Apuntar las áreas específicas en las cuales la realidad no se
condice con nuestras suposiciones es el primer paso en ese proceso.

Pero derribar mitos significa poco si no logra reemplazar teorías folclóricas de la internet
por algo mejor. Irónicamente, un pensamiento más claro sobre internet se logra tomando
toda esta charla sobre su “naturaleza” muy seriamente.

Un modelo evolutivo de las audiencias.

El uso de metáforas biológicas tiene una larga historia en la retórica de la tecnología,


desde el enfoque de Stewart Brand en la “co-evolución” humana con la tecnología hasta la
28
discusión de Schumpeter sobre el cambio tecnológico como una “mutación industrial” .
29
Algunos trabajos recientes sobre los “nichos” mediáticos y la “evolución de la audiencia”
30
también se han apoyado en el lenguaje biológico para explicar importantes cambios en
el panorama de los medios digitales.

Sin embargo, si queremos entender las audiencias online, es válido volver al pensamiento
de Darwin, y tomándolo incluso más literalmente que los estudios previos. Basándome en
lo que hemos visto en capítulos anteriores, propongo un ​modelo evolutivo de las
audiencias digitales. ​Como el argumento original de Darwin, este modelo puede ser
31
reducido a una serie de premisas que se construyen entre sí.

Comencemos con la primera: ​casi todos los sitios pueden soportar más audiencia de la que
efectivamente tienen. ​La arquitectura tecnológica de la web permite un crecimiento de las
audiencias prácticamente instantáneo. Las audiencias no son limitadas por la capacidad de
impresión o el rango de emisión. Los sitios bien diseñados pueden mantenerse en pie
incluso cuando reciben diez o cien veces más audiencia de la que esperaban.

28
Turner, 2006; Schumpeter, 1942.
29
Dimmick, 2002.
30
Napoli, 2011; ver también Stober, 2004
31
Ver Ernst Mayr 1982, Bowler,1989; Gould, 2002.
Segundo, ​categorías de contenido demuestran una audiencia estable. ​Colectivamente, las
audiencias de noticias, clima o compras han sido notablemente consistentes a lo largo del
tiempo. Los grandes cambios de audiencia han sucedido con la apertura de nuevos nichos
de contenido (como Youtube o Netflix) o al usar internet en situaciones que previamente
eran difíciles (como los smartphones o tablets). Pero la porción de audiencia de los
contenidos de noticias, por ejemplo, se ha mantenido prácticamente sin cambios a lo
largo de los últimos 20 años.

Tercero, tanto para los usuarios como los websites en sí mismos, ​los recursos son
limitados. ​El trabajo, la familia y el descanso compiten por la atención de los usuarios,
como lo hacen otro tipo de medios. La renovación de sitios web es limitada. Los equipos
son limitados, y aún más escasean los verdaderos talentos y las personas con experiencia.

Al unir estas tres premisas el resultado será (una cuarta premisa), ​la competencia por la
atención es feroz. ​La noción de que la web produce una pelea sin retenciones por la
audiencia es prácticamente un cliché, como vimos en el capítulo 1. Pero mientras la severa
competencia por las audiencias existe innegablemente, las características y consecuencias
de esa competencia han sido groseramente incomprendidas.

La competencia online por la audiencia ha sido considerada como el resultado de un


nivelamiento radical del campo de juego. La competencia es tan brutal, según este
argumento, porque es muy igualitaria. Clay Shirky, por ejemplo, toma a Thomas Hobbes al
32
argumentar que la competencia online es “la guerra de uno contra todos”. Es un
resbalón raro y revelador (no menos porque el mismo Hobbes nota que los esfuerzos
33
científicos y las “artes basadas en las palabras” son una excepción clave a sus postulados
sobre la igualdad humana). La mayor parte de los análisis de las audiencias digitales se ha
detenido en este punto, donde supuestamente es evidente la igualdad producida por una
pelea cuerpo a cuerpo intensamente igualitaria.

Pero siguiendo con el resto de los argumentos de Darwin podemos demostrar por qué la
competencia igualitaria no puede durar. Consideremos la quinta premisa: con recursos
limitados, ​los websites difieren en los rasgos que les permiten construir audiencias. Como
hemos catalogado, algunas características de los sitios web importan enormemente en la
tarea de construir una audiencia. El tiempo de carga del sitio importa. La arquitectura
tecnológica importa. El diseño, la marca, y la accesibilidad para el usuario importan.
Muchas otras características importan también, algunas para todos los websites, otras
para algunos nichos en particular.

32
Shirky, 2010.
33
Hobbes, 1996.
Por último, ​los sitios con rasgos favorables aumentan su cuota de mercado con el tiempo.
Los rasgos favorables hacen a un sitio pegajoso: aumentan la probabilidad de que los
usuarios lo visiten y lo usen por más tiempo. Por conveniencia, llamaremos a este modelo
selección de audiencia, ​por la selección natural en biología. La etiqueta de selección de
audiencia puede sonar empoderadora, incluso meritocrática. Pero en realidad, las
audiencias raramente logran elegir entre tantas opciones igualmente buenas.

El reporte de Darwin deja afuera varios detalles claves, siendo que fue escrito un siglo
antes del descubrimiento del ADN. Pero aún así fue de vital importancia para conectar la
biología de gran escala (especies y ecosistemas) con las presiones sobre organismos
individuales. En la teoría de Darwin, su “momento eureka” llegó mientras leía a Thomas
Malthus. Malthus proponía que la sociedad está condenada a superar su fuente de
alimento porque la población humana crece geométricamente. Si cada pareja tiene cuatro
hijos, por ejemplo, la población se duplicará en cada generación. En un flash, Darwin se
dio cuenta que la selección natural no sería acumulativa, sino ​compuesta: la población de
organismos con rasgos favorables se multiplica con cada generación exitosa. La selección
natural es desarrollada a través del crecimiento exponencial.

El principal desafío para los intelectuales de internet es similar. Públicamente han tenido
problemas para conectar la macroestructura de las audiencias digitales con el
comportamiento a nivel micro, es decir, las decisiones individuales sobre qué clickear,
34
leer, mirar, y qué escuchar. Este libro demuestra que el salto intuitivo es el mismo tanto
para los medios digitales como para la biología: se trata de entender que incluso las
pequeñas diferencias diarias en el crecimiento de las audiencias se componen
exponencialmente. Cientos de características en un sitio influencian cuánto se quedarán
los usuarios, y qué tan probable es que vuelvan, desde la velocidad de carga de una página
hasta su diseño general o la frescura de su contenido. Los pequeños efectos se multiplican
con cada visita, y quienes publican con una mayor pegajosidad aumentan su porción de
mercado a lo largo del tiempo. Este proceso es responsable de la macro estructura de la
web.

La selección de audiencia significa por lo tanto, que el crecimiento es una función que
depende de cuán grande ​ya es ​la audiencia de un sitio. Sólo los visitantes actuales llegan a
apreciar una suma de contenido nuevo o las mejoras en el nivel de carga. Los momentos
de igualdad competitiva son efímeros. Una pequeña ventaja temprana puede convertirse
en una ventaja insuperable. Medio porcentual más en el crecimiento diario puede
convertirse en una llamativa ventaja de crecimiento en menos de un año.

34
Watts, 2011, pp. 61–64.
Las noticias empeoran para las organizaciones pequeñas. Como hemos visto, la
pegajosidad es cara. Los grandes sitios no sólo tienen bases de datos de usuarios más
grandes sobre las cuales soportar estos costos, sino que también ganan más por cada
visitante. El mismo usuario es mucho más valioso para Facebook o Google de lo que lo es
para un periódico local. Tratar los cambios en las audiencias como un proceso orgánico y
evolutivo, por lo tanto, no nos lleva a un nivelamiento radical. Las energías destructivas de
internet (“creativas” o no) no son aplicadas de igual manera.

La distribución digital nunca es gratis.

Este modelo evolutivo de tráfico ha profundizado las consecuencias para cada aspecto de
los medios digitales. El primero y principal es el siguiente: cuando la competencia por
atención es un conflicto darwiniano sin fin, ​la distribución digital nunca es gratis.

El economista Milton Friedman (entre otros) era aficionado a la frase “no existe tal cosa
como un almuerzo gratis”. El punto de Friedman era que alguien en algún lugar siempre
pagará por el costo de ese almuerzo “gratuito”. Cuando los pubs norteamericanos crearon
la práctica de los almuerzos “gratuitos” antes de la prohibición, esos almuerzos eran
pagados con el aumento del costo de las bebidas, y haciendo la comida gratuita
extremadamente salada, para que los consumidores necesiten de los tragos más caros
para saciar su sed.

El mismo principio funciona para las audiencias digitales. Alguien siempre debe pagar por
los costos de la distribución digital, que son ​los costos de la construcción de audiencias.
Los billones de dólares invertidos en granjas de servidores y plataformas de software son
costos de distribución. El diseño web y de aplicaciones es un costo de distribución, dado
que las interfaces malas frenan el crecimiento de audiencias. El contenido nuevo es un
costo de distribución, dado que pocos lectores quieren leer la misma pieza dos veces.

Los costos de distribución también incluyen los costos de búsqueda, que son distribuidos
entre los gigantes digitales, editores independientes, e incluso usuarios. Google y
Facebook pagan mediante la filtración de billones de items hasta encontrar aquellos que
satisfagan a los usuarios. Quienes publican también pagan los costos de búsqueda, al
optimizar su contenido para lograr más visibilidad en los motores de búsqueda y redes
sociales, o simplemente mediante la compra de publicidad. Buzzfeed y el Hufngton Post
pagan millones de dólares para asegurar que Facebook distribuya sus historias, dinero que
va hacia el diseño del sitio o el manejo de su contenido. No es menos importante que los
consumidores individuales pagan parte de estos costos al invertir sus esfuerzos por
encontrar el contenido que encaje con sus intereses.
Estos costos de distribución vuelcan nuestro entendimiento de la internet como una
plataforma neutral. El Protocolo de Internet venció a los primeros estándares de
competencia de la red en gran parte por su mínimo acercamiento. Respetar el “consenso
general y código de ejecución” significaba que la internet ya estaba corriendo en millones
de máquinas mientras las alternativas de las corporaciones o el gobierno aún estaban en
35
el tablero.

Pero el minimalismo de internet es ahora una debilidad crítica. Con la falta de la


funcionalidad clave para la construcción de audiencias, los editores digitales se ven
forzados a apoyarse en plataformas más grandes. Google, Facebook, los sistemas
operativos de iOS y Android, incluso en los servicios de Amazon o Microsoft. Cada
crecimiento rápido reciente en editores digitales (desde Buzzfeed hasta el Hufngton Post,
de Gawker a Upworthy o desde Vice hasta Vox.com) ha sido altamente dependiente de
todas estas plataformas privadas.

La pregunta más importante es: ​¿tienen los editores pequeños una chance razonable de
construir una audiencia? ​Hoy la respuesta es no, no sin la ayuda de las grandes firmas
digitales.

Voz política.

Estos gastos de distribución caros pero poco convencionales desafían nuestras nociones
sobre la apertura de internet, y nos fuerzan a reconsiderar un enorme volúmen de
estudios sobre internet.

Cientos de piezas de estudio han afirmado que internet expande las voces políticas, y
vuelve más barata la llegada a las audiencias para ciudadanos y grupos políticos pequeños.
En palabras de Jennifer Earl y Karina Kimport, la internet debería proveer los costos para
36
grupos, individuos y editores de pequeña escala. Sin embargo, la competencia
darwiniana por la atención ha destruído esta idea a lo largo del tiempo. Para estar
seguros, han existido enormes cambios en los costos de distribución. Google y Facebook
invierten billones en sus plataformas, que pueden ser apalancadas por incontables grupos
y publicaciones para la construcción de audiencia. Algunos grupos y organizaciones
pueden incluso pagar por la construcción de audiencias en modos poco convencionales.
Pero es un profundo error ver la distribución digital como barata o incluso “gratuita”.

Una distribución cara ayuda a explicar las continuas desigualdades en la participación


digitales. Muchos estudios continúan encontrando que la internet política sigue siendo un
37
“arma de los fuertes”. Blogs fundados en sitios independientes han llegado
35
Abbatte, 1998.
36
Earl y Kimport, 2011.
37
Schlozman, Verba, and Brady, 2010; ver también Schradie, 2012.
prácticamente a la extinción (ver el capítulo 7), con las dinámicas evolutivas llevando la
discusión política a unos pocos sitios populares. Mientras esto es una porción de una
esfera pública fragmentada, limita el espacio para las discusiones políticas y reduce
bastante la apertura prometida de internet.

Las mismas dificultades pueden verse en la capa organizativa de la política. Los grupos de
interés deberían beneficiarse por los recortes de gastos de internet. Sin embargo, un
trabajo de Trevor Trall, Dominik Stecula y Diana Sweet ha encontrado que los recortes de
gastos son mínimos, y que los grupos de interés encuentran aún ​más d ​ ifícil atraer la
38
atención pública en el ambiente digital. El libro de David Karpf ​Activismo Analítico ​ha
demostrado similarmente que las nuevas organizaciones políticas basadas en datos se
benefician de las escalas masivas. La feroz competencia por la atención significa que aún
es más difícil para los activistas de pequeña escala lograr reconocimiento público.

Producción colaborativa de contenido.

Si la competencia por la atención desfavorece a los grupos políticos, es especialmente


perjudicial para la producción colaborativa de contenido cívico.

Muchos de los trabajos más citados sobre internet han afirmado que la internet haría que
la distribución de contenido se vuelva vulgar. Las colecciones sueltas de ciudadanos
podrían funcionar como medios de comunicación, publicando información cívica,
opiniones políticas e incluso reportajes originales. Wikipedia y algunos blogs políticos han
sido evocados repetidamente como ejemplos exitosos de distribución de contenido
creado.

Como un trabajo por Yochai Benkler, Aaron Shaw y Benjamin Mako Hill ha notado, la
cuestión no es si la producción colaborativa es posible, sino bajo qué condiciones es
39
posible que sea exitosa. Una y otra vez, la producción colaborativa en el mundo real ha
sido incapaz de competir con los modelos tradicionales corporativos.

Los modelos de audiencias evolutivas explican esta falla al resaltar el intratable problema
de la pegajosidad. Rápidas velocidades de carga, buenos diseños web, plataformas de
testeos, aplicaciones móviles, contenido constantemente actualizado (entre otras ciencias
características) son mucho más fáciles de alcanzar con una estructura organizacional
jerárquica. Incluso los sitios que dependen mucho de los usuarios para hacer y filtrar
contenido, como Facebook, Twitter y Reddit, son corporaciones que se apoyan en
comando y control para las decisiones importantes (sin mencionar los billones de dólares
de capital privado).

38
Trall, Stecula, and Sweet, 2014.
39
Karpf, 2016.
Los estudios sobre la producción colaborativa de contenido son como estudiar la ecología
40
de las islas para entender la evolución. Wikipedia ha disfrutado desde el comienzo de
una rara protección de sus competidores corporativos. La Enciclopedia Británica e incluso
Microsoft Encarta no podían alcanzar a Wikipedia en precio, velocidad, o cobertura de
cultura popular. Pero el inusual nicho de Wikipedia socava la afirmación de que la
producción colaborativa puede ser un modelo para otros tipos de contenidos. Wikipedia
es el equivalente digital del pájaro dodo: una solución evolutiva fantástica que funciona
únicamente aislada de la competencia.

Gobernabilidad de internet, neutralidad de la red y antimonopolio.

Mejores modelos de audiencias digitales son cruciales, también, para reenmarcar los
trabajos intelectuales sobre la gobernabilidad de internet.

Durante las últimas dos décadas, intelectuales han destacado la manera en la que los
Estados, firmas privadas y demás instituciones ejercen poder sobre la internet. Una
preocupación ha sido la habilidad de los actores corporativos para moldear el ecosistema
41
informativo con muy poco debate público. Como afirma Robert G. Picard, las grandes
firmas digitales “están crecientemente cambiando los mecanismos de control e influencia
de los medios desde las esferas públicas hasta las privadas, reduciendo la habilidad del
público para influenciar mediante determinadas políticas democráticas, y volviendo más
42
difícil la vigilancia pública de los medios y sistemas de comunicación.” Esta influencia se
origina parcialmente del hecho de que decisiones técnicas aparentemente neutrales
suelen reforzar las relaciones de poder: en palabras de Laura DeNardi, “los arreglos de
43
arquitectura tecnológica son arreglos de poder”.

Este libro agrega información a la literatura sobre la gobernanza de internet en varias


maneras. Primero, los modelos evolutivos de tráfico refuerzan el lazo entre el poder
arquitectónico de las grandes firmas y su poder económico. Desde la perspectiva de las
firmas, su habilidad para controlar la pegajosidad (para asegurar su propio crecimiento) es
clave para su influencia. Este libro provee una mejor explicación para cómo surge la
concentración de audiencia, y cómo las inversiones de las grandes firmas y sus elecciones
técnicas sirven para reforzar sus propias posiciones.
44
Algunos intelectuales se han preocupado porque como “el contenido reina” , la internet
reproducirá la concentración entre los productores de contenido. Esta creencia en el
poder del mercado de los productores de contenido ha sido la pieza central de las críticas
40
Benkler, Shaw, and Hill, 2015.
41
MacArthur and Wilson, 1976.
42
Vaidhyanathan, 2012; Mueller, 2010.
43
Picard, 2014.
44
Esta frase parece haber sido adoptada por Bill Gates en un ensayo de 1996.
académicas sobre la concentración digital. Por ejemplo, el libro de Benjamin Bagdikian del
año 2004 ​El nuevo monopolio mediático h ​ a notado con preocupación particular que cinco
45
firmas de contenido grandes controlan el 80% de las ganancias digitales. Estudios de Eli
Noam, entre otros, han desafiado esta postura, argumentando que el verdadero cuello de
botella es la distribución y no la producción de contenido, y que en el futuro esta brecha
46
sólo crecerá.

Este libro se ha preocupado similarmente por los monopolios de distribución, pero


argumenta que la ​distribución debe ser aún más considerada. ​La distribución no es sólo
ISPS y tubos físicos, sino más bien ​todos l​ os componentes de la pegajosidad que van a la
construcción de audiencias. Ellos proveen una arquitectura distributiva crucial para la cual
no existen substitutos adecuados. Ser degradados de las páginas de noticias o de
resultados tiene consecuencias terribles para los productores de contenido.

A la neutralidad de la red y más allá.

Una comprensión más amplia de la infraestructura es crucial, también, para entender los
nuevos debates sobre la neutralidad de la red. Los modelos de audiencia evolutivos,
constantemente cambiantes de este libro ofrecen una nueva y mejor explicación de por
qué la neutralidad de internet es tan indispensable como insuficiente para una internet
abierta.

El mito fundacional de internet, y luego de la World Wide Web ha sido que la tecnología
47
trataba cada computadora y cada paquete de datos de igual manera. Aún así, los
servicios de internet han tratado repetidamente de crear un “carril rápido” para algunas
compañías favorecidas que pagan mejor para un mejor acceso para sus usuarios.

En febrero de 2015 la Comisión Federal de Comunicación tomó una decisión para


fomentar la neutralidad de la red. La FCC prohibía que los proveedores de internet
bloqueen contenido legítimo y que cobrarán por priorización de tráfico. Y a diferencia de
los esfuerzos previos de la FCC, esta decisión reclasificó el tráfico de internet bajo el Título
II, la parte central de este mandato bajo la Acta de Comunicaciones de 1934. Aún así, la
orden de neutralidad de la red de 2015 representó una victoria pasajera. Con la elección
de Donald Trump, y la elevación de Ajit Pai de comisionado a presidente, la FCC abandonó
estas protecciones de neutralidad en diciembre de 2017.

Los modelos evolutivos de audiencias digitales ayudan a explicar por qué el fin del
refuerzo de la neutralidad de la red es una amenaza tan importante para los productores
de contenido, especialmente para los más pequeños. Si los proveedores de servicios como
45
Bagdikian, 2004.
46
E. M. Noam, 2015.
47
Wu, 2003.
Comcast y Time Warner y Verizon pueden pedirle a los editores que paguen más por
cargas rápidas en sus sitios y aplicaciones, los productores de contenido se verán forzados
a pagar o enfrentar una brecha de audiencia aún más amplia. Comcast y Time Warner
están en una posición para un sacudón prácticamente mafioso: “Tienes un adorable sitio,
sería una pena que los tiempos de carga crezcan y tengas enormes pérdidas de tráfico.”
Para estar seguros, la ISPS ha argumentado repetidamente que cualquier impacto será
pequenio, una afirmación soportada por los billones de dólares que han gastado
oponiéndose a las regulaciones. Si este libro nos ha enseñado algo, es esto: los efectos
pequeños que se repiten constantemente no son efectos pequeños.

El rechazo de la FCC de Trump por la neutralidad es desalentador. Aún así una de las
lecciones centrales de este libro es que ​la neutralidad de la red por sí misma no es
suficiente. I​ ncluso si pudiéramos llevar a la internet a su arquitectura original, eso no sería
suficiente para eliminar la concentración de audiencia y poder en unos pocos grandes
sitios. Asegurar una internet abierta es, por lo tanto, no sólo trabajo de la FCC o de los
reguladores internacionales. Requiere de la ayuda de un sector más amplio de
reguladores.

Fortalecimiento de las aplicaciones antimonopolios.

Entonces, la neutralidad de la red en sí misma no es suficiente. Para mantener una


apertura de internet significativa, los reguladores en Estados Unidos y la Unión Europea
necesitan fortalecer agresivamente las leyes antimonopolio existentes.

Entender la naturaleza compuesta y evolutiva de las audiencias digitales es fundamental


para este esfuerzo. La habilidad de las firmas para controlar su propio crecimiento es un
elemento clave en el monopolio del poder.

Los Estados Unidos y la Unión Europea cuentan aproximadamente con el 80% de las
ganancias de Google y Facebook, haciendo de estos dos mercados un punto clave para
modelar las conductas de estas firmas. A pesar de que las leyes antimonopolios básicas
son similares a ambos lados del Atlántico, desde 2013 ha habido una creciente separación
sobre cómo aplicarlas, un desacuerdo con consecuencias enormes.

La ley de EE.UU define una firma como monopolio si ésta tiene “poder de mercado
significativo y perdurable, es decir, la habilidad a largo plazo de aumentar sus ganancias o
48
excluir a sus competidores.” La primera parte de esta prueba (la habilidad de alterar los
precios) el poder de mercado de estas firmas es obvio. Google, Facebook, Microsoft,
Amazon y Apple tienen cuotas de mercado mucho mayores que los umbrales establecidos
para el mercado. Todas menos Amazon han producido márgenes de ganancias de más de

48
FTC, n.d.
un 30% anio tras anio, una imposibilidad en mercados competitivos con entradas sin
49
restricciones.

Aún así, los reguladores norteamericanos han sido tibios incluso cuando las firmas fueron
encontradas con las manos en la masa. En 2012, por ejemplo, Google fue atrapado
promoviendo sus propios productos y servicios por sobre los de sus competidores, incluso
50
cuando sus propios registros demostraron que los usuarios preferían otros contenidos.
Este es un comportamiento anticompetitivo de manual, y la FCC concluyó que existió un
“real daño a los consumidores y a la innovación”. En 2013 toda la Comisión votó en contra
de llevar el caso a juicio, y en su lugar instauraron un débil estatuto que dejaba a Google
libre para demandar contratos exclusivos con sus sitios aliados.

Algunos aumentaron el espectro de la influencia política: el ​Wall Street Journal


documentó un intenso contacto entre Google y la administración de Obama en las
semanas previas a la decisión de la Federal Trade Commission. Pero cuando un reporte
confidencial de la FTC clave fue accidentalmente filtrado, se volvió claro que la operación
de Google creando mitos jugó un papel fundamental. Incluso en un reporte que debía ser
confidencial, los abogados de la FTC repetían constantemente la afirmación de que “la
51
competencia está sólo a un click de distancia”. Concluyeron en que los usuarios de
Google “no están encerrados”, malentendido refutado por el jefe económico de Google,
52
Hal Varian. El reporte concluía que “la durabilidad del monopolio de poder de Google es
53
cuestionable.”

La decisión de la FTC en 2013 de no perseguir a Google terminó con su asociación con los
reguladores antimonopolio de la Unión Europea, que previamente era bastante buena. En
junio de 2017, oficiales de la UE terminaron su investigación con una multa de 2.42
billones por promover sus propios productos de comparación de compras sobre los de sus
54
competidores. Margrethe Vestager, la Comisionada Europea por la Competencia, sugirió
que podrían haber más casos en contra de Google en el futuro. Algunos comentadores de
EE.UU y el mismo Google han sugerido que la decisión de la UE fue motivada por el
proteccionismo. Aún así, la decisión es sensata, según las reglas de EE.UU y la UE.

El poder de mercado duradero de Google es claro como el cristal si juzgamos a las firmas
de internet con las mismas reglas que a ​cualquier otra industria. L​ as fábricas de otras
firmas son vistas como barreras para la entrada, pero las fábricas de información de

49
El caso de Amazon es particular, siendo que su crecimiento principal es el de la plataforma en sí en lugar
de las ganancias.
50
Mullins, Winkler, and Kendall, 2015.
51
Federal Trade Commission, 2012, p. 112.
52
Shapiro and Varian, 1998; ver capítulo 2.
53
Federal Trade Commission, 2012, p. 112.
54
Scott, 2017.
Google son, de alguna manera, dejadas afuera del análisis. La base de códigos
multimillonaria de Microsoft y su ejército de usuarios son vistas como ventajas duraderas;
pero las de Google de alguna manera no lo son. Las firmas digitales más grandes son
creadoras de mercado que se llevan aproximadamente un tercio de todas las ganancias
que se mueven en su ecosistema. Los creadores de mercados son muy difíciles de
desplazar una vez que se establecen.

Google y otros gigantes digitales ciertamente tienen algunas grandes ventajas. Las
economías focalizadas brindan el poder de la fijación de precios, asegurando que las
firmas con una mayor base de usuarios sean capaces de extraer más dólares por usuario.
Los testeos de variables pueden reducir dramáticamente el riesgo de dar pasos en falso
para las grandes firmas, y limitan las oportunidades de entrada para los competidores
nuevos (capítulo 2). Pero estas ventajas son ​agregadas a​ muchas otras ventajas de larga
data que importan tanto como lo hacen para las industrias de ladrillo y mortero.

Históricamente, las tecnologías de la comunicación han pasado rápidamente de ser


abiertas a cerrarse (un patrón seguido por el telégrafo, el teléfono y las transmisiones
55
entre otras). La internet ha ahora pasado este punto en prácticamente todos sus nichos
establecidos, como por ejemplo la red social de Google Plus y el sistema operativo
telefónico de Windows demuestran. Incluso el éxito nominal de Bing, que se las ha
arreglado para volverse el segundo motor de búsqueda principal, es sólo una victoria
pírrica. Microsoft ha pasado más de una década invirtiendo billones de dólares y
56
absorbiendo la asombrosa suma de $12.4 billones en pérdidas acumuladas para
establecer a Bing como un competidor creíble. Es más barato y simple construir un
programa espacial tripulado de lo que es construir un motor de búsqueda moderno.

Una característica clave de la ley antimonopolio norteamericana, desde el acta Sherman


de 1890, ha sido su preocupación sobre el daño a los negocios pequeños incluso si estos
57
negocios pequeños no son competidores directos de los grandes monopolios. El objetivo
de la regulación antimonopolio, como incluso los juristas conservadores como Frank
58
Easterbrook destacan, es promover el bienestar social. La sociedad entera es más pobre
si Standard Oil duplica el precio de la gasolina, o si los agricultores deben pagar impuestos
de tránsito extraordinarios para llevar sus productos al mercado. Las leyes antimonopolio
deberían prevenir que los monopolistas persiguen ganancias privadas a la expensa de que
grandes costos sean impuestos a otros. Hoy ese riesgo es enorme y penetrante para la
economía digital en su totalidad.

55
Wu, 2011
56
Yarow, 2013.
57
Orbach, 2013.
58
Easterbrook, 2008.
Irónicamente, la historia de firmas como Google, Facebook y Amazon demuestra por qué
medidas antimonopolio son cruciales. En la última mitad de la década de 1990, Microsoft
logró derribar a Netscape en las llamadas guerras de navegadores. La estrategia de
Microsoft fue romper deliberadamente los estándares abiertos sobre los cuales la web se
había construído, volviendola un jardín amurallado al que sólo podría accederse con los
productos de Microsoft. La larga investigación del Departamento de Justicia sobre
Microsoft produjo un modesto asentamiento. Pero aún más importante, la investigación
acortó la conducta anticompetitiva que habría derrumbado las entonces nacientes firmas
como Google, Amazon o E-Bay.

Si el refuerzo antimonopolios es crítico, las herramientas que estas firmas han utilizado
obsesionadamente para aumentar sus audiencias pueden también volver más fácil el
trabajo de los reguladores. Las pruebas de funcionamiento, en particular, son una
poderosa manera de medir el poder de las firmas digitales en maneras que van más allá
de antiguos criterios como los de HHI. Los reguladores pueden ver, con información
experimental del mundo real, cuánto importan las decisiones de las grandes firmas para
los sitios menos populares, y cuán encerrados en los mismos sitios están los usuarios en
realidad. Incluso más beneficiosa para los reguladores resulta que gran parte de la
información que necesitan para tomar mejores decisiones ya existe, en los miles de
experimentos online corriendo alrededor del reloj. Tomar esta información, e incorporar a
la sanción de reglas es clave para las leyes antimonopolios del siglo XXI.

Democracia y Seguridad Nacional.

Así mismo, a pesar de lo importantes que son las peleas en torno a la neutralidad de la red
y las leyes antimonopolio, eventos recientes han demostrado que el crecimiento de los
gigantes digitales no es sólamente una amenaza para la innovación o los bolsillos de los
consumidores. También refuerza las manos de los actores estatales, incluso aquellos que
trabajan para dinamitar la democracia. Dos décadas después de la Declaración de Barlow,
el ciberespacio es un espacio menos libre del poder del Estado que nunca antes.

Parte de la influencia estatal viene de la vigilancia online. Las revelaciones de Snowden en


2013 impulsaron un acalorado debate público sobre las capacidades de la NSA, la GCHQ
Británica y otros servicios de inteligencia aliados. La vigilancia digital penetrante sigue
siendo un asunto crítico que este libro pudo plantear sólo pasajeramente.

La vigilancia estatal está fuertemente ligada con el poder de las grandes firmas digitales.
Las capacidades de la NSA han crecido a cuestas de las redes, herramientas y técnicas de
compañías como Google, Facebook y Verizon. Su infraestructura copia los almacenes de
seguridad de información de los gigantes digitales, y depende críticamente del diseño de
software que Google y Facebook han desarrollado, incluso han contratado a parte del staff
fundador de Facebook. Y, por supuesto, las firmas digitales más grandes funcionan como
paradas comerciales para toda clase de información personal: email, historial de
navegación, datos de locación, e incluso información de tarjetas de crédito. La tentación
de los gobiernos por usar esta información a través de leyes o medios encubiertos es muy
fuerte.
59
Cualquier respuesta efectiva a la “vigilancia capitalista” debe comenzar con las dinámicas
de las audiencias evolutivas que nos han traído hasta aquí. La vigilancia de usuarios en
firmas como Google comenzó principalmente con el imperativo de crecer más rápido que
otros. Las pruebas de funcionamiento y las colecciones de información de audiencia
fueron usadas para mejorar y personalizar las recomendaciones incluso antes de que
fueran aplicadas para focalizar la publicidad, definitivamente antes de que Google tuviera
un modelo de negocio claro.

Cualquier intento para acortar la vigilancia, entonces, debe lidiar con el crecimiento
imperativo. La vigilancia genera técnicas que producen crecimientos más rápidos. es
esencial para autocompletar resultados de búsqueda, para servicios localizados, para
asistentes que se activan mediante la voz, para recomendaciones de noticias
personalizadas y muros de redes sociales, e incontables características altamente
pegajosas.

Esto significa, nos guste o no, que las firmas individuales no pueden simplemente decidir
no rastrear a sus usuarios. ​El crecimiento lento en una web evolutiva es un suicidio en
cámara lenta. ​Los fundamentalistas de la privacidad cuya única propuesta es “no nos
rastreen” se pierden del rol fundamental de la pegajosidad y las audiencias compuestas.
Acciones de firmas como Apple, que han integrado el aprendizaje maquinario para
bloquear ciertos usuarios en su navegador Safari, son ahora posiblemente los primeros
pasos para tomar acciones unilaterales que lastimen a rivales como Google y Facebook.
Por contraste, las soluciones que dependen de la acción voluntaria de unas pocas firmas
son insostenibles por sí mismas. Para las firmas que quieren limitar su colección de
información privada, no existe por el momento una solución para su dilema. Una
regulación fuerte es la única salida de este conflicto.

Discurso público y Desinformación.

Las audiencias evolutivas crean otras vulnerabilidades, también: ellas proveen maneras
novedosas y frecuentemente insidiosas para que los Estados influyan en el discurso
público. Un trabajo reciente de Samantha Bradshaw y Phil Howard ha catalogado la rápida
emergencia de “tropas cibernéticas” (partidos gobernantes, militares o políticos

59
Zuboff, 2015.
organizados para modelar la opinión pública en las redes sociales) en más de doscientos
60
países.

Algunos estados han desarrollado y usado estas capacidades para construir los medios
domésticos. Por ejemplo, la internet de China está separada de la del resto del mundo por
una “gran pared” que filtra el contenido político, y el gobierno chino monitorea la
actividad online e interviene para limitar la acción colectiva. En los momentos críticos el
gobierno chino moviliza cientos de miles de ciudadanos para modelar la discusión pública,
principalmente mediante la distracción más que con la confrontación directa a los
61
discursos desfavorecedores.

Incluso más preocupante es el ejemplo de Rusia, cuyos esfuerzos van más allá de un
simple monitoreo doméstico y vigilancia. Como hemos visto, la web provee modelos de
negocios para las fake news y otros tipos de contenidos cuestionables. Pero Rusia parece
haber usado campañas coordinadas en escalas sin precedentes para amplificar estas
dinámicas y modelar la agenda de noticias.

Mientras la completa extensión de la influencia de Rusia en las elecciones de EE.UU en


2016 sigue siendo poco clara a la fecha de este escrito, lo que sí sabemos es perturbador.
Rusia ha empleado miles de trolls de internet profesionales, cada uno controlando
numerosas cuentas falsas. Ocho de cada diez de las historias más populares en Facebook
62
en los meses previos a la elección fueron completamente fabricados. En estados clave,
como Michigan, las noticias falsas fueron compartidas en Twitter más frecuentemente
63
que las reales en las semanas previas a la elección de 2016.

Estos métodos digitales son particularmente efectivos porque son complementados con
métodos de espionaje tradicionales. Romper las reglas o utilizar métodos ilegales para
mejorar sus posiciones en los motores de búsqueda y redes sociales han sido algunas de
sus herramientas, pero la inteligencia estatal ha ido mucho más lejos de lo que los
criminales ordinarios o hackers talentosos podrían llegar. Por ejemplo, la revista ​Time
reportó que un programador ruso que trabajaba en Estados Unidos “regresó a Moscú y
llevó consigo una tropa de algoritmos que podrían ser utilizados en operaciones de
64
influencia”, siendo prontamente empleado por los servicios de inteligencia rusos. El
penetrante espionaje industrial fue también un factor clave en la decisión de Google de
abandonar China.

60
Bradshaw and Howard, 2017.
61
King, Pan, and Roberts, 2013, 2017.
62
Silverman, 2017.
63
Howard et al. 2017.
64
Calabresi, 2017.
Como secuela de la campaña de 2016, Google, Facebook y Twitter anunciaron sus
esfuerzos para combatir las cuentas falsas y este tipo de operaciones de influencia. Pero
esta clase de amenazas de actores de estado hacen que, incluso para las grandes firmas
privadas, defenderse sea increíblemente difícil. Consideremos sólo un punto de
vulnerabilidad: los miles de trabajadores de industrias tecnológicas que viven o tienen
familias en países extranjeros. Los algoritmos centrales detrás de Facebook y Google son
secretos para el público, pero son tenebrosamente accesibles para los gobiernos hostiles.
Vladimir Putin tiene una estrategia de redes sociales más grande, inteligente y mejor
financiada que cualquier otra organización de noticias. Las grandes firmas digitales se han
convertido en un punto débil, no sólo para las redes de comunicaciones, pero
potencialmente para la democracia en sí.

Periódicos: aquel que paga al flautista…

La habilidad de las naciones hostiles para hackear los medios digitales es una amenaza
nueva y preocupante. Pero a largo plazo, las economías cambiantes de los medios son
igualmente ominosas. Ya no es cierto que los medios locales son más focalizados que los
medios nacionales. Los medios nacionales generalmente obtienen más dinero que los
locales por la misma cantidad de lectores, y las consecuencias democráticas de esta gran
inversión en publicidad son profundas.

Los periódicos norteamericanos modernos surgieron entre mediados y fines de la década


de 1800, cuando las prensas rotativas y el papel de imprenta barato permitieron a los
periódicos exitosos volverse mucho más grandes, y en el proceso, dejaron a cientos de
periódicos más pequeños fuera del negocio. El cambio en las economías de las noticias
significó también el nacimiento de la independencia de imprenta, con los diarios en los
mercados de publicidad más valiosos volviéndose más independientes de los partidos
65
políticos. Como ha explicado el mismísimo Joseph Pulitzer, “la circulación significa
66
publicidad, y publicidad significa dinero, y el dinero significa independencia.”

La última década ha demostrado que la ecuación de Pulitzer también funciona en reversa.


La circulación de los periódicos impresos ha sido más que recortada, y sus audiencias
digitales sólo se mantienen en una fracción del porcentaje del tiempo online. La ganancia
de las publicidades ha caído junto con las audiencias. A pesar de la constante conversación
sobre el “giro” hacia lo digital, las audiencias online de la mayoría de los periódicos
67
continúa acercándose.

65
Petrova, 2011.
66
Starr, 2004, p. 257.
67
Chyi and Tenenboim, 2017.
Todos estos cambios amenazan la influencia e independencia de los periódicos. Esta
amenaza llega porque los costos de distribución han ​cambiado ​en lugar de ​reducirse.
Como hemos visto repetidamente, todo lo que va a la construcción de audiencias es un
costo de distribución. El hecho de que estos costos de adquisición de audiencia y
mantenimiento son principalmente pagados por otras firmas es una maldición en lugar de
una bendición, porque los periódicos ya no controlan sus propias audiencias.

Muchas discusiones de la industria y debates intelectuales han oscurecido este problema


clave. Las afirmaciones sobre cómo internet reduce los costos de distribución son ubicuas,
incluso este autor las ha hecho en trabajos previos. Es falso que las audiencias de los
periódicos son más grandes que nunca, o que tienen un problema de ganancias pero no
un problema de audiencias. Incluso las discusiones sobre “periodismo postindustrial”,
mientras en cierta forma son perspicaces, entienden mal las partes más importantes del
problema. Un periódico impreso no es menos “industrial” porque pague sus impresiones
en lugar de ser dueño de ellas. De la misma manera, los periódicos digitales no son
“postindustriales” si ellos dependen críticamente de las plantas industriales de Google,
Facebook o Apple para atraer a sus audiencias. Las economías “chimenea” son una razón
fundamental, aunque no la única, de por qué las audiencias digitales están tan
concentradas.

Google, Facebook y Apple han hecho ofertas para mover los contenidos de las
organizaciones de noticias a sus propias plataformas. Los artículos instantáneos de
Facebook, las páginas móviles de Google, y Apple news se inclinaban para ser una manera
de mejorar la performance móvil fea, rota y tristemente lenta de muchos sitios de
noticias. Las soluciones de Facebook y Apple son particularmente dañinas para la
autonomía de los sitios de noticias, siendo que ellos funcionan únicamente en las
aplicaciones y plataformas de Facebook y Apple. Los amperios de fuentes abiertas son
mejores, pero aún rompen los estándares de la web y aumentan la dependencia de los
editores en Google, con artículos de noticias usualmente liderados desde los servicios de
Google. Los amperios podrían ser mejores que otras alternativas, pero magnifican la
pérdida de control que las organizaciones de noticias ya han experimentado.

Los periódicos no están del todo indefensos, como hemos visto. Con una mejor
comprensión de la pegajosidad, los periódicos y productores de contenido cívico podrían
hacer inversiones más inteligentes y maximizar sus posibilidades de construir audiencias.
En el medio del pánico por las fake news, muchos ciudadanos que odian los “grandes
medios” siguen teniendo un fuerte afecto por sus periódicos locales. Esta buena voluntad
sigue siendo un activo muy valioso, y los periódicos medianos tienen poco que temer por
los proyectos hiperlocales. Pero no puede esconderse el hecho de que muchos periódicos
(y crecientemente otras organizaciones de noticias) dependen ahora de las acciones de los
creadores de políticas y otros gigantes digitales para su propia supervivencia.

La teoría evolutiva es también una historia de extinción, no sólo crecimiento. Las especies
y ecosistemas pueden ser estables por millones de años hasta que, de repente, no lo son.
Cuando la comida desaparece, el nicho desaparece también, y los puntos de inflexión no
son siempre tan obvios de entrada. El repetitivo lenguaje sobre “ecosistemas” y
“diversidad” es poco descriptivo de cómo funcionan los ecosistemas reales. Y en cualquier
caso, lo que hemos construído online no es para nada un ecosistema, más bien un par de
monoculturas comerciales. Prácticamente toda la pirámide energética de internet
descansa hoy en el duopolio de Facebook y Google. Como lo demuestran eventos como la
hambruna de la papa irlandesa, cualquier monocultura está sólo a un ente patógeno de
distancia de la destrucción.

En algún punto, inevitablemente, llegaremos a los límites de las metáforas biológicas. El


modelo evolutivo puede ayudarnos a entender las dinámicas de las audiencias digitales,
pero internet sigue siendo un reino completamente artificial. Internet no tiene una
“naturaleza”. Si destruye a los medios locales, o subvierte la democracia, o si es la puerta
a una nueva era dorada, no será el resultado de las leyes naturales, sino la consecuencia
de decisiones humanas. La esperanza de este libro es que, al entender nuestras propias
elecciones y multiplicándose, nuestras decisiones serán más sabias. Pero a la vez advierte
sobre la complacencia, sobre comprender el carácter de internet del cual todos
dependemos. Si queremos que la internet siga siendo abierta, debemos primero
entenderla, y luego pelear por ella.

Вам также может понравиться