Internet, burbujas de opinión y noticias falsas


Artículo publicado originalmente en la revista Palabra Pública de la Universidad de Chile y escrito en coautoría con Claudio Ruiz

En 2006 Yochai Benkler publicaba The Wealth of Networks. Allí, haciendo un guiño a Adam Smith, Benkler teorizaba sobre la sociedad de la sociedad de redes a la que dio paso la denominada sociedad de la información industrial. El libro sugiere que los cambios en medios de producción, consumo e intercambio de contenido supondrían beneficios para construir una sociedad cada vez más abierta e igualitaria.

De alguna forma, el influyente libro de Benkler entregaba un sustento teórico a un fenómeno tan novedoso como acelerado, aquel que destruía la distinción emisor-receptor propia de la era industrial para dar paso a un estadio donde sería la tecnología la que disminuiría de manera radical las brechas existentes, pudiendo cualquiera ser un emisor de contenidos online, sin necesidad de pasar por las anquilosadas estructuras de los medios de comunicación tradicionales.

Diez años después de la publicación de The Wealth of Network vale la pena preguntarse qué tan fundado estaba el optimismo expresado por Benkler en el potencial democratizador de Internet. La misma Internet que permitió la irrupción de los blogs, redes sociales y Wikipedia también permitió la existencia de violencia de género y discriminación online, supresión de contenidos críticos y formas novedosas de censura. En este mismo sentido, a propósito de la última elección presidencial estadounidense, ha llamado la atención la aparición de conceptos como las burbujas de filtros y las ‘fake news’, en las que quisiéramos detenernos con algo más de detención.

Burbujas de filtros

La popularidad de los servicios online más populares depende, en gran medida, de la capacidad que tienen de mostrarnos aquello que queremos ver. Eso explica, por ejemplo, que Facebook cambie hace años la forma en que presenta el contenido en su página principal, desde un criterio cronológico a una fórmula algorítmica misteriosa cuya decisión toma en cuenta con quiénes hemos interactuado últimamente, dónde nos encontramos, qué perfiles hemos visitado con anterioridad, entre otros factores. Lo mismo ha hecho, más recientemente, Instagram y Twitter. Asimismo, Google es capaz de mostrarnos resultados más “precisos” gracias al data mining y nuestro historial pasado de búsqueda.

Que nuestros principales métodos de comunicación y de obtención de información nos muestren preferentemente lo que queremos ver no puede sino tener consecuencias en la forma en que nos informamos e interactuamos. Varias estadísticas muestran cómo, en particular los jóvenes, se informan primordialmente cada vez más a través de redes sociales (incluso cuando redirijan a grandes sitios de noticias) que directamente en sitios o medios tradicionales de comunicación. Sin embargo, la información que se despliega ha sido procesada previamente por un algoritmo que ha decidido cuáles son las noticias más relevantes para cada uno de nosotros. Lo que vemos allí no son sólo aquellas cosas que nuestras redes y amigos comparten. Son aquellas noticias e informaciones que queremos leer.

Esto es lo que se ha denominado la “burbuja de filtros” y se le ha achacado un deterioro en la capacidad de discusión democrática. Después de todo, ¿cómo aprenderemos a discutir con posiciones distintas a la nuestra si el contenido que consumimos sólo refuerza nuestra posición ya adquirida? Autores como Cass Sunstein han demostrado que si sólo nos exponemos a argumentos similares tenderemos a extremar posiciones, debilitando una discusión de ideas racional e igualitaria. Expuestos a una constante reafirmación positiva, hasta lo irracional puede llegar a sonar lógico.

Noticias falsas


La estructura actual de la economía digital se sustenta, en buena medida, en la publicidad. Google y Facebook son, básicamente, grandes empresas cuyo modelo de negocio no reside en la oferta de servicios, sino en la gestión de publicidad finamente orientada a perfiles de usuario. Lo que los usuarios pagan a cambio de un servicio de búsqueda online de calidad o por participar en una red social como Facebook es el costo de la información personal que es procesada para enviarnos publicidad contextual.

Es por ello que buena parte de los modelos de negocio asociados a contenido online están vinculados al tráfico de visitas, tráfico que supone finalmente mayores tasas de retorno por publicidad. Medios tradicionales han debido explorar diversos métodos para mejorar sus SEO (Search Engine Optimization) para obtener visitas que, mayormente, provienen de búsquedas online.

De la mano de este modelo de negocio surgen sitios web que intentan capturar visitas a través de agresivas estrategias de SEO que han derivado en los últimos meses en la creación de sitios que no sólo intentan mejorar sus técnicas para titular sus noticias y hacerlas más atractivas, sino que derechamente desentenderse de la veracidad del contenido y ofrecer contenido falso. Contenido no verificable, pero atractivo para masas de visitas que parecen preferir hacer click allí donde se anuncian hechos improbables antes que la aburrida descripción de la cotidianidad. “Viralizar” se transforma en hacer explotar a través de las redes enlaces a lugares donde, en el fondo, más importa su atractivo masivo antes que su veracidad.

Regular el contenido no es la solución


Ante este desafío no han faltado las voces que han exigido a los intermediarios de contenido tomar cartas en el asunto. Algunos afirman que son estos intermediarios -Google, Facebook, Twitter, otros- quienes tienen un deber de control editorial, tal como cualquier medio de comunicación. Soluciones como ésta no hacen sino amplificar el problema y llevarlo a otro lugar: en vez de hacer que sea lo atractivo de un enlace lo que lo haga viralizable, será la decisión editorial de la empresa dueña de la plataforma la que determinará la veracidad de los contenidos. Decisión editorial que será tomada por un programa computacional, de que se tiene poco o nada de control externo fuera de la compañía.

Los efectos de la burbuja de filtros pueden atenuarse a través de mecanismos de transparencia algorítmica. Estos deben permitir al usuario saber los criterios utilizados para desplegar información y tal vez permitir elegir mecanismos distintos de ordenación, tales como cronológico o aleatorio.

Ni las noticias falsas ni las burbujas de filtros deben ser combatidas a través del control de los contenidos. Los mecanismos de solución deben permitir más y no menos expresión y ofrecer cierta transparencia en la forma en la que los contenidos son presentados a través de sus redes. De otra manera, las soluciones que se planteen, en lugar de mejorar, empeorarán las condiciones de debate y discusión pública.

No hay comentarios:

Publicar un comentario

Creative Commons License
This work is licensed under a Creative Commons Attribution-ShareAlike 4.0 International.