Epicentro contra la dictadura... del algoritmo, Epicentro TV

Epicentro contra la dictadura... del algoritmo

La lógica del entorno digital convoca el espíritu tribal, el nicho, la cámara de eco. En nuestras redes nos aparece principalmente lo que queremos ver. Pero eso no es lo que hace el periodismo. El trabajo de los periodistas es incomodar, mostrarnos en el espejo que no queremos ver, presentar distintos puntos de vista para que tomemos buenas decisiones. Ese es el compromiso renovado cada día por Epicentro Tv que cumple 4 años.

Los algoritmos de Meta, el gigante dueño de Facebook, Instagram, Whatsapp, Messenger Live y Threads, contribuyeron sustancialmente a las atrocidades cometidas por las fuerzas de seguridad de Myanmar contra la población Rohinya, concluyeron en 2022 agencias independientes como Amnistía Internacional. Esta puede parecer una realidad muy lejana, pues ocurrió al otro lado del planeta y ni siquiera tenemos gran información sobre el grupo étnico musulmán al que se refieren. Sin embargo, tiene mucho que ver con nuestra situación.  

Lo que ocurrió en Birmania es que los ejecutivos de Meta programaron el algoritmo de Facebook para lograr involucramiento de los usuarios y ampliar el tiempo de permanencia en la red. El algoritmo entendió rápidamente que los mensajes de odio contra esta comunidad musulmana generaban gran engagement y, para cumplir con sus metas de ampliar el tiempo de permanencia en la red, priorizaron esos mensajes. Es decir, amplificaron el odio. No fue el algoritmo el que ejecutó las violaciones, torturas y masacres contra esa población, pero fue el que le dio gasolina al fuego del odio y facilitó ese crimen contra la humanidad. A pesar de esa atroz experiencia, aún hoy en todo el mundo los algoritmos siguen alimentando la polarización, premian las posturas extremas que promueven esos contenidos porque el conflicto genera involucramiento y éste les rinde frutos a las plataformas.  


El impacto del algoritmo de Meta en la masacre de los Rohinyas está explicado con detalle en Nexus, el más reciente libro del extraordinario historiador israelí Yuval Noah Harari, que nos convoca a reflexionar sobre la inteligencia artificial y la fuerza que tienen las plataformas y los algoritmos en nuestro estilo de vida y, a juicio de Harari, en nuestra propia supervivencia.  

En realidad, cada día somos más presas de la tecnología y nuestros datos son compartidos y utilizados por plataformas que los manejan con gran opacidad. Cada vez que nos detenemos más de 10 segundos en un video, cada vez que le damos «me gusta» a una publicación, cada vez que nos suscribimos a un canal o seguimos a una persona, alimentamos bases de datos que pueden utilizar nuestra información sin control, que nos manipulan, que moldean nuestros gustos y que utilizan nuestras pasiones para ganar más dinero.  

La parábola del gato 

La explosión de imágenes de gatos en la web en los últimos años no ocurrió porque súbitamente la humanidad tuvo un ataque de amor felino sino porque todos hicimos parte del entrenamiento de la Inteligencia Artificial para reconocer rostros que empezó con el desafío de identificar gatos sin ayuda de un humano; esto fue posible gracias a millones de imágenes de gatos compartidas por usuarios.  


La parábola del gato debería hacernos conscientes de que nuestros ojos son valiosos para los dueños de las plataformas, que nada de lo que nos aparece en las redes sociales es producto del azar y que todos podemos, con pequeñas acciones, poner mínimos frenos o por el contrario ayudar a liberar su fuerza avasallante. La audiencia de los medios digitales es diferente a la de los tradicionales. En la radio o la televisión, es imprescindible que el usuario busque el canal que quiere ver o escuchar, en cambio en el mundo digital la búsqueda no es necesaria. Basta con entrar a la red para encontrar las sugerencias de contenido que hace el algoritmo con base en sus criterios y en el comportamiento previo del usuario.  

Pero ya vimos que esos criterios del algoritmo no se refieren a la pluralidad ni a la calidad sino al involucramiento, la indignación, la reacción instantánea y ojalá airada. Hace 4 años, Epicentro Tv llegó a este entorno digital que premia el nicho, la cámara de eco, la radicalización, el espíritu tribal. Pero esos no son los valores fundacionales del periodismo. El periodismo tiene la obligación de ampliar el espectro, de dar espacio a voces disidentes, de incomodar, de ayudar a cambiar ideas preconcebidas. El periodismo no debería favorecer las ideas inmutables, sino servir de camino para tomar buenas decisiones teniendo en cuenta todas las opciones. Pero ¿cómo tenemos en cuenta todas las opciones si en los medios que seguimos solo nos muestran una parte del espectro? 

Epicentro Tv nació el 26 de julio de 2021, un momento que coincidió con el inicio del retroceso democrático en Perú y el deterioro de los valores democráticos que habían caracterizado al país luego del retorno de la democracia, tras la caída del régimen fujimorista. En los últimos 4 años, Epicentro Tv ha sido una voz discordante mientras se produce avasallamiento del Estado de Derecho. 

La convicción de Epicentro Tv es que el periodismo es un arma potente contra los abusos del poder, una herramienta para construir ciudadanía y defender la democracia y sus instituciones y un lugar en donde es posible encontrarnos y debatir nuestras diferencias. Por eso, en este medio damos espacio a voces diversas. Y sabemos el costo que esto tiene. Cuando entrevistamos a personajes cuyas ideas u opiniones no son del agrado de nuestro público más fiel, perdemos vistas y tenemos menos «me gusta», lo que nos hace reducir el alcance y, por supuesto, el algoritmo decide no recomendar el programa. Así es como funciona. Aun así, nuestro compromiso sigue siendo por el periodismo y por ser un lugar de encuentro. En este Epicentro hay espacio para todos. Además, tenemos confianza en que quienes nos siguen apuestan por la discusión democrática, a pesar de la dinámica de los algoritmos.  

Censura sin escrutinio 

La gran discusión sobre los medios de comunicación en los siglos XIX y XX se concentró en el poder de los empresarios de los medios tradicionales que tenían el poder de censurar o promover ciertas opiniones y ello ha sido, sin ninguna duda, un problema legendario en los medios. No obstante, al menos, recuerda Harari, "aquellos magnates eran humanos y sus decisiones podían someterse al escrutinio democrático". Quienes deciden hoy a quién se censura y a quién se promueve son los algoritmos y "permitir que unos algoritmos inescrutables decidan qué opiniones se deben difundir es mucho más peligroso", concluye Harari.  

Hoy, esos algoritmos no solo deciden qué temas promocionan, sino también cuáles son las "malas palabras" prohibidas, bloquean contenidos del entorno digital sobre la base de criterios opacos e indiscutibles y muchas veces ni siquiera los bloquean, simplemente los pasan a la zona oscura, los silencian sin que el creador del contenido entienda la razón por la que su video no se movió en las redes. 

El poder de los algoritmos ha cambiado el lenguaje de los periodistas. Para que el algoritmo no bloquee un contenido ya no se puede decir que ocurrió un feminicidio, que una mujer fue asesinada o que fue violada. Para que el contenido pase el filtro se deben utilizar las "palabras" 4s3s1n4d4 o v1ol4d4 e incluso la nueva genial fórmula: fue "desvivida" por su expareja. ¿Quién decidió que es permisible disparar odio e insultos a periodistas, grupos sociales o defensores de derechos humanos, pero que es inaceptable llamar a la violencia de género por su nombre? ¿Lo hicieron quienes programaron los algoritmos o ya lo hicieron directamente los algoritmos en función de los objetivos que les impusieron? 

La fuerza de esas plataformas que controlan los flujos de información en todo el mundo parece imparable. ¿Podemos hacer algo? Aunque parezca poco, como usuarios podemos ayudar a ampliar el espectro de contenidos: premiar los espacios democráticos y plurales, participar en discusiones que nos incomodan, no impulsar el radicalismo y la ligereza. Y darle «me gusta» a esta columna para que el algoritmo no nos castigue por criticarlo.