Q&A  | 

Así es como la publicidad online fomenta el odio y la desinformación, con Nandini Jammi

“Miles de marcas se anuncian sin saberlo en innumerables plataformas y webs que fomentan la desinformación y el odio así como contenido fraudulento”.

Tags: 'Adtech' 'Check my adds' 'Disinformation' 'Fake news' 'Hate' 'nandini jammi' 'Sleeping giants'

SHARE

Reading Time: 4 minutes

Nandini Jammi es la cofundadora de Check My Ads, consultora de seguridad de marca que ayuda a los anunciantes a mantener sus anuncios alejados del odio y la desinformación online, el contenido tóxico y el extremismo.

Jammi busca abordar de raíz un problema del que alertó por primera vez a través de Sleeping Giants, la campaña que notifica a las marcas presentes en redes sociales que sus anuncios aparecen en espacios de propaganda en Estados Unidos. Esto ha llevado a varias compañías a eliminar sus anuncios en Facebook, si bien miles de ellas siguen anunciándose en innumerables webs y plataformas de desinformación, odio y contenido fraudulento.

Junto con su socia Claire Atkin, su objetivo es acabar con la desinformación y restablecer las relaciones directas entre anunciantes y medios de comunicación "proporcionando capacitación y conocimiento para que los responsables de marketing sean conscientes de lo que apoyan a través de su publicidad".

¿Cómo funciona el modelo de negocio de las redes sociales? ¿Es cierto que sus beneficios aumentan con el discurso racista y otros contenidos potencialmente peligrosos?

Las redes sociales extraen los datos de sus usuarios para vender anuncios. Cuanto más tiempo pasan los usuarios en sus plataformas, más rentabilidad obtienen.

Los posts que incitan al odio y dividen a la opinión pública generan ira y así más clics: son sin duda el mejor clickbait [anzuelo] que existe. Este tipo de contenido es el que genera una mayor actividad y participación, razón por la cual las tecnológicas son tan reacias a hacer cumplir sus reglas. Si lo hicieran, correrían el riesgo de perder esos altos niveles de participación y, por lo tanto, de ganancias.

¿Seguirían siendo viables las redes sociales como negocio si se les hiciera responsables de su contenido?

Redes sociales como Twitter y Facebook ya tienen normas de uso y comportamiento. Podrían hacer que se cumplieran y seguir siendo rentables.

De hecho, ésta es una estrategia fundamental de Pinterest, otra importante red social. Según el que fuera su jefe políticas públicas, Ifeoma Ozoma, Pinterest utiliza su voluntad de hacer cumplir sus políticas como una táctica de marketing.

Sí, cuesta más mantener un ejército humano global para moderar contenido que hacerlo de manera automatizada. Pero incluso aun así estas compañías seguirían siendo muy rentables.

 

La web de Check My Ads explica que se fundó "en respuesta al problema más generalizado en la industria de la publicidad: los especialistas en marketing no saben dónde aparecen sus anuncios online". Las empresas, ¿están apoyando sin saberlo webs que incitan al odio y al racismo?

Hemos comprobado que casi todos los vendedores de publicidad online en los que confían los anunciantes se asocian con editores que actúan con mala fé.

Esto significa que si alguien está anunciando algo (producto, servicio, etc) en una web pública, es probable que esté respaldando el discurso del odio y la desinformación.

¿Puede darnos algún ejemplo?

Claro. En una auditoría descubrimos que la empresa de publicidad online Criteo estaba posicionando los anuncios de uno de sus clientes (Headphones.com) en docenas de webs de desinformación y odio. No solo desperdiciaban un porcentaje significativo del presupuesto del cliente, sino que estaban poniendo en peligro la marca del cliente sin su conocimiento o consentimiento.

En nuestro newsletter BRANDED hemos analizado la desconexión entre lo que dicen los vendedores de publicidad online [adtech] y lo que realmente hacen.

Aunque mi trabajo se centra principalmente en el discurso de odio financiado por anuncios en los EE. UU, éste es un problema global. He podido comprobar que los vendedores de publicadad online no consiguen identificar a aquellos editores que actúan “de mala fe” en otros países y culturas.

Por ejemplo, alerté a Rubicon Project (ahora Magnite) acerca de una web India que incitaba al odio y ellos rápidamente dejaron de trabajar con ella (y me agradecieron que se lo hubiera hecho saber). Hasta entonces, muchos de sus clientes (anunciantes) probablemente financiaban dicha web.

 

El posicionamiento de publicidad online, ¿se basa en decisiones algorítmicas? ¿Cómo funcionan?

Sí, se trata de un sistema completamente automatizado. Las marcas establecen sus parámetros, incluidos los nichos o el público a los que quieren dirigirse y cuánto están dispuestos a pagar por impacto. Luego los algoritmos posicionan los respectivos anuncios en Internet de manera acorde con estos parámetros.

Muchas marcas emplean tecnología de seguridad de marca para asegurarse de que no aparecen junto a contenido que incita al odio. El problema es que esta tecnología no funciona

Tras el tremendo boicot publicitario a Facebook, su jefe de política y comunicación, el ex viceprimer ministro británico Nick Clegg, publicó una carta, "Facebook no se beneficia del odio", recalcando sus esfuerzos por moderar su contenido. ¿Cuál es su opinión al respecto?

Nick Clegg debería echar un vistazo a la enorme cantidad de datos que demuestran feacientemente que Facebook se beneficia del contenido que incita al odio en su plataforma.

¿Por qué ha actuado Twitter de otra manera?

No puedo hablar por Twitter, pero supongo que sabe escuchar mejor a sus usuarios.

¿Por qué es necesaria la seguridad de marca?

En un principio la tecnología de seguridad de marca fue adoptada por responsables de marketing de las empresas que querían mantener sus anuncios alejados de la propaganda de ISIS y de videos de decapitaciones.

Pero la idea de la seguridad de marca se ha vuelto más compleja, ahora que el público es más consciente de cómo los presupuestos publicitarios financian el discurso del odio y la desinformación en la web. También están dispuestos a llamar la atención al respecto en las redes sociales, lo que representa un riesgo importante para las marcas.

Campañas como Sleeping Giants y March for Our Lives han dado a los consumidores una voz y un altavoz cuando descubren que los presupuestos publicitarios de las empresas están afectando negativamente a sus vidas y a la sociedad en general.

Esto se lo pone difícil a las marcas, porque hay muchos canales a través de los cuales anunciarse -desde lo programático hasta TikTok- pero aun así necesitan asegurarse de que aparecen junto con el contenido seguro para la marca.

Sin embargo, hay una salida. Las marcas pueden comenzar a tomar decisiones intencionadamente en torno a qué organizaciones, puntos de venta y creadores quieren apoyar en función de los valores de su empresa. Esa es la verdadera seguridad de marca.