Q&A  | 

¿Debería exigirse responsabilidad legal de contenidos a las redes? Con Joan Barata, Stanford

“Hay casos en los que parece existir conexión entre el discurso del odio y la violencia y el negocio de los datos, pero no es la única situación posible”.

Tags: 'Disinformation' 'Fake news'

SHARE

Reading Time: 3 minutes

Joan Barata es uno de los principales expertos en libertad de expresión, regulación de medios y responsabilidad legal de intermediarios a nivel mundial. Como tal, es investigador del Programa de Legislación de Plataformas del Centro de Políticas Cibernéticas de la Universidad de Stanford que estudia legislación nueva o emergente relativa a las plataformas de Internet, con especial énfasis en sus consecuencias para los derechos e intereses de los usuarios de internet y el público en general.

Además de su actividad como docente en varias universidades del mundo, Barata colabora habitualmente con organismos como UNESCO o el Consejo Europeo.

¿Deberían exigirse responsabilidades legales a las grandes tecnológicas en relación su gestión de la desinformación y el discurso del odio?

En primer lugar, debemos tener en cuenta que la desinformación y el discurso del odio son dos categorías completamente diferentes. La última está claramente prohibida por las leyes internacionales de derechos humanos y se castiga por lo criminal en la mayoría de estados del mundo. La desinformación, en cambio, puede tener efectos negativos en la sociedad y representa un ejercicio claramente poco ético de la actividad periodística, pero es no ilegal en sí misma. De hecho, la mayoría de las formas de desinformación están protegidas bajo la cláusula de libertad de expresión (tanto a nivel nacional como internacional). 

Aparte de esto, las compañías tecnológicas y en particular los intermediarios no puede ser considerados responsables de la difusión de contenido que no han creado directamente. Por otro lado, las leyes que obligan a los intermediarios a aportar pruebas de que están eliminando el discurso del odio o la desinformación hacen que estas empresas vayan demasiado lejos en su afán de retirar contenido, lo cual afecta el derecho a la libertad de expresión. 

Dicho todo esto, actualmente se debate si imponer a los intermediarios lo que se podría llamar obligaciones sistemáticas en lo relativo a moderación de contenido (reglas internas claras, mecanismos de detección, procedimientos transparentes etc) que parecen ser las opciones más equilibradas para tratar los mencionados problemas. 

Los críticos de la sección 230 de la Communications Decency Act que legisla la actividad de las redes sociales en EEUU afirman que protege sitios web que albergan contenido racista y de incitación al odio como 8chan, la web de mensajes donde publicó su manifesto el sospechoso del tiroteo de El Paso en agosto de 2019. ¿Qué opina al respecto?

Derrogar la sección 230 no haría que webs como 8chan desaparecieran, ni evitaría que su contenido negativo se difundiera. Más aún, desincentivaría la moderación del contenido de los usuarios por parte de plataformas como Facebook o Twitter. 

Quienes apoyan la sección 230 -o su versión modificada- afirman que sin ella la comunicación online acabaría ahogada y dejaría de existir. ¿Hasta qué punto afectaría al modelo de negocio de las redes sociales una mayor responsabilidad legal respecto a los contenidos?

Parece que la falta de restricciones a la responsabilidad legal de los intermediarios tendría un impacto importante en el actual modelo de negocio de las redes sociales. Internet antes y después de la sección 230 es buena prueba de ello. En cualquier caso, derrogar la sección 230 tendría sobre todo un tremendo efecto negativo en el derecho a la libertad de expresión de los usuarios y en los valores y principios que las plataformas quieren proteger con sus políticas de moderación de contenido. 

¿Limita la GDPR o cualquier otra ley el poder de la sección 230 en Europa o estamos en la práctica bajo su control?

La Unión Europea ha creado a lo largo de los últimos años su propio modelo legal para la legislación de plataformas, con leyes tan importantes como la GDPR, la Directiva de E-commerce, la Directiva de Servicios de Medios Audiovisuales o la Directiva de Derechos de Autor. También es importante destacar  que ya se está tratando la pronta aprobación de una ley para regular el contenido terrorista online. Estas leyes definen el comportamiento de las platafomas en el mercado europeo e incluso más allá. Si las obligaciones en Europa son mayores y más restrictivas que las de los Estados Unidos, las plataformas tienden a aplicar las primeras a escala global. 

La Unión Europea ha reafirmado su jurisdicción sobre plataformas con sede en los Estados Unidos con empresas subsidiarias en países de la Unión conforme a la legislación de la UE. Más aún, muchos miembros de la Unión han adoptado sus propias leyes relativas a plataformas como la alemana NetzDG. 

¿Hay una relación entre el discurso del odio y la violencia y el negocio de los datos?

Esto depende estrictamente del funcionamiento interno de cada plataforma. Hay casos en los que parece existir tan conexión, pero no es la única situación posible. 

¿Lo considera un problema ético o legal? ¿Se puede construir un marco legal sin considerar el ético?

La ley y la ética generalmente están conectadas. Dicho esto, cuando hablamos de la libertad de expresión, se ha de establecer una clara separación para restringir el uso de la ley (y su naturaleza limitadora) a los casos en los que es absolutamente necesario para proteger ciertos valores y derechos de las sociedades democráticas. Al resto de casos se deberían aplicar esquemas éticos autoregulatorios.