Las urgencia de las tecnológicas para moderar el contenido de odio y desinformación en sus plataformas les ha llevado a elevar esfuerzos con inteligencia artificial, algoritmos para detectar y desactivar cuentas y tomar medidas tan drásticas como la suspensión de la cuenta de mandatarios como el expresidente estadounidense Donald Trump, luego de que incitó a la violencia a través de su cuenta.
Pero con todo y estos esfuerzos, las redes enfrentan aún un largo trecho de retos. Twitter en particular se pronunció ante esta necesidad de moderar los contenidos en la red en pro de una Internet más abierta y explicó qué es lo que está haciendo para lograrlo, ante la Audiencia sobre moderación de contenidos de Internet y libertad de expresión en las Américas, organizada por la Organización de Estados Americanos (OEA)
Hugo Rodríguez, Director de Políticas Públicas para Mercados Hispanohablantes de América Latina de Twitter dijo que la firma busca este tipo de diálogos para evitar posibles legislaciones que no tomen en cuenta todas las caras del problema.
“Es gracias a los insumos que salen en este tipo de diálogos que podemos evitar los posibles riesgos que legislaciones generadas en un vacío —tanto de conocimiento como de principios— podrían plantear para los derechos humanos. Instrumentos que de ejecutarse de manera aislada podrían romper la naturaleza global de Internet y tener efectos preocupantes sobre la libertad de expresión”, dijo.
Casi a la par de esta conferencia, en Estados Unidos, Jack Dorsey, CEO de Twitter, compareció ante el Congreso de Estados Unidos junto a Mark Zuckerberg, CEO de Facebook y Sundar Pichai, cabeza de Google, para responder acerca de la responsabilidad de las tecnológicas en la difusión de información violenta y falsa.
Ante la pregunta sobre la responsabilidad de las tecnológicas en torno a la toma violenta del Capitolio, en enero pasado, Dorsey fue el único de los tres en decir que “Sí”, aunque recomendó ver el contexto completo del problema.
Si bien Rodríguez aceptó que las tecnológicas pueden hacer más en este tema, explicó qué acciones corren actualmente en Twitter en torno a la moderación.
- Estándares de contenido:
“El enfoque de Twitter para la moderación de contenido está profundamente arraigado en el marco internacional de derechos humanos”, dijo.
Rodríguez dijo que en esta línea es que buscan que la plataforma sea siempre transparente y abierta y que siga ciertas reglas de contenido y comunidad; recordó que actualmente está abierto un período de comentarios en el que los usuarios podrán evaluar las medidas que ha tomado Twitter en casos como el de Trump y la suspensión de su cuenta.
- Transparencia
El directivo habló de la apertura de los datos de Twitter, así como de su reporte de transparencia y lo que esto facilita en cuanto a la rendición de cuentas, pero aclaró que la moderación perfecta no existe.
“Debemos ser conscientes de que la moderación perfecta del contenido es casi imposible”, dijo.
- Algoritmos
Rodríguez dijo que buscan que los usuarios tomen más control sobre los algoritmos que hacen funcionar las experiencias de la red.
Según el dato más reciente de Twitter, alrededor del 60% de las cuentas que han sido removidas de la plataforma por haberse detectado como falsas o automatizadas se reconocieron por medio de algoritmos e inteligencia artificial; sin embargo, hacia el futuro Rodríguez apuesta por un esquema de algoritmos más transparentes, con proyectos como @BlueSky.
“Twitter está financiando un pequeño equipo independiente conformado por ingenieros y diseñadores para desarrollar un código estándar abierto y descentralizado que fomente la conversación pública en Internet. Este proyecto lo hemos llamado @BlueSky”, dijo.
Este estándar busca juntar las visiones de empresas y organizaciones, investigadores y líderes de la sociedad civil, para pensar sobre los impactos de la red, en lo positivos y negativo.