Facebook usará inteligencia artificial para mejorar la moderación de contenido

La moderación de contenido en Facebook es un tema que ha estado en el centro de la polémica durante los últimos años. No solo su sistema deja mucho que desear al no eliminar el discurso de odio, sino que el mismo Mark Zuckerberg se apoya en la libertad de expresión para permitirlo. Ahora la empresa busca enmendar las cosas integrando inteligencia artificial en el proceso.

Un reporte de The Verge indica que Facebook implementará aprendizaje automático — machine learning — a su proceso de moderación. La idea general es darle prioridad a las publicaciones dañinas, por lo que los algoritmos analizarán y ordenarán la fila de moderación basándose en criterios como viralidad, gravedad y violación a las reglas.

La idea no es sustituir a los moderadores humanos, sino agilizar el proceso y priorizar las entradas para ser revisadas por ellos antes de que causen más daño. El sistema de moderación de Facebook marcará entradas que violen las reglas de la compañía. Luego de un análisis decidirá si eliminan la entrada y bloquean la cuenta o si es enviada a la fila de moderación.

Anteriormente este modelo organizaba la fila por orden cronológico para ser revisado por humanos. Esto causaba retrasos para eliminar el contenido que de verdad importaba. Ahora Facebook dará prioridad a las entradas dañinas reportadas por usuarios o seleccionadas por su inteligencia artificial.

La moderación por inteligencia artificial no es precisa y Facebook lo sabe

Dejar en manos de la IA la moderación de una plataforma tan grande como Facebook es poco viable. La tecnológica se valdrá de aprendizaje automático, por lo que en un futuro — en teoría — sus algoritmos serán más efectivos. Según Chris Palow, ingeniero de software de la empresa, solo se permite que los sistemas automatizados operen sin supervisión humana cuando son mejores que las personas.

Un ejemplo de los estragos de la inteligencia artificial en la moderación es YouTube. En agosto de este año la plataforma eliminó 11,4 millones de videos a causa de un algoritmo de detección automática. Debido a la pandemia de la COVID-19, la empresa se apoyó en sus sistemas automatizados dejando de lado a sus empleados.

Un mes después YouTube anunció que volvería a los moderadores humanos ya que la inteligencia artificial no es buena para tomar decisiones. Los algoritmos no hicieron bien su trabajo y YouTube tuvo que restaurar más de 160.000 videos eliminados por error.

Una de las ventajas que menciona YouTube es que la IA es más rápida en la detección de contenido potencialmente dañino. Al combinarse con la moderación humana podría frenarse la proliferación de noticias falsas, contenido de odio y otros males que aquejan a las redes sociales.

Facebook buscaría potenciar esta combinación, aunque las políticas internas y sus mismos directivos dejan mucho que desear cuando de eliminar contenido se trata.

El artículo Facebook usará inteligencia artificial para mejorar la moderación de contenido se publicó en Hipertextual.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *