Tendenciasmayo 19, 2021hace 2 años

¡Cuidado! Así es el programa de Facebook para controlar y reducir contenidos inapropiados

Con la ayuda de tecnología artificial, el programa permite que se identifique en mensajes, imágenes, y comentarios, contenidos de tipo violento y doble sentido.

Facebook.Foto: Freepik

Facebook redujo en los últimos meses la difusión de contenidos violentos, odiosos o sexuales gracias al uso de un programa basado en la inteligencia artificial capaz de establecer conexiones entre mensajes, imágenes y comentarios.

Hasta ahora, el sistema de detección de la red social solo permitía analizar un contenido a la vez, y no se podían por ejemplo cruzar las señales provenientes de una foto y de un mensaje.

Vea también: Alemania prohíbe a Facebook que utilice los datos de usuarios de WhatsApp

Con el nuevo algoritmo, que comenzó a ser utilizado durante 2020, Facebook puede ahora tener "una visión de conjunto", explicó el miércoles Mike Schroepfer, responsable técnico de la plataforma, en una conferencia telefónica.

Sobre todo puede descifrar mejor el sentido de "memes", imágenes o animaciones en general con fin humorístico, que a veces contienen un mensaje de odio o discriminatorio comprensible sólo cuando se asocia el texto con la imagen.

"Hay que comprender todo el contexto" para analizar y eventualmente descartar un mensaje, dijo Schroepfer, y explicó que el programa puede cruzar contenidos en varios idiomas.

Le puede interesar: Luego de 70 años de búsqueda, una mujer encontró por Facebook a su hermano perdido

La herramienta informática evita asimismo el retiro de algunos mensajes que habrían desencadenado una alerta anteriormente a raíz de una palabra o una imagen interpretada de manera demasiado literal.

Facebook atribuye en parte a este sistema la caída en la difusión de contenidos dudosos en su sitio. Los indicadores trimestrales publicados este miércoles miden el número de veces que estos contenidos son vistos, y no su cantidad.

En el primer trimestre, entre 0,05 % y 0,06 % de los contenidos vistos por usuarios de Facebook fueron considerados odiosos contra un margen de 0,07 % a 0,08 % en el cuarto trimestre de 2020 y de 0,10 % a 0,11 % en el tercer trimestre del mismo año.

La red social también intervino en 34,3 millones de contenidos violentos o chocantes, contra 15,9 millones en el cuarto trimestre de 2020.

Más información: Facebook mantendrá el veto impuesto contra el expresidente Donald Trump

Facebook ha sido acusado regularmente de no hacer lo suficiente para moderar los contenidos que circulan en su plataforma.

Desde mayo de 2018, pública indicadores trimestrales que ilustran su política de control de contenidos parásitos, odiosos, violentos, de carácter sexual, "propaganda terrorista" y proveniente de cuentas falsas. 

NoticiasRCN.com - AFP

Google News Haz de Noticias tú fuente de información aquí

El uso de este sitio web implica la aceptación de los Términos y condiciones. Utilizamos cookies propias y de terceros para mejorar la experiencia del usuario a través de su navegación. Si continúas navegando aceptas su uso. Políticas de cookies

Con su manifestación expresa de la aceptación del mensaje de información y autorización que se despliega al inicio de su navegación en el portal, así como con su navegación a través de la misma, RCN asume que usted acepta de previa, expresa e informada el uso de cookies. Sin embargo, la solicitud de aceptación de la presente política se desplegará en la parte inferior o superior del portal y en cada inicio de sesión o navegación con el objeto de que usted tenga un conocimiento claro e informado del presente contenido.