fbpx

Inteligencia artificial de Facebook solo elimina un 5% del contenido violento

Facebook está luchando constantemente porque necesita evitar las acusaciones hechas por su ex funcionaria Frances Haugen, ella afirmó que la compañía no se preocupa en lo absoluto por la seguridad de sus usuarios.

Un artículo publicado por un medio internacional, explicó que Facebook es consciente de que su inteligencia artificial (IA) solo tiene la capacidad de eliminar una pequeña parte del contenido de odio en la plataforma.

El artículo señala que esto sucede porque los algoritmos no pueden detectar una gran variedad de contenidos, como accidentes de tránsito, discursos racistas y videos grabados en primera persona.

Facebook dijo que logro reducir con éxito un 50% del discurso de odio en la red social en los últimos 3 años.

Según Guy Rosen, vicepresidente de integridad de Facebook, esto se debe en gran parte a los sistemas de IA “mejorados y ampliados”.

En cambio, la publicación hecha por este medio internacional, señala que algunos empleados de la empresa dicen que la utilización de tecnologías apenas elimina entre el 3 y el 5 por ciento del contenido violento o que incita al odio.

El medio tuvo acceso a unos documentos, donde Facebook omitió que el equipo humano también se encargaba de detectar las noticias falsas o los discursos de odio.  De esta manera, llevaron a cabo medidas que les disminuyeron este tipo de contenido, pero que atribuyen a la inteligencia artificial.

Lo que significa que el contenido que no cumpla las normas, pero que tampoco sea detectado por la IA, se muestra con menos frecuencia, pero no se elimina.

Más contenido de la ciudad de CALI


Te podría interesar esta publicación, dale click o tap y mantente bien enterado: