Facebook revela cómo usa inteligencia artificial para eliminar fotos íntimas

Facebook dice haber mejorado la forma en que su plataforma detecta fotos y videos que contienen una imagen íntima, es decir, de una persona desnuda –o semidesnuda.

La red social dijo el viernes en un comunicado que este contenido, en su mayoría subido a Facebook e Instagram sin permiso, ahora se puede detectar más activamente usando la inteligencia artificial (IA) y el aprendizaje por máquina. Cuando se encuentre la imagen o el video, una persona “especialmente entrenada” Facebook lo revisará y si viola los estándares de Facebook, la persona lo eliminará.

La compañía dijo que en la mayoría de los casos bloquea una cuenta que viola esta norma, pero el dueño de la cuenta puede apelar la decisión si piensa que la decisión se tomó en error.

and in most cases we will also disable an account for sharing intimate content without permission. We offer an appeals process if someone believes we’ve made a mistake.

Encontrar fotos íntimas usando inteligencia artificial es una mejora significativa sobre el un programa piloto que lanzó Facebook en Australia hace más de un año. Mediante ese proceso –que se hace en colaboración con organizaciones que ayudan a víctimas de acoso sexual– la misma víctima primero tenía que subir la foto íntima en cuestión a Facebook para que los algoritmos aprendiera a reconocer la imagen; luego buscarla y eliminarla de la plataforma. Facebook dijo que este programa piloto aún seguirá activo y que luego lo ampliará, para que las personas puedan usarla en casos de una emergencia.

Adicionalmente, Facebook lanzó un foro de apoyo para víctimas llamado Nunca sin tu consentimiento que estará dentro de su centro de seguridad. Esta información sí está disponible en español, pero necesitas tener tu cuenta de Facebook configurada al español.

Social Media Auto Publish Powered By : XYZScripts.com
error: www.sucesosdeveracruz.com.mx