Noticias

Herramienta de privacidad 'Cloaks' Faces para engañar al software de reconocimiento facial

Herramienta de privacidad 'Cloaks' Faces para engañar al software de reconocimiento facial

Desde que estalló el escándalo de Cambridge Analytica en 2018, el uso de datos individuales privados por parte de grandes corporaciones ha sido un problema global de máxima preocupación.

El año pasado, una empresa incluso desarrolló un sitio web que permite a los usuarios evitar reservar con aerolíneas que no tienen claro cómo utilizan los datos biométricos o de reconocimiento facial de los pasajeros.

Ahora, como parte de un intento cada vez más desesperado por conservar nuestra privacidad en esta era digital, los investigadores del Sand Lab de la Universidad de Chicago han desarrollado una herramienta que puede "disimular" nuestras imágenes al alterarlas ligeramente, casi imperceptiblemente, para que puedan ' t ser detectado por software de reconocimiento facial.

RELACIONADO: VIGILANCIA URBANA: CÓMO EL RECONOCIMIENTO FACIAL SEGUIMOS COVID-19

Una venganza contra las empresas de reconocimiento facial

La herramienta, denominada 'Fawkes', recibió su nombre de las máscaras de Guy Fawkes que usaban grupos como Anonymous e inspirada en la novela gráfica de Alan Moore.V de Venganza.Fawkes usa inteligencia artificial (IA) para cambiar muy levemente las pequeñas características de tu rostro.

Para un observador casual, no habrá diferencia. Para el software de reconocimiento facial, puede eliminar por completo su función principal, que es, por supuesto, reconocer a un individuo y relacionarlo con sus datos.

La herramienta Fawkes podría resultar particularmente útil para los usuarios de las redes sociales. A principios de este año,Los New York Timesinformó que la empresa de reconocimiento facial Clearview AI recopiló hasta tres mil millones de imágenes de sitios como Facebook y YouTube sin el consentimiento expreso de los usuarios para probar su software.

Fawkes, en efecto, podría brindarles a los usuarios de las redes sociales una capa de protección contra tales prácticas invasivas, dicen los investigadores. La herramienta 'oculta' el rostro del usuario agregando una capa invisible, lo que hace que el software de reconocimiento facial crea que el rostro cubierto es una persona completamente diferente en comparación con una imagen original.

"Lo que estamos haciendo es usar la foto oculta, en esencia, como un caballo de Troya, para corromper modelos no autorizados para aprenderincorrecto algo sobre lo que te hace lucir como tú y no como otra persona ”, explicó Ben Zhao, profesor de informática en la Universidad de Chicago que trabajó en el software Fawkes.El borde en una entrevista.

"Una vez que ocurre la corrupción, estás continuamente protegido sin importar a dónde vayas o te vean", continuó.

Una tasa de éxito del 100%

Según el equipo de la Universidad de Chicago, Fawkes ha mostrado una tasa de éxito del 100 por ciento frente a algunos de los servicios de reconocimiento facial más avanzados, incluidos Azure Face de Microsoft, Rekognition de Amazon y Face ++ de la empresa de tecnología china Megvii.

El equipo detrás de Fawkes publicó un artículo sobre su algoritmo de Fawkes a principios de este año. Sin embargo, a fines del mes pasado lanzaron Fawkes como software gratuito para Windows y Mac. Informan que ya se ha descargado más de 100.000 veces.

A pesar de todo lo que sucede en el mundo, parece que la privacidad en línea sigue siendo una preocupación importante para las personas en todo el mundo.


Ver el vídeo: La tecnológia de reconocimiento facial (Noviembre 2021).