Skip to main content
ico

He aquí una manera para detectar si los sistemas de reconocimiento facial usaron tus fotos

The New York Times Company11-02-2021

Tiempo de lectura: 8 minutos

Por Cade Metz and Kashmir Hill

¿El reconocimiento facial funciona usando las fotos del celular?

Cuando las empresas tecnológicas crearon los sistemas de reconocimiento facial, que rápidamente están dando una nueva forma a la vigilancia gubernamental y socavando la privacidad personal, tal vez recibieron ayuda de una fuente inesperada: tu rostro.

Las empresas, las universidades y los laboratorios gubernamentales han usado millones de imágenes recolectadas a partir de un revoltijo de fuentes en línea para desarrollar la tecnología. Ahora, los investigadores han creado una herramienta en línea, Exposing.AI, que le permite a la gente buscar sus viejas fotos en muchas de estas colecciones de imágenes.

La herramienta, la cual empareja imágenes de Flickr (un servicio en línea de fotos compartidas), ofrece una ventana hacia las enormes cantidades de datos necesarios para crear una amplia variedad de tecnologías de inteligencia artificial, desde reconocimiento facial hasta “chatbots” en línea.

“La gente debe saber que algunos de sus momentos más íntimos han sido usados como armas”, comentó una de sus creadores, Liz O’Sullivan, directora de tecnología en Surveillance Technology Oversight Project, una agrupación dedicada a defender los derechos civiles y la privacidad.

O’Sullivan ayudó a crear Exposing.AI junto con Adam Harvey, un investigador y artista radicado en Berlín.

Los sistemas que usan inteligencia artificial no se vuelven inteligentes por arte de magia. Aprenden al identificar patrones en los datos que generan los humanos: fotos, grabaciones de voz, libros, artículos de Wikipedia y todo tipo de otros materiales. La tecnología está mejorando todo el tiempo, pero puede aprender sesgos humanos en contra de las mujeres y las minorías.

La gente tal vez no sepa que está contribuyendo a la educación de la inteligencia artificial. Para algunos, esto es una curiosidad. A otros, les genera un miedo enorme. Además, puede ser ilegal. Una ley de 2008 en Illinois, la Ley de Privacidad de la Información Biométrica, impone multas económicas si los escaneos de los rostros de los residentes se usan sin su consentimiento.

En 2006, Brett Gaylor, un documentalista de Victoria, Columbia Británica, subió las fotos de su luna de miel a Flickr, un popular servicio en aquel entonces. Casi quince años después, gracias a una primera versión de Exposing.AI que proveyó Harvey, Gaylor descubrió que cientos de esas fotos habían llegado hasta varios conjuntos de datos que tal vez se usaron para entrenar sistemas de reconocimiento facial en todo el mundo.

Flickr, una plataforma que han comprado y vendido muchas empresas a lo largo de los años y ahora es propiedad del servicio de fotos compartidas SmugMug, permitía que sus usuarios compartieran sus fotos conforme una licencia conocida como Creative Commons. Esta licencia, común en los sitios de internet, significaba que otras personas podían usar las fotos con ciertas restricciones, que tal vez hayan sido ignoradas. En 2014, Yahoo, dueño de Flickr en ese momento, usó muchas de estas fotos en un conjunto de datos que tenía como objetivo ayudar al trabajo sobre la visión artificial.

Gaylor, de 43 años, se preguntó cómo sus fotos pudieron haber rebotado de un lugar a otro. Posteriormente, le dijeron que las fotos tal vez contribuyeron a los sistemas de vigilancia en Estados Unidos y otros países, y que uno de esos sistemas fue usado para rastrear a la población uigur en China.

“Mi curiosidad se convirtió en horror”, admitió.

De cierta manera, lo que está detrás de las fotos de una luna de miel que sirvieron para la creación de sistemas de vigilancia en China es una historia de consecuencias involuntarias… o inesperadas.

Hace años, los investigadores de la inteligencia artificial de las principales universidades y empresas tecnológicas comenzaron a reunir fotos digitales de una gran variedad de fuentes, entre ellas servicios de fotos compartidas, redes sociales, sitios de citas como OkCupid e incluso cámaras instaladas en los patios universitarios. Luego, compartieron esas fotos con otras organizaciones.

Simplemente era la norma para los investigadores. Solo necesitaban datos para alimentar sus sistemas de inteligencia artificial, así que compartieron lo que tenían. Esto solía ser legal.

Un ejemplo fue MegaFace, un conjunto de datos que crearon profesores de la Universidad de Washington en 2015, sin que los propietarios de las fotos que incorporaron a su enorme reserva lo supieran o dieran su consentimiento. Los profesores lo publicaron en internet para que otras personas pudieran descargarlo.

Según una solicitud de registros públicos que hizo The New York Times, empresas y agencias gubernamentales de todo el mundo han descargado MegaFace más de 6000 veces. Entre estas entidades se encuentran un contratista de defensa de Estados Unidos, Northrop Grumman; In-Q-Tel, el brazo de inversiones de la CIA; ByteDance, la empresa matriz de la aplicación de redes sociales TikTok; y la empresa de vigilancia china Megvii.

Los investigadores crearon MegaFace para usarlo en una competencia académica que buscaba estimular el desarrollo de los sistemas de reconocimiento facial. No era para uso comercial. Sin embargo, tan solo un pequeño porcentaje de quienes descargaron MegaFace participó de manera pública en la competencia.

“No estamos en la posición de discutir proyectos de terceros”, comentó Victor Balta, un vocero de la Universidad de Washington. “MegaFace ha sido desmantelado y los datos de MegaFace ya no son distribuidos”.

Hay quienes descargaron los datos y han utilizado sistemas de reconocimiento facial. El año pasado, el Departamento de Comercio puso a Megvii en una lista negra después de que el gobierno chino usó su tecnología para monitorear a la población uigur del país.

La Universidad de Washington bajó MegaFace en mayo, y otras organizaciones han eliminado otros conjuntos de datos. No obstante, las copias de estos archivos podrían estar en cualquier parte, y es probable que estén alimentando nuevas investigaciones.

O’Sullivan y Harvey pasaron años intentando crear una herramienta que pudiera exponer el uso de todos esos datos. Era más difícil de lo que esperaban.

Querían aceptar la foto de alguien y, por medio del reconocimiento facial, decirle en ese instante a la persona las veces que su rostro había estado en alguno de esos conjuntos de datos. Sin embargo, les preocupaba que esa herramienta pudiera caer en malas manos: acosadores, empresas y Estados-nación.

“El daño potencial parecía demasiado grande”, comentó O’Sullivan, quien también es vicepresidenta de inteligencia artificial responsable en Arthur, una empresa de Nueva York que ayuda a los negocios a manejar el comportamiento de las tecnologías de inteligencia artificial.

A final de cuentas, se vieron forzados a limitar la manera en que la gente iba a buscar en la herramienta y los resultados que produciría. En la actualidad, la herramienta no es tan eficaz como les gustaría. Sin embargo, a los investigadores les preocupaba no poder exponer la envergadura del problema sin empeorarlo.

Exposing.AI no usa reconocimiento facial. Ubica fotos solo si ya tienes manera de señalarlas en línea con, digamos, una dirección de internet. La gente tan solo puede buscar fotos que hayan sido publicadas en Flickr y necesitan información de Flickr; un nombre de usuario, una etiqueta o una dirección de internet que pueda identificar esas imágenes (esto brinda las protecciones apropiadas de seguridad y privacidad, según los investigadores).

Aunque lo anterior limita la utilidad de la herramienta, esta sigue siendo una revelación. Las imágenes de Flickr conforman una parte significativa de los conjuntos de datos para el reconocimiento facial que han pasado de aquí para allá en el internet, incluido MegaFace.
        

  • Monitores enseñan un video que muestra el uso del software de reconocimiento facial en las oficinas centrales de la empresa de inteligencia artificial Megvii, en Pekín, el 10 de mayo de 2018. (Gilles Sabrié/The New York Times)
  • Una foto que proporcionó Brett Gaylor mismo, una de las de su luna de miel que subió a Flickr y pudieron ser usadas para entrenar sistemas de reconocimiento facial en laboratorios de todo el mundo. (Vía Brett Gaylor vía The New York Times)

 

c.2020 Harvard Business School Publishing Corp. Distribuido por The New York Times Licensing Group

 

¿Te pareció útil este contenido?

Continúe leyendo

12-01-2021The New York Times Company

Un siglo después de los anuncios falsos sobre la gripe, las empresas promueven curas cuestionables para la COVID-19

Durante la pandemia han aparecido supuestas curas para el coronavirus, sin embargo no son verificadas y aun están en discusión. Lee más aquí

20-01-2021The New York Times Company

Los fabricantes alemanes de autos tienen la recarga completa y están listos para competir contra Tesla

El mercado de vehículos eléctricos de lujo está cada vez más competido: el Grupo Volkswagen, propietario de Porsche y Audi y Daimler AG, propietaria de Mercedes-Benz, están decididas a invertir grandes recursos y todo su conocimiento para evitar que Tesla destruya la industria de exportación más importante del país. Conozca detalles aquí.

20-01-2021Harvard Business School Publishing Corp.

Colaborando con alguien a quien no conoce realmente

El trabajo colaborativo es cada vez más común, pero puede ser un arma de doble filo. Por un lado, puede impulsar la innovación para lograr mejores resultados y, por otro lado, puede reducir la velocidad en la toma de decisiones. Conozca aquí los pros y contras y algunas recomendaciones para trabajar mejor con sus colegas desconocidos.

Suscríbase a nuestro boletín
Capital Inteligente

  • Para conocer
    el acontecer económico.
  • Para tomar mejores
    decisiones de inversión.
  • Para compartir
    información de valor.

Lo más reciente

Complementary Content
${loading}