La mayoría de los sistemas de reconocimiento facial son racistas

Recientemente, el Instituto Nacional de Estándares y Tecnología de Estados Unidos (NIST) probó casi 200 algoritmos de reconocimiento de rostros en dos de las tareas más comunes para el reconocimiento facial. La primera, conocida como coincidencia “uno a uno”, consiste en hacer coincidir una foto de alguien con otra foto de la misma persona en una base de datos. Esto se usa para desbloquear teléfonos inteligentes o verificar pasaportes, por ejemplo. La segunda, conocida como búsqueda “uno a muchos”, implica determinar si una foto de alguien tiene alguna coincidencia en una base de datos. Los departamentos de policía suelen utilizarlo para identificar sospechosos en una investigación.

La agencia estudió cuatro conjuntos de datos faciales utilizados actualmente en aplicaciones del gobierno de los Estados Unidos: fotos de personas que viven en dicha nación; fotos de solicitud de personas que solicitan beneficios de inmigración; fotos de solicitud de personas que solicitan visas; y fotos de personas mientras cruzaban la frontera hacia el país del norte. En total, los conjuntos de datos incluyeron 18,27 millones de imágenes de 8,49 millones de personas.

Algunos resultados de NIST, compartidos por Technology Review, fueron:

  1. Para la comparación uno a uno, la mayoría de los sistemas tienen una tasa más alta de coincidencias de falsos positivos para rostros asiáticos y afroamericanos que para rostros caucásicos, a veces por un factor de 10 o incluso de 100. En otras palabras, tienen más probabilidades de encontrar una asociación cuando no existe una.
  2. Esto cambia para los algoritmos de reconocimiento facial desarrollados en países asiáticos, que producen muy poca diferencia en falsos positivos entre caras asiáticas y caucásicas.
  3. Los algoritmos desarrollados en los Estados Unidos son consistentemente “malos” para igualar rostros asiáticos, afroamericanos y de nativos americanos. De hecho, los nativos americanos sufrieron las tasas más altas de falsos positivos.
  4. Los sistemas de correspondencia de uno a muchos tienen las peores tasas de falsos positivos para las mujeres afroamericanas, lo que pone a esta población en el mayor riesgo de ser acusada falsamente de un delito.

Relevancia

El uso de sistemas de reconocimiento facial está creciendo rápidamente en la aplicación de la ley, el control de fronteras y otras aplicaciones en toda la sociedad. Si bien varios estudios académicos han demostrado previamente que los sistemas comerciales populares están sesgados en cuanto a raza y género, el estudio de NIST es la evaluación más completa hasta la fecha y confirma estos resultados anteriores.

Los resultados ponen en duda si estos sistemas deberían continuar siendo tan ampliamente utilizados. Ahora corresponde a los encargados de formular políticas encontrar la mejor manera de regular estas tecnologías.

Por su parte, desde el NIST instan a los desarrolladores de reconocimiento facial a realizar más investigaciones sobre cómo podrían mitigarse estos sesgos.