Un estudio del Instituto Nacional de Estándares y Tecnología (NIDT, según sus siglas en inglés) de Estados Unidos confirmaron que la mayoría de los algoritmos de reconocimiento facial muestran sesgos raciales, ya que tienen problemas a la hora de identificar a personas no caucásicas.
Los algoritmos identificaron erróneamente de 10 a 100 veces más las caras de afroamericanos y asiáticos que las de caucásicos, según el informe.
Además, el estudio subrayó que en una base de datos de fotografías utilizada por las autoridades estadounidenses, las tasas de error más altas se produjeron a la hora de identificar a nativos americanos.
"Descubrimos que los falsos positivos son más altos en las mujeres que en los hombres y esto es consistente en todos los algoritmos y conjuntos de datos", así como en los ancianos y niños, detalla el estudio, que subraya que en las imágenes de fichas policiales "los falsos positivos más altos se encuentran en los nativos americanos, con tasas elevadas en la población afroamericana y asiática".
El investigador principal del estudio, Patrick Grother, recalcó que un falso negativo puede ser un gran inconveniente, ya que los usuarios, por ejemplo, no podrían acceder a su teléfono.
Según el estudio, las mujeres afroamericanas son más propensas que otros grupos a ser identificadas erróneamente en una base de datos con fotografías policiales del FBI.
Los investigadores afirman que los falsos positivos son muy importantes porque "las consecuencias podrían incluir detenciones y acusaciones por error".
cjr