Movilidad

¿Son racistas los algoritmos de los coches autónomos?

Un estudio del King’s College de Londres revela que los algoritmos de los coches autónomos para la detección de peatones presentan sesgos por edad y color de piel. El problema estaría en las imágenes con las que son entrenados…

Chrysler Pacifica Waymo tres cuartos frontal vehículo autónomo
(Imagen: Dilu)

Los vehículos autónomos todavía tienen fallos por resolver antes de que inunden libremente las ciudades… Sobre todo, en lo que respecta a la seguridad de los peatones.

Si un estudio ya reveló sus dificultades para interpretar interacciones sociales, ahora investigadores del King’s College de Londres sostienen que a veces, cuando toman decisiones, discriminan a determinadas personas.

Este equipo de especialistas denuncia que los sistemas de detección de los vehículos autónomos presentan sesgos de edad y raza. Liderados por la doctora Jie Zhang, del Departamento de Informática, probaron ocho sistemas diferentes de detección de peatones de estos coches.

Tras ponerlos a prueba con más de 8.000 imágenes, descubrieron que eran un 20% más precisos para detectar adultos que para localizar niños. Asimismo, también eran un 7,5% más eficaces detectando peatones de piel clara frente a viandantes de piel oscura. Los investigadores asignaron a dichas imágenes 16.070 etiquetas de género, 20.115 de edad y 3.513 de tono de piel.

La solución: Diversidad a la hora de entrenarlos

El grupo de informáticos atribuye estos resultados a los contenidos de las imágenes empleadas para el entrenamiento de estas Inteligencias Artificiales. En esa fase, los desarrolladores no serían lo suficientemente justos con determinados colectivos, desequilibrando el juicio de la IA en favor de las personas blancas de talla adulta.

En el caso de sujetos de piel oscura, el sesgo se agudiza en situaciones de bajos brillo y contraste. Por lo tanto, por la noche se dispara el riesgo de que el coche autónomo sufra una confusión con ellos.

No obstante, cabe advertir de que este estudio aún no se ha sometido a la habitual revisión por pares de las revistas científicas. Esto significa que todavía tiene que superar su valoración por dos expertos anónimos, antes de dar luz verde a incluirlo en un próximo número.

Una de las limitaciones de la investigación ha sido la imposibilidad de acceder a sistemas propiedad de empresas de vehículos con conducción autónoma. Ello implicaría la cesión de información confidencial que tienen derecho a proteger.

A pesar de todo, Zhang insiste en que dichas compañías usan modelos de código abierto, por lo que están seguros de que sus problemas tienen que ser muy parecidos.

Otros algoritmos con los que ha ocurrido

Tal y como concluye Zhang, una IA sólo es justa cuando “trata igual a los grupos privilegiados y a los menos privilegiados, cosa que no está ocurriendo en lo que respecta a los vehículos autónomos”. En este sentido, recuerda otros casos de Inteligencias Artificiales con este problema.

Hubo un “software de selección de personal que favorecía a los solicitantes varones”; también uno “de reconocimiento facial menos preciso con mujeres negras que con hombres blancos”. Pero ninguno suponía un peligro para la integridad física como este hallazgo en los coches autónomos.

Además, Zhang aprovecha precisamente para pedir a los fabricantes más transparencia. También pide a los gobiernos que se sienten con ellos a trabajar en una legislación que garantice la seguridad de estos sistemas para todo el mundo.

DEJA UNA RESPUESTA

¡Por favor, escribe tu comentario!
Por favor, introduce tu nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.