La inteligencia artificial nos vende productos machistas y racistas sin que nadie se dé cuenta
El núcleo central de la inteligencia artificial (IA) se compone de un proceso de dos fases: primero se le asigna un objetivo y después ella misma diseña una forma de conseguirlo. Por lo tanto, su forma de alcanzar dicha meta no siempre resulta demasiado transparente. Por eso, si usted está inculcando un cierto sesgo a una máquina de forma inconsciente, es posible que desconozca que, en efecto, el algoritmo también tiene ese sesgo. El resultado es que ese algoritmo podría ser perjudicial para las mujeres, pero costaría mucho averiguar exactamente por qué.
Esto ya ha pasado con la tecnología tradicional: hemos visto mujeres muriendo en accidentes automovilísticos porque los muñecos de prueba de choque tenían la forma de un hombre en lugar de la de una mujer. Con la IA podría haber situaciones similares de vida o muerte, en pruebas de drogas, vehículos autónomos y cosas por el estilo.
Igual que algunas mujeres murieron en accidentes de coche porque las pruebas de seguridad se habían hecho con muñecos con forma de hombre, los productos habilitados por la IA incluyen sesgos, probablemente inconscientes, que se están colando en el mercado
Lee ésta noticia desde technologyreview.es