Los algoritmos de automatización y de inteligencia artificial deben ser transparentes, dicen especialistas

Los algoritmos de aprendizaje automático deben ser transparentes aunque eso implique menos eficiencia, sobre todo cuando son utilizados por el Estado, destacaron profesionales que participaron de un debate organizado por Nic Argentina.
“Para confiar es necesaria la transparencia cuando hablamos de IA”, afirmó Valentín Muro, especialista en tecnología y filosofía, uno de los expositores del encuentro que se realizó esta semana en Buenos Aires.
Los algoritmos “que emplea el Estado deberían estar basados en datos abiertos”, añadió la otra panelista, Micaela Mantegna, abogada, investigadora de derecho de los videojuegos en el Centro de Tecnología y Sociedad de la Universidad de San Andrés.
Otro eje del intercambio fue el sesgo en el aprendizaje automático (machine learning), que Muro consideró “un buen negocio, por ejemplo, para los bancos, porque les permite identificar a quién le da crédito, quien es pobre y paga cuotas por mas tiempo, algo que también ocurre para fijar criterios de fianza en Estados Unidos”, que muchas veces perjudican a las afroamericanos y latinos.
En el mismo sentido, Mantegna habló del uso de algoritmos por parte de algunos tribunales norteamericanos que lo utilizan para “saber” si una persona que cometió un delito será reincidente.