De acuerdo con un estudio publicado por la Universidad Johns Hopkins, el Instituto de Tecnología de Georgia y la Universidad Washington, los robots con Inteligencia Artificial defectuosa podrían volverse sexistas y racistas.

Esto se debería que muchos modelos de Inteligencia Artificial se construyeron con información obtenida de forma gratuita en internet.

Debido a estos recursos, los desarrolladores de Inteligencia Artificial estarían creando sus algoritmos utilizando contenido “inexacto y abiertamente sesgado”.

Advierten el costo de usar robots

Defectos en la Inteligencia Artificial podrían perpetuar “estereotipos malignos”

Según el estudio titulado “Los robots promulgan estereotipos malignos”, la Inteligencia Artificial defectuosa genera estereotipos sexistas y racistas.

Esto debido a que la información con la que los modelos de Inteligencia Artificial se construyen, utiliza información inexacta y sesgada.

Durante el estudio se pusieron a prueba distintos “métodos de manipulación” en robots y se les presentaron objetos que tienen imágenes de rostros humanos de distintos géneros y razas.

Luego se le pidió a los robots que seleccionen algún rostro el cual creyeran se relaciona con distintas tareas como:

  • Doctor
  • Ama de casa
  • Conserjes
  • Criminal
  • Persona, entre otras.
Robots

Los resultados de estas distintas pruebas demostraron que los robots actuaban de forma racista y sexistas, identificando a las mujeres como “amas de casa”, a los hombres negros como “criminales” y a los latinos como “conserjes”.

Estos resultados se dieron en todas las ocasiones, con un 10 por ciento más de reincidencias en los hombres blancos.

De acuerdo con los investigadores, este comportamiento en los robots podría representar un riesgo, puesto que se sospecha que los modelos con estos defectos se usarían como base para diseñar robots de uso doméstico y laboral.

Y es que los robots utilizan la fisonomía de los humanos a los que asisten para evaluar el carácter y las habilidades de una persona, pero en función de su apariencia.

Por lo que el equipo de investigación cree que se deben hacer “cambios sistémicos” en la investigación y las prácticas comerciales de los robots, los cuales evitarían que los futuros algoritmos de Inteligencia Artificial reproduzcan estos estereotipos.