RT

Robots «racistas» y «sexistas» podrían negarnos trabajos, préstamos y seguros, señalan expertos

26/08/2017 - 11:00 am

Según Maxine Mackintosh  los «imperfectos» conjuntos de datos basados ​​en la información histórica desvían las respuestas de la IA.

Ciudad de México, 26 de agosto (RT/SinEmbargo).- Los programas de Inteligencia Artificial (IA) diseñados para evaluar a solicitantes de préstamos bancarios o aspirantes universitarios pueden ser inherentemente racistas y sexistas, afirman expertos en tecnología.

Los investigadores creen que los algoritmos de aprendizaje automatizado, lejos de hacer el mundo más equitativo, ahora imitan la desigualdad de la sociedad discriminando a mujeres y a las minorías étnicas.

«Esto está empezando a surgir mucho en áreas como la selección de personas para empleos, seguros, préstamos, todas esas cosas», aseveró Noel Sharkey, codirector de la Fundación para la Robótica Responsable, en el programa Today de la BBC.

Sharkey citó el ejemplo de una investigación de la Universidad de Boston (EU) en la que un programa de IA fue entrenado para leer noticias en la aplicación Google News. Cuando durante un juego de asociación de palabras se le preguntó «si el hombre es programador de computadora, la mujer es X», el ‘software’ respondió: «ama de casa».

La Ia Imita La Desigualdad De La Sociedad Foto Efesamuel Truempy

«Tenemos un problema», insistió Sharkey. «Necesitamos que más mujeres entren en este campo para resolverlo».

En Estados Unidos, el 20 por ciento de los graduados en ingeniería son mujeres, pero representan solo el 11 por ciento de los ingenieros practicantes. En el Reino Unido, solo el 9 por ciento de la mano de obra en ingeniería son mujeres.

CONJUNTOS DE DATOS OBSOLETOS

La experta en datos de salud Maxine Mackintosh, apuntó que los «imperfectos» conjuntos de datos basados ​​en la información histórica desvían las respuestas de la IA. Esto fue confirmado, según la experta en el Hospital de Saint George en Londres, donde las pruebas de las solicitudes de los aspirantes a las escuelas de medicina revelaron que la IA del hospital discriminaba a las mujeres, así como a las minorías étnicas.

«Estos grandes datos son realmente un espejo social que refleja los prejuicios y las desigualdades que tenemos en la sociedad», comentó Mackintosh a la BBC. «Si queremos dar pasos hacia el cambio, entonces no podemos utilizar solo la información histórica».

Las controversias generadas por la IA respecto a la diversidad racial han llamado mucho la atención últimamente. El año pasado, Microsoft se vio obligado a desconectar su bot conversacional de aprendizaje automático en Twitter conocido como Tay, ya que este se convirtió en un simpatizante nazi en tan solo 24 horas.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE RT. Ver ORIGINAL aquí. Prohibida su reproducción.

author avatar
Redacción/SinEmbargo
Sed ullamcorper orci vitae dolor imperdiet, sit amet bibendum libero interdum. Nullam lobortis dolor at lorem aliquet mollis. Nullam fringilla dictum augue, ut efficitur tellus mattis condimentum. Nulla sed semper ex. Nulla interdum ligula eu ligula condimentum lacinia. Cras libero urna,
Redacción/SinEmbargo
Sed ullamcorper orci vitae dolor imperdiet, sit amet bibendum libero interdum. Nullam lobortis dolor at lorem aliquet mollis. Nullam fringilla dictum augue, ut efficitur tellus mattis condimentum. Nulla sed semper ex. Nulla interdum ligula eu ligula condimentum lacinia. Cras libero urna,
en Sinembargo al Aire

Opinión

más leídas

más leídas