Ciudad de México, 23 de julio(SinEmbargo).- El mundo virtual está formado por fuerzas más allá de nuestro control que determinan, por ejemplo, las historias que alimentan nuestros timelines de Facebook, las personas que conocemos en Tinder o los resultados que aparecen en una búsqueda hecha en Google. El big data está en todas partes y es usado para tomar decisiones en distintos ámbitos como la salud, el empleo, el hogar, la educación y la política. Todo esto lleva a una sencilla cuestión: ¿Pueden discriminar los programas computacionales?
La cantidad de información digital que se genera actualmente ha dado lugar a la creación de técnicas para manejar dicha cantidad de información en periodos de tiempo más cortos y poder obtener resultados de manera inmediata. Sin embargo, por mucho que se quiera creer en la autonomía de estos sistemas, lo cierto es que el comportamiento del software está determinado por la influencia humana.
Por lo tanto los algoritmos discriminan simplemente por el hecho de aprender de la propia sociedad.
A esta conclusión llegó una investigación reciente, llevada a cabo en la Universidad de Harvard, encontró que al buscar registros de arrestos los resultados son significativamente más propensos a mostrar nombres asociados a la población afrodescendiente o de fraternidades pertenecientes a esta comunidad. De igual manera, la Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) dijo que los anunciantes pueden dirigirse a las personas que viven en barrios de bajos ingresos con préstamos de alto interés, dio a conocer The New York Times.
Por otra parte, una investigación similar a cargo de la Universidad de Washington encontró que Google Images (el motor de búsqueda especializada en fotografías y gráficos) al realizar una búsqueda para «CEO» (director ejecutivo), los resultados obtenidos sólo mostraron a un 11 por ciento de mujeres, a pesar de que el 27 por ciento de personas que desempeñan este puesto en los Estados Unidos son mujeres. Para agregar más gravedad al asunto, la primera imagen de una mujer que aparecía en la segunda página de búsquedas, resultó ser la muñeca Barbie en su versión «ejecutiva».
«El estado amoral de un algoritmo no niega sus efectos en la sociedad», escribieron Amit y Anupam Datta, de la Universidad Carnegie Mellon, y Michael Carl, del Instituto Internacional de Ciencias de la Computación, quienes son los autores del estudio de la publicidad de Google.
Los algoritmos, que son una serie de instrucciones escritas por los programadores, a menudo es descrito como una «caja negra»; es difícil saber qué sitios web producirán ciertos resultados. A menudo, los algoritmos y resultados en línea simplemente reflejan las actitudes y el comportamiento de las personas. De esta manera, los algoritmos de aprendizaje automático aprenden y evolucionan tomando como base lo que se hace en línea. La función de autocompletado en Google y Bing es un ejemplo de esto.
«Incluso si [los algoritmos] no están diseñados con la intención de discriminar a esos grupos, si se reproducen las preferencias sociales –incluso de una manera completamente racional– también reproducirán las formas de discriminación», dijo David Oppenheimer, profesor de leyes contra la discriminación en la Universidad de California, Berkeley.
Para profundizar en el tema, Amit, Anupam y Michael Carl hicieron un estudio en el que construyeron una herramienta para simular usuarios de Google que comenzaron sin historial de búsqueda y luego visitaron sitios de empleo. Después de esto, en un sitio de noticias de terceros, Google mostró un anuncio para un cargo ejecutivo mil 852 veces a hombres en comparación de solo 318 ocasiones en el caso de usuarios femeninos.
La razón de la diferencia no está clara y los factores son diversos, desde que el anunciante haya solicitado que su aviso se dirigiera a hombres, hasta que el algoritmo mismo haya determinado que los hombres eran más propensos a hacer clic en los anuncios.
Por su parte, Google se negó a decir cómo fue que el anuncio apareció, pero por medio de un comunicado dijo: «los anunciantes pueden optar por dirigirse a la audiencia que quieren alcanzar y tenemos políticas que guían el tipo de anuncios basados en intereses que son permitidos.»
No obstante, Anupam Datta fue claro respecto a esta tendencia. «Teniendo en cuenta la gran brecha salarial de género que tenemos entre hombres y mujeres, este tipo de focalización ayuda a perpetuarla», dijo.
Sería imposible para los seres humanos que supervisen cada decisión que un algoritmo hace. Pero las empresas pueden ejecutar periódicamente simulaciones para probar los resultados de sus algoritmos. Mientras tanto, Amit Datta sugirió que los algoritmos «sean diseñados desde cero para ser conscientes de los valores y no discriminar».
«La cuestión de determinar qué tipos de sesgos que no queremos tolerar es política», dijo Deirdre Mulligan, que estudia estos temas en la Escuela de Información de la Universidad de California, Berkeley. «Se requiere de mucho cuidado y pensar en las formas en que componemos estos sistemas técnicos.»
Sin embargo, Silicon Valley es de sobra conocida por promover nuevos productos sin que necesariamente tenga en cuenta o incluso considere las implicaciones sociales o éticas. «Hay una enorme prisa por innovar», agregó Mulligan. «El deseo de lanzar pronto y con frecuencia y, luego, hacer limpieza.»