Ciudad de México, 18 de Mayo (SinEmbargo).- Las ventajas y riesgos de la inteligencia artificial son un tema ampliamente discutido desde hace décadas, cuando esta posibilidad sólo podía barajarse en obras de ficción. Sin embargo, con el actual desarrollo tecnológico, el hecho de que la humanidad convica con mçáquinas inteligentes es cada vez más palpable, aunque a muchos no les parezca una buena idea.
Es así que los detractores de las iniciativas que promueven autómatas pensantes ahora también pueden sumar a su lista negra los robots capaces de manifestar sentimientos. Sin embargo esta innovación, aparentemente imposible, es lo que se proponen científicos de Nueva Zelanda, quienes están enseñando a una inteligencia artificial (IA) a aprender a enojarse. Suena loco (sin agregar que además parece poco prudente), pero la idea es ayudar a las empresas a hacer frente a las quejas de los clientes comunes.
Según dio a conocer The Australian, la firma Tech Touchpoint Grupo está utilizando el aprendizaje de máquinas para ayudar a que su sistema de IA reconozca (e incluso simule) la ira. Llamado Radiant (nombre tomado de la serie Fundación de Isaac Asimov), el propósito del proyecto con un valor de 500 mil dólares australianos (poco más de 6 millones de pesos) es el desarrollo de un sistema automatizado que pueda calmar las llamadas de servicio en las que se atiende a clientes enojados. Una vez completado, el sistema será capaz de generar más de 100 millones de interacciones iracundas. La pesadilla de todo empleado de Departamento de Quejas.
Por tal motivo, científicos de datos en Australia y Nueva Zelanda pasarán los próximos seis meses subiendo el conjunto de datos en la plataforma y ajustar sus algoritmos de aprendizaje con la expectativa de que pueda realizar estás interacciones en vivo a finales de año.
Después de esto, los científicos de datos de Touchpoint tienen la esperanza de construir un sistema que puede encontrar, de forma autónoma, la mejor respuesta a las quejas de los clientes típicos.
Touchpoint, por su parte, espera que este sistema en vivo se dirija a las necesidades de los grandes bancos, empresas de telecomunicaciones y compañías de seguros, quienes serían los clientes potenciales de esta innovación tecnológica.
Para todos aquellos asiduos a las películas de ciencia ficción, una máquina iracunda no sólo es una mala idea, sino que puede poner en peligro a la humanidad entera. No obstante, para beneplácito de los alarmistas, la verdad es que enseñar a una máquina a enojarse no representa gran riesgo. Así lo afirma el doctor Stuart Armstrong, investigador del Instituto el Futuro de la Humanidad en la Oxford Martin School, de la Universidad de Oxford, que dice que dice que la ira es una emoción relativamente fácil de replicar en los robots.
«No hay mucha variedad en la ira humana. Si alguien está enojado sólo te lanza insultos a ti, no hay mucha sutileza de interacción, así que no tienes que codificar nada complicado. La ira es fácil de imitar sin tener que entrar en profundidad», dice.
Sin embargo, el hecho de que podamos algún día ser capaces de construir robots que muestren todos los signos humanos del enojo da pie a un debate filosófico complicado sobre el punto en el que se llegue a imitar emociones y la conciencia indistinguibles de las emoción conciencia reales. De esta manera, la duda es la siguiente: Si un robot puede imitar exactamente la conciencia humana y reacciona con las mismas respuestas emocionales a los mismos hechos, entonces ¿tenemos la justificación para seguir considerándolos seres sin conciencia?
No obstante, un avance tecnológico de tal naturaleza sigue siendo apenas una hipótesis, y pasarán muchos años antes de que podamos verlo con nuestros ojos. No obstante, incluso aunque se llegara a crear un humanoide iracundo, este sería menos temible que un robot sin emociones, publicó el diario británico The Guardian.
Los científicos informáticos son más propensos a cometer errores con los robots sin emociones, hacia quienes tenderían a ser menos cuidadosos en comparación con aquellos que muestran enojo. «Si podemos crear verdadera ira como una emoción en los robots, todo en nuestro entorno nos dice que esto es peligroso y esto no es algo que debe ser colocado en una posición de poder», dice Armstrong.
Por su parte, programadores con malas intenciones evitarían intencionalmente a los robots que se enojan. «Si quieres hacer daño, crea un robot asesino, pero no lo hagas enojar. Si quiere causar daño entonces crea aquello que signifique un peligro para todos los seres humanos, que es exactamente lo que se quiere evitar», agrega. En este caso, los robots que no tienen evidencia de las emociones humanas podrían (hipotéticamente, en un futuro lejano) representar una amenaza mucho mayor.