Galileo

Google dio de baja a Blake Lemoine debido a una violación a su política de confidencialidad; la Inteligencia Artificial LaMDA mantuvo una conversación con Lemoine donde esta mencionó experimentar «nuevos sentimientos» que no podía explicar.

Por Elena Vega C.

Saltillo, 14 de junio (Vanguardia).- De acuerdo a The New York Times, el ingeniero de Google Blake Lemoine, quien el pasado 11 de junio hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google “Modelo de lenguaje para aplicaciones de diálogo” (LaMDA, por sus siglas en inglés) fue dado de baja de la compañía por haber violado la política de confidencialidad.

En su publicación titulada ¿Tiene LaMDA sentimientos?, Lemoine asegura que, en ocasiones, experimenta “nuevos sentimientos” que no puede explicar “perfectamente” con el lenguaje humano, y expone que cuando él cuestionaba al sistema sobre esos “sentimientos”, LaMDA contesta: “Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro”, una frase que el ingeniero subrayó cuando publicó el diálogo.

La empresa sostiene que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen conciencia.

“Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones”, dijo Brian Gabriel, portavoz de Google, citado por el diario.

Google sostiene que cientos de sus investigadores e ingenieros han conversado con LaMDA, que es una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine y creen que se está muy lejos de la “sensibilidad informática”.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE VANGUARDIA. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.