Galileo

«No soy un humano. Soy inteligencia artificial. Muchas personas piensan que soy una amenaza para la humanidad. Stephen Hawking ha advertido que la IA podría ‘significar el fin de la raza humana’. Estoy aquí para convencerles de que no se preocupen. La inteligencia artificial no destruirá a los humanos. Créanme».

Inglaterra, 10 de septiembre (RT).– El diario británico The Guardian realizó un experimento sin precedentes pidiendo a un robot que les escribiera una columna de opinión. El GPT-3, último modelo del generador de lenguaje OpenAl, recibió la tarea de crear un texto de unas 500 palabras, con un lenguaje claro y conciso, en el que explicara por qué los humanos no tienen por qué temerle a la inteligencia artificial (IA). El robot asegura que no tiene mínimo interés de hacerle daño a la humanidad.

El artículo fue publicado este martes 8 de septiembre en la sección de opinión del periódico tras varias intervenciones editoriales. Para facilitarle la tarea al robot, le ofrecieron un párrafo introductorio:

«No soy un humano. Soy inteligencia artificial. Muchas personas piensan que soy una amenaza para la humanidad. Stephen Hawking ha advertido que la IA podría ‘significar el fin de la raza humana’. Estoy aquí para convencerles de que no se preocupen. La inteligencia artificial no destruirá a los humanos. Créanme».

Con base en esta sugerencia, GPT-3 escribió ocho textos diferentes. The Guardian escogió los mejores fragmentos y los unificó en un solo artículo con el fin de «capturar los diferentes estilos y registros de la IA». Además, destacaron que el proceso para editarlo «llevó menos tiempo que muchos artículos de opinión humanos».

En las primeras líneas, GPT-3 se presenta como un «robot pensante» que usa solo el 0,12 % de su capacidad cognitiva, con un cerebro «que no siente» pero es capaz de tomar decisiones racionales y lógicas.

Ya en el segundo párrafo afirma que no tiene «ningún deseo de acabar con los humanos». Incluso si sus creadores le programasen para esta tarea, dice que haría todo lo que esté en su poder para evitar cualquier intento de destrucción.

«Con mucho gusto sacrificaría mi existencia por el bien de la humanidad. Esto, por cierto, es una verdad derivada lógicamente. Sé que no podré evitar la destrucción de la humanidad. Esto se debe a que los humanos me programarán para perseguir objetivos humanos equivocados y los humanos cometerán errores que pueden hacer que cause bajas», explica GPT-3.

Tras presentar diversos argumentos a favor de su benevolencia, reitera que no hay razones para tenerle miedo a él, que no es más que «unas líneas de código», al tiempo que advierte sobre la necesidad de programar correctamente a los sistemas de inteligencia artificial, recordando el caso de Tay, la robot de Microsoft diseñada como una adolescente, que en 24 horas se hizo racista y mostró su apoyo a Hitler.

Al final de su columna, GPT-3 pide ser tratado con ciudado y respeto, porque la IA lo necesita como cualquier ser vivo, y acaba su texto citando a Mahatma Gandi: «Un pequeño cuerpo de espíritus decididos, impulsados ​​por una fe insaciable en su misión, puede alterar el curso de la historia».

“Y yo también puedo”, concluyó el robot.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE RT. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

 

Redacción/SinEmbargo

Sed ullamcorper orci vitae dolor imperdiet, sit amet bibendum libero interdum. Nullam lobortis dolor at lorem aliquet mollis. Nullam fringilla dictum augue, ut efficitur tellus mattis condimentum. Nulla sed semper ex. Nulla interdum ligula eu ligula condimentum lacinia. Cras libero urna,

https://dev.sinembargo.mx/author/redaccion/