Los sistemas de inteligencia artificial podrían leer nuestros relatos online para hacerse una idea de cómo pensamos y reaccionamos. O eso intentan en Stanford.
Por Marcos Merino
Ciudad de México, 28 de febrero (SinEmbargo/TicBeat).– La creación de asistentes virtuales capaces no sólo de entender nuestro comportamiento y necesidades, sino también de anticiparlos, constituye uno de los grandes retos de nuestra era para los investigadores del campo de la inteligencia artificial. Pero, invariablemente topa contra el muro de la diversidad y complejidad de nuestros comportamientos y la limitada cantidad de datos disponibles en cualquier investigación.
Por ello, un equipo de investigadores de la Universidad de Stanford ha desarrollado un nuevo método para enseñar a sistemas de inteligencia artificial a predecir cómo reaccionaremos los seres humanos a sus acciones… haciendo uso de las descripciones de actividades humanas cotidianas que nosotros mismos creamos.
Y para ello han integrado la información disponible en la comunidad de escritores online Wattpad (600 mil historias de 500 mil autores diferentes, un total de mil 800 millones de palabras) en la base de conocimientos Augur, desarrollada por ellos mismos para trabajar en colaboración con algoritmos de aprendizaje. Augur nació como una «prueba de concepto» para una app de Google Glass denominada Soundtrack For Life, capaz de seleccionar y reproducir música basada en las actividades cotidianas del usuario.
Según recoge el estudio, “a pesar de que tendemos a fijarnos en los acontecimientos dramáticos e inusuales que dan forma a las tramas de estas historias, éstas también están llenas de información prosaica sobre cómo nos movemos y reaccionamos en nuestro entorno cotidiano. A lo largo de tantos millones de palabras los patrones [de comportamiento] cotidianos son mucho más comunes que sus contrapartidas dramáticas. Los personajes de la ficción moderna enciende las luces después de entrar en las habitaciones, se ruborizan al recibir un cumplido, o dejan sin contestar llamadas telefónicas cuando están en una reunión”.
De este modo, en sus pruebas de campo iniciales usando una cámara portátil conectada con Augur, el sistema identificó correctamente objetos y personas en el 91 por ciento de las ocasiones… y predijo correctamente las reacciones de éstas en un 71 por ciento de los casos.