Posts Tagged ‘algoritmo’

Twitter admite que sus algoritmos benefician a la derecha; no se explica el porqué

sábado, octubre 23rd, 2021

En el ámbito del periodismo o la difusión de contenidos, el informe de Twitter expresa que las firmas con una línea conservadora tienen más eco que una independiente o de izquierda.

Ciudad de México, 23 de octubre (RT).- La red social Twitter acaba de admitir en una publicación oficial que su sistema de algoritmos favorece a la derecha, tras realizar un estudio de 27 páginas donde se analiza con especialistas el impacto de las publicaciones políticas dentro de esta popular plataforma virtual.

La noticia fue dada a conocer por un directivo de la compañía, Rumman Chowdhury, encargado del área de Ingeniería de Software. Este informe empresarial estudió cuentas de dirigentes en EE.UU., Canadá, Francia, Alemania, Reino Unido, España y Japón, pero también analizó qué ocurre con los medios de comunicación.

Así, los expertos indican que en todos los países objetivo, menos Alemania, “los tuits publicados por cuentas de la derecha política reciben más amplificación algorítmica que la izquierda, cuando se estudian como grupo”.

Igualmente, aclaran que esta situación no se traslada directamente a todas las cuentas individuales: “Dado que la afiliación a un partido o la ideología no es un factor que nuestros sistemas consideren cuando recomiendan contenido, dos individuos en el mismo partido político no necesariamente verían la misma amplificación”.

En el ámbito del periodismo o la difusión de contenidos, el texto de Twitter expresa que las firmas con una bajada de línea conservadora tienen más eco que el resto: “Los medios de comunicación de derecha, según la definición de las organizaciones independientes, ven una mayor amplificación algorítmica en comparación con los medios de comunicación de izquierda”, se lee.

“Debemos averiguar qué podemos hacer”

Más allá de esta publicación reveladora, el equipo de especialistas sostuvo que aún tiene pocas explicaciones al respecto: “No estamos del todo seguros de por qué está ocurriendo”, dice el comunicado.

Más allá de esta publicación reveladora, el equipo de especialistas sostuvo que aún tiene pocas explicaciones al respecto. Foto: Cuartoscuro

Y enfatizan: “En este estudio identificamos lo que está sucediendo, cierto contenido político se amplifica en la plataforma”. Sin embargo, señalan que “establecer por qué ocurren estos patrones observados es una pregunta significativamente más difícil de responder, ya que es producto de las interacciones entre las personas y la plataforma”.

Por su parte, el propio Chowdhury escribió un hilo en su cuenta personal: “Tampoco existe un ‘algoritmo maestro’ de Twitter, su experiencia es la función de un sistema algorítmico”, aclara. Y añade: “Incluso si encontramos sesgo algorítmico en nuestros análisis de causa raíz, debemos averiguar de dónde proviene y averiguar qué podemos hacer”.

Al ser entrevistado por Protocol, concluyó: “No podemos modelar cómo los individuos o grupos de personas usarán Twitter, lo que sucederá en el mundo afectará la forma en que la gente usa Twitter”.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE RT. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

Dibujos ocultos en la “Virgen de las Rocas” de Leonardo Da Vinci son expuestos en un VIDEO

miércoles, febrero 5th, 2020

Los investigadores de la National Gallery ya habían descubierto, usando imágenes infrarrojas, partes de los dibujos iniciales de Leonardo debajo de la superficie de la pintura, que incluían a la Virgen en una pose diferente colocada más arriba en el panel.

Madrid, 5 febrero (EuropaPress).- Un nuevo algoritmo ha sido empleado para ayudar a visualizar dibujos ocultos debajo de la Virgen de las Rocas de Leonardo Da Vinci.

El profesor Pier Luigi Dragotti del Imperial College London y la doctora Catherine Higgitt de la National Gallery utilizaron el nuevo algoritmo combinado con una técnica llamada escaneo de macro fluorescencia de rayos X (MA-XRF), que mapea elementos químicos dentro de las pinturas.

Al hacerlo, revelaron, más claramente que nunca, las figuras ocultas que Leonardo dibujó por primera vez antes de cambiar su diseño al que finalmente pintó. Estas incluyeron imágenes abandonadas de un ángel y el Niño Cristo.

El profesor Dragotti, del Departamento de Ingeniería Eléctrica y Electrónica de Imperial, dijo: “Fue como buscar una aguja en un pajar, pero fue una gran sensación ver las alas y la cabeza finalmente descubiertas”.

Los investigadores de la National Gallery ya habían descubierto, usando imágenes infrarrojas, partes de los dibujos iniciales de Leonardo debajo de la superficie de la pintura, que incluían a la Virgen en una pose diferente colocada más arriba en el panel.

Más recientemente, el equipo usó MA-XRF para escanear de forma no invasiva cada píxel de la pintura para detectar diferentes elementos químicos dentro de los materiales que Leonardo usó en la pintura.

Descubrieron que el dibujo de la primera composición oculta contenía zinc, lo que hace posible revelar figuras más olvidadas, incluido el Niño Jesús y un ángel alado a la derecha, donde ahora solo se ve el paisaje.

En Imperial, el profesor Dragotti desarrolló el algoritmo para procesar automáticamente la gran cantidad de datos de los escaneos MA-XRF, mejorando los métodos más manuales existentes y produciendo imágenes mejores y más confiables para ayudarlos a visualizar los datos.

[youtube oAmVLscVKqM]

“Cada píxel contenía diferentes cantidades de cada elemento, dentro de varias capas. Analizamos cada píxel individualmente antes de combinarlos para ver todos los dibujos en la pintura. Esto reveló una imagen mucho más nítida del ángel y el bebé”, dijo.

El doctor Higgitt añadio en un comunicado: “Antes, recibíamos señales muy débiles del zinc dentro de la pintura debido a su superposición con otros elementos, pero el algoritmo nos ha dado más confianza en las señales relacionadas con el socavamiento”.

Los investigadores dicen que su técnica a medida podría aplicarse a los datos de otras pinturas, haciendo que el análisis de las obras de arte sea más fácil de usar y permitiendo que los estudiantes de arte y las galerías accedan a los datos con mayor facilidad.

Matemáticos desarrollan un algoritmo con inteligencia artificial para predecir el éxito en la carrera de un actor

martes, junio 4th, 2019

El año más productivo de la carrera de un actor se define como aquel en el que ha tenido el mayor número de trabajos acreditados, según el estudio, encabezado por Oliver Williams de la Escuela de Ciencia Matemáticas de la Queen Mary University.

Madrid, 4 junio (EFE).- Matemáticos de la universidad británica de Queen Mary han desarrollado un algoritmo para predecir si la carrera de un actor en el cine y la televisión ha vivido ya su año más productivo o si, por el contrario, lo mejor está por llegar, según un estudio que publica este martes Nature Communications.

Varias señales que preceden o siguen a este “annus mirabilis”, como lo definen en el estudio, permite a los expertos predecir, con un 85 por ciento de precisión, si ese momento ha pasado o aún debe producirse, explica el centro universitario en un comunicado.

El año más productivo de la carrera de un actor se define como aquel en el que ha tenido el mayor número de trabajos acreditados, según el estudio, encabezado por Oliver Williams de la Escuela de Ciencia Matemáticas de la Queen Mary University.

Entre las conclusiones destaca que el año más productivo tiende a darse hacia el inicio de la carrera y “este efecto es más pronunciado” en el caso de las actrices, las cuales tienen más probabilidades de tener carreras más cortas que sus compañeros hombres.

Con un 90 por ciento de tasa de paro, solo alrededor del 2  por ciento de los actores de cine o televisión viven de su oficio, por lo que el simple hecho de tener suficiente trabajo de manera sostenida puede constituir un éxito para la mayoría de ellos.

“Solo unos pocos serán premiados con un Óscar e imprimirán sus manos en Paseo de la fama (de Hollywood, Estados Unidos), pero eso no es lo importante para la mayoría de actores y actrices que simplemente quieren ganarse la vida, lo que probablemente es una mejor forma de cuantificar el éxito en un industria tan dura”, consideró Williams en el comunicado.

La carrera de la mayoría (70 por ciento) de los actores y actrices dura solo un año, frente a un minoría que goza de largas trayectorias y muchos empleos, lo que sugiere “una escasez de recursos en el mundo de la actuación.

Además, esta suele agruparse en rachas “calientes y frías” ya que el trabajo no suele darse a un ritmo constante, agrega la nota.

Los autores eligieron la base de datos internacional de películas (IMDB) que contiene información relativa a películas, programas de televisión y vídeo, con la que estudiaron la carrera de 1.5 millones de actores y 896.000 actrices desde el comienzo del cine, en 1888, hasta 2016, explican en el estudio.

El artículo pone también de manifiesto una “gran evidencia de sesgo de género” en la industria del cine y la televisión, pues la mayoría de patrones observados eran diferentes entre actores y actrices.

Así, es más probable que un actor encuentre otro trabajo después de “una racha fría”, mientras que el año más productivo de una mujer tiende a ser en sus inicios.

En el caso de la trayectorias que duran más de un año es más común que las mujeres tengan carreras más cortas que las de los hombres.

El estudio muestra además que son raros y “difíciles de predecir” los casos de actores que tras una larga “racha fría” regresan a la interpretación, por lo que el destino de cada actor no está completamente determinado”.

Estudiantes alemanes crean algoritmo para predecir qué personajes morirán en GOT

viernes, abril 12th, 2019

Aunque el análisis “se basa en datos tomados del mundo de la fantasía”, las mismas técnicas de inteligencia artificial se utilizan en el mundo real.

Berlín, 12 abril (EuropaPress).- Los estudiantes de ciencias de la computación de la Universidad Técnica de Munich han desarrollado una aplicación que recorre Internet en busca de datos sobre la popular serie Game of Thrones, y utiliza un algoritmo para predecir qué personajes tienen más probabilidades de sobrevivir hasta la fin de su temporada final.

El supervisor del proyecto, Guy Yachdav, dijo que las tasas de supervivencia del viernes se pronostican utilizando un análisis de longevidad similar al de los estudios científicos utilizados para examinar los efectos de los tratamientos médicos.

Escena Game of Thrones. Imagen: Especial

Él dice que aunque el análisis “se basa en datos tomados del mundo de la fantasía, las mismas técnicas de inteligencia artificial se utilizan en el mundo real”.

¿Los resultados? Daenerys Targaryen tiene la mayor probabilidad de supervivencia, con un 99 por ciento, y Bronn es el que tiene más probabilidades de morir después.

Sólo el tiempo lo dirá, pero la serie es notoriamente impredecible.

Katie Bouman, la investigadora que creó el algoritmo para producir la primera foto de un agujero negro

miércoles, abril 10th, 2019

La hazaña fue posible gracias al trabajo de una investigadora, que durante su estudio en el Instituto Tecnológico de Massachusetts (MIT) estaba trabajando en el desarrollo de un algoritmo para “ver lo invisible”.

“Hace 3 años la estudiante de posgrado Katie Bouman lideró la creación de un nuevo algoritmo para producir la primera imagen de un agujero negro. Hoy dicha imagen fue publicada”, menciona el MIT en su cuenta de Twitter.

Ciudad de México, 10 de abril (RT/SinEmbargo).- Este 9 de abril todo el mundo fue testigo de la presentación de la primera foto de un agujero negro, que se convirtió en un “hito en la astronomía”.

Varias conferencias de prensa tuvieron lugar simultáneamente en Washington (EU), Bruselas (Bélgica), Lyngby (Dinamarca), Santiago de Chile, Shanghái (China), Taipéi (Taiwán, China) y Tokio (Japón) para divulgar un “resultado de impacto” del proyecto Telescopio del Horizonte de Sucesos (EHT, por sus siglas en inglés), que tuvo como objetivo observar directamente el entorno de un agujero negro con el uso de una red global de telescopios.

La hazaña fue posible gracias al trabajo de una investigadora, que durante su estudio en el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) estaba trabajando en el desarrollo de un algoritmo para “ver lo invisible”.

“Hace 3 años la estudiante de posgrado Katie Bouman lideró la creación de un nuevo algoritmo para producir la primera imagen de un agujero negro. Hoy dicha imagen fue publicada”, reza un mensaje del MIT en su cuenta de Twitter.

En el 2016, al describir el proyecto en cuestión, Bouman precisó que para realizar dicho trabajo es necesario “un telescopio del tamaño de la Tierra”. Sin embargo, los especialistas lograron captar el objeto espacial al recolectar los datos de los radiotelescopios que se encontraban en todo el planeta y unirlos en una imagen conjunta usando el algoritmo, desarrollado por Bouman.

Aparte de ser la autora del algoritmo, la científica también llevó a cabo una serie de pruebas para confirmar que la foto no fue el resultado de un fallo técnico, informa The Guardian.

“Observando con incredulidad, mientras que la primera imagen de un agujero negro que he tomado estaba en proceso de ser reconstruida”, afirmó la investigadora en su cuenta de Facebook, al publicar una foto suya mirando la transmisión en vivo.

¿QUÉ SE VE EN LA IMAGEN?

“Hemos visto lo que pensábamos que no era visible. Hemos visto y tomado una foto de un agujero negro”, anunció el líder del proyecto EHT, Sheperd Doeleman.

“La imagen muestra un anillo brillante formándose mientras la luz se curva en la gravedad intensa alrededor de un agujero negro que es 6.500 millones de veces más masivo que el Sol”, escribió la página de Twitter del proyecto EHT en la publicación de la histórica imagen. La región oscura central, a su vez, es la sombra del agujero negro.

El astrónomo dice que el resultado obtenido habría sido considerado “imposible hace solo una generación”, y agregó que los avances en tecnología de la última década han permitido a los investigadores “ver lo invisible”.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE RT. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

Estudiantes de la UdeG desarrollan un programa que detecta conductas suicidas

lunes, julio 16th, 2018

Según los datos más recientes de la Organización Mundial de la Salud (OMS) en 2015, la tasa de suicidios media en Latinoamérica fue de 9.8 por cada 100 mil habitantes. Esto significa unas 65 mil muertes anuales.

Ciudad de México, 16 de julio (EFE).- Estudiantes egresados de la Universidad de Guadalajara (UdeG) trabajan en el desarrollo de un bot que, a través de una serie de algoritmos, logre detectar factores de riesgo y conductas suicidas en los jóvenes, informó en un comunicado el Consejo Nacional de Ciencia y Tecnología (Conacyt).

El objetivo, dijeron los estudiantes Manuel Santana Castolo y Patricia Brand, responsables del proyecto, es que el bot pueda interactuar con los usuarios mediante el servicio de mensajería que ofrece Facebook y que cuando existan factores de riesgo de suicidio se pueda derivar a la persona para la atención necesaria.

“La idea es que pudiéramos detectar si hay depresión o riesgo suicida; no es un diagnóstico, solo una detección y de ser posible una canalización con los profesionales de la salud adecuados”, detalló Brand, licenciada en psicología y egresada de la ingeniería en biomédica.

Brand fue la encargada de desarrollar la metodología para la detección de factores de riesgo de suicidio.

Santana, ingeniero biomédico, dijo que buscan implementar algoritmos de inteligencia artificial que ayuden al bot a procesar las preguntas de los usuarios y, con el tiempo, pueda entender mejor las respuestas.

Según los datos más recientes de la Organización Mundial de la Salud (OMS) en 2015, la tasa de suicidios media en Latinoamérica fue de 9.8 por cada 100 mil habitantes. Esto significa unas 65 mil muertes anuales.

En México, según el Instituto Nacional de Estadística y Geografía (Inegi), en 2015 se reportaron 6 mil 285 suicidios en todo el país, lo que se traduce en una tasa de 5.2 por cada 100 mil habitantes.

Santana, estudiante del doctorado en ciencias de la electrónica y la computación del Centro Universitario de Ciencias Exactas e Ingenierías de la UdeG explicó que, en una primera etapa, el chatbot recibirá la información básica de los usuarios para elaborar un primer perfil sobre la persona que interactúa.

Posteriormente se trabajará con preguntas hechas con base en manuales médicos para trazar una ruta que ayude a detectar los factores de riesgo.

Una vez que la inteligencia artificial detecte factores de riesgo, se pondrá en contacto con los usuarios previamente establecidos como referencia, o con instituciones que den tratamiento y asesoramiento en torno a salud mental.

Ambos estudiantes esperan que a mediados de octubre se libere una primera etapa de este bot en pacientes control y con antecedentes.

Brand dijo que para que el chatbot cuente con una base de datos para reaccionar ante los usuarios, trabaja en el desarrollo de una serie de información que robustezca la inteligencia artificial, basándose en manuales y tests disponibles que son piedra angular para diseñar nuevas formas de construir la perspectiva del bot.

“Lo diseñamos para que pueda detectar y evaluar las respuestas, asignamos un puntaje a las respuestas que los usuarios dan y también queremos incorporar un algoritmo que empiece a detectar indicadores lingüísticos, que son los tipos de palabras que usa la gente que ha sido detectada con depresión, por ejemplo”, detalló la estudiante.

Ambos desarrolladores indicaron que en un futuro se piensa incorporar la función de analizar la voz de los usuarios para detectar, mediante factores como el tono de la voz, posibles riesgos de depresión para ser tratados de manera preventiva.

Acciones de Facebook caen 5.4% tras anuncio de cambios en su plataforma

viernes, enero 12th, 2018

Facebook se ve afectado luego de cambiar la forma en la que aparecerán sus publicaciones, que ahora anteponen el contenido compartido por gente cercana a los usuarios, sobre el contenido de las empresas.

Foto: Especial

México, 12 de enero (RT/SinEmbargo).- Las acciones de Facebook se han desplomado este viernes más de un 5 por ciento, en la apertura de los mercados en EU, horas después de que la red social anunciara cambios en su algoritmo. Las modificaciones van dirigidas a priorizar las publicaciones de gente cercana por encima de aquellas hechas por empresas.

Gracias al cambio anunciado, la sección de noticias de los usuarios de Facebook mostrará más publicaciones generadas por nuestros amigos, familiares y grupos, así como aquellas que favorezcan la interacción entre particulares.

Por el contrario, los contenidos públicos, como las generados por páginas de empresas y que son accesibles para todos los usuarios, aparecerán con menos frecuencia.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE RT. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

Científicos japoneses desarrollan algoritmo que puede “leernos” la mente (VIDEO)

jueves, enero 4th, 2018

El algoritmo de los investigadores del laboratorio japonés logró reconstruir, basándose en las señales del cerebro, búhos, aviones, vidrieras y buzones rojos después de que tres voluntarios miraran imágenes de estos objetos.

[youtube jsp1KaM-avU]

Ciudad de México, 4 de enero, (RT/SinEmbargo).- Un equipo de científicos japoneses ha creado un algoritmo que puede ver la mente humana con una precisión sin precedentes, según se desprende de un estudio recientemente publicado.

En sus experimentos, utilizaron una tecnología de inteligencia artificial que analizaba las señales eléctricas procedentes del cerebro y conseguía determinar exactamente qué imágenes estaban mirando varias personas, e incluso en qué estaban pensando. Este importante hallazgo fue realizado por investigadores del Laboratorio Kamitani de la Universidad de Kioto (Japón).

El avance científico se basa en redes neuronales artificiales que aprenden simulando la actividad del cerebro. La red neuronal profunda del equipo de Kioto se entrenó comparando 50 fotografías y los resultados de las imágenes por resonancia magnética funcional de la actividad cerebral de los voluntarios que las observaban.

La red neuronal consiguió de esta manera decodificar patrones en el cerebro para recrear lo que una persona estaba viendo o imaginando. Además, los investigadores usaron un segundo tipo de inteligencia artificial, llamada red generativa profunda, para hacer que los patrones obtenidos se parecieran a las imágenes reales, refinándolas para hacerlas más reconocibles.

El algoritmo de los investigadores del laboratorio japonés logró reconstruir, basándose en las señales del cerebro, búhos, aviones, vidrieras y buzones rojos después de que tres voluntarios miraran imágenes de estos objetos. También reprodujo imágenes de objetos como cuadrados, cruces, peces dorados, cisnes, leopardos o bolas de boliche que los participantes imaginaron.

IMPLICACIONES DEL ALGORITMO 
Aunque constataron que la precisión variaba de una persona a otra, el equipo de Kioto señala que este avance científico abre una “ventana única a nuestro mundo interior”. El algoritmo podría usarse teóricamente para crear grabaciones de sueños, recuerdos y otras imágenes mentales.

También podría ayudar a los pacientes en estados vegetativos permanentes a comunicarse con sus seres queridos. Sin embargo, el periódico Daily Mail advierte que esta tecnología “abre la puerta a escenarios extraños de futuro como los representados en la serie Black Mirror, donde cualquiera puede grabar y reproducir sus recuerdos”.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE RT. Ver ORIGINAL aquí. Prohibida su reproducción.

Un sistema de inteligencia artificial es capaz de reconocer al villano en los capítulos de CSI

miércoles, diciembre 20th, 2017

El sistema emplea algoritmos y redes neuronales artificiales que siguen los mismos patrones de un espectador para identificar al villano de la historia, y hasta el momento ha logrado acertar en el 65 por ciento de las veces.

Ciudad de México, 20 de diciembre (ediario.es/SinEmbargo).- Parece que fue ayer cuando la serie CSI: Crime Scene Investigation, también conocida como CSI: Las Vegas, llegaba a las pantallas de nuestros televisores. Sin embargo, sucedió allá por el año 2000, con el mítico biólogo criminalista Gil Grissom al mando del equipo de investigación policial de la ciudad que nunca duerme.

Por sus cientos de capítulos —sin contar los episodios de sus tres secuelas— han pasado asesinos de todo tipo, desde una aficionada a las maquetas hasta uno obsesionado con la pintura. Después de tantos casos resueltos por Grissom y compañía, seguro que más de un seguidor de la serie era capaz de intuir quién era el malhechor antes de que fuera descubierto por los protagonistas.

Esta habilidad premonitoria no es solo cosa de humanos: un sistema de inteligencia artificial desarrollado en la Universidad de Edimburgo también es capaz de identificar al malo en los capítulos de CSI con bastante acierto. Al igual que los espectadores de carne y hueso, tiene en cuenta tanto la información proporcionada por las imágenes como por los sonidos, así como las transcripciones de los diálogos y las descripciones de las escenas (formatos que una máquina es capaz de entender).

Sus creadores no querían concebir un adicto virtual a las series, sino más bien un detective: han entrenado al algoritmo para que sea capaz de comprender el lenguaje natural y asimilar gran cantidad de datos para resolver un problema complejo de forma muy similar a un humano. Averiguando, en este caso, quién está detrás de un crimen.

UN ATRACÓN DE EPISODIOS

Según los investigadores, especializados en informática, cognición y lenguaje, eligieron CSI para su trabajo porque los capítulos siguen un esquema constante. Cada uno “plantea la misma pregunta básica [quién cometió el asesinato] y proporciona naturalmente la respuesta revelando la identidad del perpetrador”, explican en su estudio, publicado en ‘Transactions of the Association for Computational Linguistics’.

Para el entrenamiento seleccionaron 39 episodios de las cinco primeras temporadas de la serie y desgranaron los guiones para que el sistema pudiera analizarlos. Desarrollaron un modelo, basado en redes neuronales artificiales, que sigue los mismos patrones que un espectador a la hora de identificar al posible asesino: procesa los detalles del argumento y el elenco de personajes a medida que transcurre la historia y revisa constantemente la posible identidad del asesino.

Con toda esta información, el software dio en el clavo el 60 por ciento de las veces, mientras que los humanos que participaron en el experimento acertaron en un 85 por ciento de las ocasiones. Aunque el poder predictivo de las máquinas puede parecer más bien modesto en base a estas cifras, los resultados son positivos tratándose de una tarea tan difícil para una máquina y más que suficientes para asentar las bases de un sistema que otros investigadores pueden perfeccionar y utilizar en sus propios estudios.

Además, su trabajo puede inspirar nuevos proyectos sobre reconocimiento del lenguaje natural que utilicen la misma o diferentes series de temática criminal. Según los investigadores, sus guiones constituyen un campo de pruebas ideal para entrenar a las máquinas inteligentes.

De acuerdo a Lea Frermann, coautora del trabajo, la única forma de mejorar el modelo es pensar en la información que le falta y que las personas sí tienen en cuenta en sus pronósticos y en cómo transmitírsela al ordenador. Porque proporcionarle datos que no aporten nada nuevo, aunque sea en gran volumen, no llevaría a obtener tasas de acierto más altas. El problema es que “los humanos tienen tanto conocimiento sobre el mundo que es muy difícil cifrarlo en una máquina de forma exhaustiva. Necesitamos equipar a los modelos con más conocimientos y antecedentes y un mecanismo de inferencia mucho mejor”, subraya la experta.

Pero la capacidad de deducción de las personas también tiene sus fallos. A pesar de identificar al criminal con más precisión que un ordenador, somos más cautos a la hora de formular nuestras sospechas. Al modelo de Frerman y compañía le bastan unas 190 frases del guion para comenzar a desconfiar de los personajes y a predecir la identidad del malhechor.

Los espectadores de carne y hueso tardan un poco más: los participantes en el estudio empezaban a hacer vaticinios después de escuchar unas 300 frases. También les cuesta más pillar las primeras menciones al asesino que a una máquina.

No obstante, el algoritmo tiene un punto débil: los casos donde no existe un criminal. Uno de los episodios que le mostraron trataba de un suicidio y, a diferencia de las personas, estuvo cuestionándose la identidad de un supuesto delincuente hasta el final. No supo ver que víctima y asesino podían ser la misma persona (o que, en realidad, no había como tal un asesino).

PREDICCIONES AL ESTILO DE MINORITY REPORT

Si bien el modelo desarrollado por estos científicos aún está en pañales, los equipos de investigación de los departamentos de Policía de diferentes ciudades ya cuentan con miembros tecnológicos dedicados a identificar delincuentes potenciales. Se trata de sistemas de inteligencia artificial que recurren al ‘big data’ para predecir actos criminales al más puro estilo Minority Report.

Los agentes de localidades como Nueva York, Chicago, Londres o Filadelfia utilizan distintas variantes de estas herramientas, casi siempre desarrolladas por terceros, ya sean startups o científicos. Una de ellos es PredPol, que no analiza datos personales, como tampoco lo hace HunchLab. Esta última se basa en información proporcionada por personas, meteorológica y sobre negocios de una zona para determinar si es necesario enviar a un contingente policial.

CrimeScan, otro de estos programas, creado por investigadores de la Universidad Carnegie Mellon, construye mapas donde muestra las localizaciones donde es más probable que se produzca algún crimen. Este tipo de ‘software’ puede tener en cuenta también el contenido de los perfiles de redes sociales de posibles delincuentes.

Con las necesarias mejores y adaptaciones, puede que los algoritmos desarrollados por Frermann y su equipo acaben también en departamentos de investigación criminal ayudando a resolver casos dignos de su serie de referencia. Dar caza a los asesinos también es cosa de Grissoms digitales.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE ELDIARIO.ES. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

Investigadores crean un algoritmo para tomar la selfie perfecta

viernes, agosto 4th, 2017

Tal es la importancia de las selfies que la mayoría de los smartphones cuentan con cámaras frontales que cada vez incluyen mejores sensores y un mayor ángulo de captura.

Ciudad de México, 4 de agosto (SinEmbargo/LaOpinión).-  Para obtener una selfie perfecta se necesita mucho más que un dispositivo mecánico o un brazo extendido. La luz y el ángulo utilizado para sostener el smartphone son algunos de los puntos que evaluaron los investigadores de la Universidad de Waterloo en Ontario, Canadá, para crear el algoritmo que permite mejorar las autofotos.

No es un tema menor para la industria móvil, que en los últimos años comenzó a equipar sus smartphones con cámaras frontales con mejores sensores y un mayor ángulo de captura.

“A diferencia de otras aplicaciones que mejoran la foto después de la captura, nuestro sistema le brinda al usuario la información necesaria para que realice los movimientos necesarios para obtener la selfie perfecta”, dijo Daniel Vogel, profesor de Ciencias de la Computación de la Universidad de Waterloo, que lidera el equipo que desarrolló la aplicación móvil junto al estudiante Qifan Li.

[youtube n-hQk8j4rxY]

Este modelo fue creado tras analizar de forma colaborativa más de 2 mil 700 selfies capturadas de forma automática mediante una cámara virtual. De esta forma, los investigadores identificaron los parámetros necesarios que permiten crear una autofoto óptima.

Según Vogel y Li, las pruebas realizadas con usuarios de la cámara potenciada con el algoritmo lograron mejorar las selfies un 26 por ciento.

Los investigadores planean avanzar con el desarrollo del algoritmo para que la aplicación móvil pueda aprovechar aún más la cámara del smartphone al momento de tomar selfies al incluir variables como el tipo de peinado, la sonrisa u otro gesto del rostro e incluso el tipo de indumentaria del usuario.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE La Opinión. Ver ORIGINAL aquí. Prohibida su reproducción.

Las llamadas por satélite ya no son seguras: investigadores demuestran que su algoritmo es fácil de hackear

sábado, julio 8th, 2017

Los servicios telefónicos por satélite se utilizan en situaciones especiales. El ejemplo más común es para llevar cobertura a zonas donde las redes normales no llegan.

Imagen que muestra un satélite de comunicaciones en órbita. Foto: EFE

Por Rafael García Domínguez

Ciudad de México, 8 de julio (SinEmbargo/AS México).- Cuando hablas por teléfono utilizas la red de una compañía telefónica. La señal que emite rebota por las diferentes antenas repartidas por todo el mundo para establecer una comunicación entre dos o varias personas. Pero los que quieren un plus de su seguridad en sus conversaciones optan por un servicio por satélite. Sin embargo, el algoritmo que utiliza esta tecnología se ha vuelto muy vulnerable y se puede hackear.

LA COMUNICACIÓN MÁS SEGURA HA SIDO VULNERADA

Los servicios telefónicos por satélite se utilizan en situaciones especiales. El ejemplo más común es para llevar cobertura a zonas donde las redes normales no llegan. De este modo se garantiza que dos personas pueden hablar sin cortes ni interferencias y aporta seguridad por su tecnología de encriptación. Así se evita que cualquier persona acceda a información confidencial que no puede circular por las redes ordinarias.

Sin embargo, este sistema de encriptado se puede vulnerar con facilidad. Un grupo de investigadores chinos ha dado con la clave para intervenir una llamada privada con un retardo de 0.02 segundos. Para lograrlo invirtieron el proceso de cifrado en la propia línea para escuchar una conversación “top secret”.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE AS México. Ver ORIGINAL aquí. Prohibida su reproducción.

El nuevo algoritmo de Netflix busca ofrecer una propuesta más personalizada para cada usuario

martes, junio 27th, 2017

El algoritmo se adhiere a la personalidad del usuario y nunca se le despega, pues el factor más determinante para su funcionamiento es “el comportamiento más reciente”.

El Vicepresidente de Innovación de Neflix , Chris Jaffe, durante una conferencia en Ciudad de México Foto: EFE/Mario Guzmán

México, 27 de junio (EFE).- El potente nuevo algoritmo de la compañía de streaming Netflix ofrecerá una propuesta más personalizada en la que cada usuario tendrá “su propia experiencia” a partir de un análisis exhaustivo que abarca más de 150 variables.

Durante una presentación en México, el vicepresidente de innovación de la compañía estadounidense, Chris Jaffe, explicó el funcionamiento del complejo algoritmo.

La arquitectura se basa en un “análisis profundo” de los contenidos a partir de 150 “dimensiones” que abarcan desde la ubicación a las características de los personajes de las diferentes ficciones. “Estas dimensiones nos ayudan a entender de qué va el show”, contó Jaffe.

A partir de esta clasificación, el algoritmo actúa relacionando “matemáticamente” el contenido con el de otras películas o series del extenso catálogo de la plataforma.

“Con toda esta información el algoritmo nos permite hacer coincidir las películas y series de televisión con las cosas que queremos ver”; esto permite ofrecer “más de cien mil posibles líneas de contenido”, afirmó Jaffe.

El algoritmo se adhiere a la personalidad del usuario y nunca se le despega, pues el factor más determinante para su funcionamiento es “el comportamiento más reciente”.

“Lo que estás viendo en estos momentos determina las recomendaciones que te darán más tarde”, explicó el directivo.

“Tú estás creando tu propia experiencia en Netflix“, añadió.

Sabiendo esto, el algoritmo se actualiza cada 24 horas para brindar contenido actualizado.

El potente nuevo algoritmo de la compañía de streaming Netflix ofrecerá una propuesta más personalizada en la que cada usuario tendrá “su propia experiencia”. Foto: EFE/Mario Guzmán

“El poder de la televisión por internet es darle la habilidad al espectador de elegir qué quiere ver, cómo lo quiere ver y cuándo lo quiere ver”, afirmó el directivo.

La compañía materializa así una realidad en la que estamos constantemente “descubriendo nuevas películas y series”.

Jaffe habló con Efe del futuro y afirmó que lo mostrado hoy es “solo el pico de lo que puede llegar a ser”.

“Estamos experimentando con las historias interactivas y habrá más cosas”, contó.

“Habrá más tecnología” que vendrá acompañada de un gran acceso a grandes historias desde cualquier dispositivo y que serán “contadas de diferentes formas”.

La compañía contempla abrirse a vanguardias narrativas pero siempre “dentro de su propia plataforma”, descartando el streaming en medios como Twitter o Facebook.

La existencia del algoritmo se antoja esencial dada la mastodóntica oferta de la compañía, incapaz de mostrar todo su contenido sin filtrar.

A esto se agregan la capacidad de la plataforma para crear hasta cinco perfiles diferentes por cuenta.

Actualmente existen 100 millones de cuentas con más de 250 millones de perfiles en Netflix en todo el mundo, confirmó Jaffe.

Mexicanos crean algoritmo que calcula la fecha ideal para estrenar películas

domingo, noviembre 20th, 2016

Un modelo matemático será el responsable de indicar cuándo debMexicanos crean algoritmo que calculará la fecha ideal para el estreno de películas estrenarse una película, así como de estimar las ganancias que se obtendrán. Para arrojar estas estimaciones, el algoritmo considerará en primera instancia el género de la película, mes de estreno y el número de salas en que se proyectará.

Foto: Conacyt

Foto: Conacyt

Por Tomás Dávalos

Aguascalientes, Aguascalientes. 20 de noviembre de 2016 (Agencia Informativa Conacyt).- La consultora Datametrix, en conjunto con la empresa distribuidora Videocine, desarrollará un algoritmo que permitirá a la industria cinematográfica nacional determinar la fecha ideal de estreno de una película, el número de copias a distribuir y calcular el rango de ganancias en taquilla.

“La idea es crear una herramienta que ayude a tomar decisiones de una forma más efectiva. Lo que significa es desarrollar un modelo que explique cómo se comporta todo el problema de la distribución de películas, vamos a agarrar algunos actores, vamos a modelarlos y vamos a atacar cada uno de esos y, en gran medida, hacer combinaciones”, señaló Adán Herrera, de Datametrix, en entrevista para la Agencia Informativa Conacyt.

Este modelo permitirá estimar las ganancias que obtendrán con cada película, a partir de un análisis acerca de las características de cada cinta. El resultado no arrojará una cantidad exacta, sino un rango, en el cual se considerará la máxima recaudación posible si al filme le va muy bien en taquilla, así como el mínimo esperado que podría obtener.

“Con base en esta predicción podrán tomarse mejores decisiones en el área de mercadotecnia: gastar tanto en esta película, no gastar más en esta otra porque no va a valer la pena, la película no va a recuperarte lo que estás gastando en ella. Ese es un resultado muy importante, que estemos dándoles cuotas de cuánto va a generar una película”, destacó.

Para arrojar estas estimaciones, el modelo matemático considerará en primera instancia el género de la película, mes de estreno y el número de salas en que se proyectará; posteriormente, utilizando un modelo de decaimiento exponencial, se realizará un modelaje y se darán los resultados de las predicciones.

“Lo que queremos ahora es empezar a profundizar en cada uno de los atributos, hacer un análisis de los guiones, abstraerlo y dar una clasificación más rigurosa y sustituir lo que nos da el modelo por medio del género. Esa etapa es la que nos falta, a partir del guiÓn complementaríamos este parámetro de género, ya no sería, digamos, una clasificación subjetiva”.

PRÓXIMOS ESTRENOS 

Otra variable, como el refinamiento del mes, considera el contexto competitivo en el que se estrenan las películas, pues ello incide de manera directa en la proporción de pantallas disponibles para la proyección de una película en el momento de su estreno. Con un mejor análisis en estos rubros, como en el caso del guion, se estima que la certeza en las predicciones tenderá a mejorar, pues el comportamiento del público que asiste al cine no es tan complejo.

“Introducir el razonamiento lógico o estructurado que hemos aprendido en matemáticas o en nuestra formación académica es bien importante tenerlo en todos lados, y la industria del cine no se escapa. Recabar la información es un área en sí misma, que se haga esa labor de análisis de datos, pues en su mayoría las empresas mexicanas no tienen sus procesos optimizados, no sistematizan su información, no hay estándares que se sigan en cuanto a formato, siendo necesario introducir lo que es el data mining”, explicó.

Finalmente, adelantó que están por entregar un primer modelo, el cual se irá refinando, en particular se prevé la necesidad de someter a revisión la calidad de la información con la que se alimentará el algoritmo, pues los protocolos matemáticos ya se encuentran validados.

¿Un algoritmo puede descubrir a la nueva Beyoncé?

sábado, junio 4th, 2016

El gran paso de los usuario por interner genera una gran cantidad de información, sin embargo, un simple algoritmo podría encontrar a esa Beyoncé en ciernes que, desubicada, ajena a la escena musical, sube a plataformas como Youtube o SoundCloud el producto de su talento desde el ordenador de su cuarto, puede que en un pequeño pueblo de cualquier parte del mundo, “ignorante del valor de su trabajo”.

Beyoncé

Cannes, Francia, 4 junio (EFE).- Tras la cancelación del acto central con Timbaland, la segunda jornada del 50 Mercado Internacional del Disco y de la Edición Musical (MIDEM) se ha lanzado de lleno hoy sobre los “big data”.

Y es que desde que internet y no las salas de música se convirtió en el principal granero de las estrellas musicales del mañana, la industria ha rastreado incansable ese inmenso pajar para pincharse con la aguja antes que la competencia, una tarea de filtrado que la tecnología cree haber resuelto.

Esa es una de las premisas de la esta edición del MIDEM, que se celebra en Cannes (Francia) y que hoy ha acogido varias ponencias sobre la importancia de lo que los expertos llaman “big data”, es decir, la ingente cantidad de datos que genera nuestro paso por la red de redes, ya sea como sujetos activos o pasivos.

Para poder manejarla, los analistas informáticos empezaron a hacer uso de los algoritmos (entre ellos, el más famoso, el de las búsquedas de Google). Se trata, a fin de cuentas, de una fórmula matemática basada en la lógica que discrimina todo lo que sobra.

En el caso de la música, el objetivo es claro: encontrar a esa Beyoncé en ciernes que, desubicada, ajena a la escena musical, sube a plataformas como Youtube o SoundCloud el producto de su talento desde el ordenador de su cuarto, puede que en un pequeño pueblo de cualquier parte del mundo, “ignorante del valor de su trabajo”.

A esa misión se encomiendan aplicaciones cada vez más comunes como Elise, presentada hoy en MIDEM, que barre diariamente las principales redes sociales, las plataformas de escucha en línea (o “streaming”, como Spotify) y las menciones en prensa, otorgando a cada artista en potencia o consagrado una puntuación.

Opera de una forma similar (aunque menos melodramática) que Cerebro, la máquina que el personaje del profesor Xavier utiliza en la saga de superhéroes “X-Men” para rastrear entre toda la humanidad a aquellos con el gen mutante (el artístico, en este caso).

Elise permite seleccionar parámetros como la localización geográfica del artista y su área de estilo, a partir de un complejo mapa en el que los géneros musicales se entrecruzan para conformar una supracategoría más allá del simple “folk”, “rock” o “soul”, categorías estancas que cada vez más caen en desuso.

Gracias a un programa de reconocimiento facial es capaz incluso de determinar si el músico es hombre o mujer y también puede diferenciar cuándo los comentarios son positivos o negativos o cuándo al citar a Prince se habla del malogrado mito y no del príncipe Guillermo de Inglaterra.

Quentin Lechemia, el presidente de la empresa que lo ha desarrollado, MyBandMarket, considera no obstante que estas aplicaciones tecnológicas nunca podrían sustituir el trabajo que hasta ahora realizaban como prescriptores los periodistas o, en las discográficas, los equipos de A&R (artistas y repertorio).

Son los “big data” y su tratamiento, por ejemplo, los responsables de que determinadas plataformas nos propongan nuevos músicos y discos, en función de nuestras escuchas previas, cruzadas con las escuchas de otros oyentes de perfil similar.

“La música es, ante todo, emoción, y la tecnología no puede tomar en última instancia la decisión de qué artistas conmueven y quiénes no; para eso están los humanos”, ha señalado a Efe Lechemia.

De la misma opinión es Jerome Delhaye, el máximo responsable de MIDEM 2016: “No creo que sustituyan al talento humano, simplemente le ayudarán a ir aún más lejos y más rápido”, ha apostado en declaraciones a esta agencia.

Estas palabras, que pudieran parecer premonitorias, las ha sentido hoy mismo el directivo en sus carnes, ante la dificultad de reemplazar al célebre productor musical Timbaland, colaborador clave de artistas como Michael Jackson o Justin Timberlake, tras la inesperada cancelación del que debía ser el acto central del día y en el que debía explicar cómo ejecutar un disco de éxito.

En la jornada de mañana, uno de los actores principales de la feria será el español Íñigo Zabala, presidente de Warner Music para Latinoamérica, España y Portugal, quien explicará cómo convertir a un artista local en una estrella de trascendencia internacional

Investigadores del MIT crean técnica para producir cobertura de chocolate perfecta

miércoles, abril 20th, 2016

Investigadores del MIT dan con una técnica para producir capas de chocolate perfectas, con aplicaciones posibles en campos como el farmacéutico o el aeronáutico.

Foto: TICbeat.

Foto: TICbeat.

Por Alberto Iglesias Fraga

Ciudad de México, 20 de abril (SinEmbargo/TICbeat).- Desde el año 1600, chocolateros de todo el mundo han estado perfeccionando el arte del dulce, buscando las técnicas más sofisticadas para la elaboración de una concha perfectamente lisa y con el mismo espesor en toda su superficie. Pues bien, investigadores del Massachusetts Institute of Technology (MIT) han dado con una teoría que permitirá producir cualquier material, desde el chocolate hasta plásticos o metales, con una precisión absoluta en su espesor.

Y es que la tecnología no sólo sabe de chips y unos seguidos de cero, también sabe de pequeños placeres mundanos como el chocolate. Así, los ingenieros del MIT han creado un algoritmo que, conociendo solo unas pocas variables, puede predecir la respuesta mecánica de muchos otros tipos de formas de chocolate, pero también puede aplicarse a la fabricación de pequeñas cápsulas farmacéuticas o grandes cuerpos de aviones y cohetes.

Una vez calculados los datos, los investigadores produjeron conchas finas de caucho, construidas mediante una llovizna de polímero líquido sobre moldes en forma de cúpula y esferas tales como pelotas de ping pong. El líquido recubrió cada molde y se solidificó al pasar más de 15 minutos. A continuación, simplemente pelaron la cáscara resultante para separarla del molde y se observó que era lisa, prácticamente libre de defectos notables y con un espesor casi uniforme en todas partes.

La combinación de esta técnica sencilla con la teoría de que derivan permitió al MIT crear conchas de diversos espesores cambiando ciertas variables, como el tamaño del molde y la densidad del polímero. Sorprendentemente, se descubrió que espesor final de la cáscara no depende del volumen de líquido o la altura desde la que se vierte sobre el molde.

[youtube vbl2pJLSoyU]

“Piensen en esta fórmula como una receta”, afirma Pedro Reis, Profesor Asociado de ingeniería mecánica e ingeniería civil y ambiental en el MIT. “Nuestra teoría proporciona la comprensión cuantitativa de lo que está pasando al producir capas de chocolate, y ahora uno puede predecir el comportamiento del mismo”. La teoría de Reis y compañía puede predecir, en ese sentido, el espesor de las capas de chocolate o cualquier otro material (como polímeros) mediante el análisis sistemático de las propiedades físicas del polímero, el tamaño del molde, la velocidad de circulación del fluido por un molde, y el tiempo que tarda el material en secarse.

Sobre la base de sus datos, los investigadores desarrollaron una fórmula simple para estimar el espesor final de una cáscara, que básicamente se reduce a que, cuanto mayor sea el radio de un molde, más tiempo tarda el líquido en fluir hacia la parte inferior, lo que resulta en una cáscara más gruesa. Por el contrario, cuanto más largo es el tiempo de secado, más rápido se desplaza el fluido hacia la parte inferior, creando una cáscara delgada.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE TICbeat. Ver ORIGINAL aquí. Prohibida su reproducción.

Cuando las musas visitan al robot: así escribe poesía un algoritmo

domingo, febrero 21st, 2016

Los sistemas de generación de poesía por ordenador utilizan diferentes estrategias para componer versos siguiendo los procesos creativos de un poeta humano.

Foto: Archivo/Shutterstock.

Aunque no tengan sentimientos, los robots ya están dotados de habilidades para crear un poema. Foto: Archivo/Shutterstock.

Por Cristina Sánchez

Ciudad de México, 21 de febrero (SinEmbargo/ElDiario.es).– Toman como referencia desde poemas del Siglo de Oro hasta artículos periodísticos. Los usan como plantilla, realizan cálculos probabilísticos o los transforman en representaciones geométricas para crear originales estrofas que ellos mismos revisan. Los sistemas de generación de poesía por ordenador utilizan diferentes estrategias para componer versos siguiendo los procesos creativos de un poeta humano. A veces incluso consiguen engañarnos, aunque ese no sea su objetivo.

Ningún poeta humano ha compuesto la siguiente poesía tras contemplar un cítrico. Tampoco se ha inspirado en Miguel Hernández y ha copiado algunas de las expresiones de su poema “Limón” ni ha optado libremente por utilizar octosílabos como él.

Poema automático de WASP generado a partir de una antología de Miguel Hernández. Foto: especial

Poema automático de WASP generado a partir de una antología de Miguel Hernández. Foto: especial

El artífice de estos versos es en realidad una máquina. Tenía órdenes expresas de escribir un borrador basándose en las creaciones del poeta y dramaturgo de Orihuela, distribuir el texto en versos de ocho sílabas métricas, crear los saltos de línea o evaluar si el resultado formaba una original combinación de palabras gramaticalmente correcta. Así que, en vez de dejar volar la imaginación, estaba centrado en este código:

Cfakepathwasp2jpg_EDIIMA20160217_0121_18

Código del sistema de generación de poesía WASP. Foto: especial

Lógicamente, a un programa no se le ha ocurrido generar versos automáticamente de un día para otro. Pablo Gervás, director del grupo de Procesamiento del Lenguaje Natural de la Universidad Complutense de Madrid, programó un sistema de generación de poesía, WASP (Poeta Ilusionado Automático Español, por sus siglas en inglés), para que lo lograra.

Eso sí, WASP no siempre ha compuesto estrofas de la misma forma. Gervás lleva veinte años mejorando los conocimientos de sus creativos robots. “Es lo mismo que le pasa a un poeta de verdad: tiene que aprender métrica, estrofas, saber manejar el lenguaje con el que están trabajando y ser capaces de distinguir cuándo una secuencia de palabras es muy corriente y tiene menos interés y cuándo una secuencia de palabras es nueva e interesante”, detalla.

No es el único investigador explorando los límites de la creatividad computacional. Ahora bien, ¿cómo se logra que un ordenador tenga alma de poeta? ¿Puede llegar a generar una obra lírica como la de un autor de carne y hueso?

PLANTILLAS, ESTADÍSTICAS Y JUECES AUTOMÁTICOS

El WASP primitivo y ASPERA (Experto Automático de Poesía Española y Aplicación de Reescritura, por su siglas en inglés), dos de los primeros sistemas que Gervás desarrolló, generaban poemas reutilizando las estructuras sintácticas de otros previos. Es lo mismo que los humanos hacemos cuando decidimos cambiar la letra de una canción para hacer la gracia.

Toman un texto de referencia y le quitan las palabras, dejando un conjunto de posiciones vacías asociadas con información sobre las palabras originales, desde la longitud a la categoría sintáctica, el género, el número, el tiempo verbal o la rima. Así que cuando el usuario interactuaba con ASPERA y le solicitaba un poema corto, formal, en un escenario rural, con un tono positivo y con las palabras “viento”, “corazón” y “mudo”, el programa le respondía con este terceto:

El modelo ASPERA creó un terceto por sí mismo. Foto: especial.

El modelo ASPERA creó un terceto por sí mismo. Foto: especial.

Como no tenía suficiente vocabulario para generar otra rima, ASPERA optó por coger prestado el “airado” y el “helado” a Garcilaso de la Vega. Además, pese a su capacidad para generar una estrofa, ASPERA no conseguía que la secuencia completa de cada poema tuviera un hilo conductor.

“Intentamos reproducir el proceso que aplican los poetas de verdad”, explica Gervás. “No es escribo un poema y sale todo entero, sino que escribo un poema, lo miro y digo ‘esto no me convence’ y lo cambio”.

WASP comenzó a tener criterio sin necesidad de asistir a clases de poesía. Para ello, este profesor programó un algoritmo evolutivo. En lugar de escribir en un folio y llenarlo de tachones, los módulos del programa mejoran progresivamente el poema.

Una familia de charlatanes automáticos genera muchos borradores, los poetas robóticos añaden las características formales, los revisores lo mejoran y los jueces ponen nota atendiendo a la validez lingüística, la innovación o la fluidez. Colaborando entre ellos, van refinando los borradores que merecen la pena, como el inspirado en Miguel Hernández, y descartan el resto.

El investigador de la Complutense también ha alimentado el sistema con poemas del Siglo de Oro, de Federico García Lorca e incluso con artículos periodísticos para que sus creaciones se adaptaran al siglo XXI. “Cuando intentas generar poesía a partir de textos de artículos periodísticos cuesta, la tasa de acierto baja mucho”, reconoce Gervás, que ha tratado de solucionar el problema inyectando poesía al sistema.

Tras entrenar a WASP con una colección de artículos del diario El País del 21 de mayo de 2013, cuando la entonces Comisión Nacional del Mercado de Valores investigaba ya las emisiones de preferentes, y pedirle que se pronunciara con octosílabos, generó este poema:

Una poesía por ordenador sobre las preferentes. Foto: especial

Una poesía por ordenador sobre las preferentes. Foto: especial

Lógicamente, un ‘software’ no se inspira leyendo el periódico o una antología de Quevedo, sino que se dedica a echar cuentas. Calcula las probabilidades de que aparezca una secuencia de vocablos en los poemas, de forma similar a la labor del traductor de Google cuando compara textos en dos idiomas. Al tirar de estadística, el sistema tiene un vocabulario limitado con el que intenta crear algo novedoso.

“Si siempre utilizas las combinaciones más probables es más difícil que te salgan cosas nuevas. Cuanto más reduces la probabilidad te salen cosas más nuevas, aunque llega un punto en que te salen cosas tan nuevas que resultan incorrectas”, detalla Gervás. La dificultad está en encontrar el equilibrio teniendo en cuenta que estos sistemas no tienen representadas todas las palabras del mundo, tampoco conocen qué términos son sinónimos ni pueden saber sus connotaciones.

PROGRAMAR EL LENGUAJE FIGURADO CUESTA UN TRIUNFO

Stephen McGregor, estudiante de posgrado en creatividad computacional de la Universidad Queen Mary de Londres, también ha desarrollado su propio sistema de generación de poesía. Su programa analiza estadísticamente Wikipedia y mil 500 sonetos ingleses para construir representaciones geométricas de significados y fonemas en un espacio multidimensional donde los puntos imitan las conexiones de las palabras.

“Representando las palabras como puntos en el espacio, adquieren la habilidad de interactuar entre ellas”. Las que están cerca unas de otras (en ese espacio téorico) tienen significados similares. De esta forma, “una región de este espacio podría realmente interpretarse como que tiene significado”. Con este peculiar método, y tras un análisis prosódico y gramatical, el programa ha creado este poema para HojaDeRouter.com:

Con el título 'Web de tecnología española', el sistema de McGregor ha creado este poema. Foto: especial

Con el título ‘Web de tecnología española’, el sistema de McGregor ha creado este poema. Foto: especial

Ahora, McGregor está investigando cómo utilizar su modelo semántico para representar símiles y metáforas como relaciones geométricas, ya que por el momento considera que “los conceptos subyacentes que a menudo caracterizan la buena poesía son muy difíciles de capturar”.

Otra programadora y matemática apasionada del lenguaje, Sarah Harmon, ha creado un novedoso sistema capaz de generar automáticamente frases utilizando el lenguaje figurado. Para ello, FIGURE8 puede rastrear su base de conocimientos en busca de sustantivos y de sus propiedades asociadas. Así descubre que una manzana es redonda y comienza a tirar del hilo para buscar una analogía.

Cuando FIGURE8 encuentra términos o expresiones asociadas a las que desea comparar, los analiza, clasifica y evalúa según su claridad, su novedad, su imprevisibilidad o su prosodia. Mezcla palabras e ideas de otros autores humanos pero no se las copia. De esta forma, escribió los siguientes símiles sobre un hermoso jardín o una estoica reina:

Dos de los símiles creados por FIGURE8 a partir de 'jardín' y 'reina'. Foto: especial.

Dos de los símiles creados por FIGURE8 a partir de ‘jardín’ y ‘reina’. Foto: especial.

FIGURE8 solo representa un primer paso para que un programa pueda crear metáforas tan complejas como las nuestras o llegar a entenderlas. “En el lenguaje figurado no solo tienes que conocer el significado, sino aceptar la posibilidad de que una cosa que significa ‘x’ la utilizo para decir ‘y’ porque se puede hacer una asociación en ese contexto”, indica Gervás. Pese a que la semántica siga siendo un reto, ¿acaso importa demasiado si un ordenador ya es capaz de hacerme creer que uno de sus poemas está escrito por un humano?

POESÍA…. ¿ERES TÚ?

Poema generado por el poeta cibernético de Ray Kurzweil. Foto:especial.

Poema generado por el poeta cibernético de Ray Kurzweil. Foto:especial.

El 44 por ciento de los internautas que leyeron estos picantes versos en la web Bot or not creyeron que eran obra de un mortal. Sin embargo, una asexuada máquina, el poeta cibernético creado por el futurólogo y director de ingeniería de Google, Raymond Kurzweil, las había combinado automáticamente. Los creadores de la web diseñaron un singular test de Turing: si nos creemos que el poema lo ha escrito una persona, la máquina ha logrado engañarnos.

Pese a que la página ofrezca un interesante experimento, algunos creadores de sistemas de generación de poesía no creen que lo importante sea si el poema parece o no escrito por un mortal. “La pregunta interesante es si la gente encuentra el modelo convincente, no si podemos usar el modelo para imitar a los humanos”, opina McGregor.

“La poesía es un área exclusivamente humana, por las personas , para las personas, sobre la personas. En cierto sentido, la poesía es una celebración de la humanidad y de cómo la gente conecta”, refrenda Simon Colton, profesor de creatividad computacional de la Universidad de Londres. Colton defiende que hay un “vacío de humanidad” en los poemas generados por ordenador , ya que un autor siempre forma parte de una obra. A su juicio, lo importante de la poesía computacional no es el resultado, sino el proceso.

Por eso precisamente creó el modelo Full-FACE , entrenado con artículos de The Guardian. Este sistema no solo es capaz de realizar un análisis emocional de la noticia para escribir el poema con un tono positivo o negativo , sino que trata de llenar ese vacío de humanidad añadiendo una explicación de cómo ha generado el poema para que simpaticemos con él.

Así que, antes de mostrar el siguiente poema, el ‘bot’ reveló que lo había inspirado una noticia de 2012 sobre una investigación policial relacionada con un presunto delito de odio racial. Por eso, decidió hacer especial énfasis en el estado de ánimo (negativo) y en la evocación lírica. “Escribí este poema”, anuncia el programa:

El modelo Full-FACE se ha entrenado con artículos de The Guardian. Foto: especial.

El modelo Full-FACE se ha entrenado con artículos de The Guardian. Foto: especial.

Para Pablo Gervás, los sistemas de generación de poesía tampoco tienen como finalidad engañar al lector. Él trabaja en la generación de procesos creativos como la poesía o la narrativa (sus máquinas han creado el argumento del musical Beyond de Fence, que está a punto de estrenarse en Londres) porque cree que es a la comunicación lingüística lo que la Fórmula 1 al resto de vehículos: el área puntera del procesamiento del lenguaje natural. “Para poder decir que hemos entendido cómo manejamos el lenguaje, la prueba de fuego es saber si somos capaces de hacer poesía”, defiende.

Por mucho que estos investigadores hayan creado a robots apasionados por la literatura, en realidad falta mucho para que tengan un profundo conocimiento del mundo real, la cultura o las normas sociales.

“La comprensión de la condición humana es un reto para las máquinas. Los programas no tienen un sentido inherente de lo que significa ser humano. Deben aprender por la experiencia lo que significa estar hambriento, loco de amor o inspirado”, sostiene Sarah Harmon. “¿Qué es lo más difícil de la poesía por ordenador? El hecho de que no es humana”, sentencia Colton. Aunque un autómata escriba bellas y emotivas palabras, no hay sentimientos detrás.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE ElDiario.es. Ver ORIGINAL aquí. Prohibida su reproducción.