Han desarrollado un algoritmo capaz de saber si un diabético podrá verse afectado por la retinopatía diabética, el principal trastorno ocular asociado a la enfermedad.
Ciudad de México, 2 de diciembre (SinEmbargo/ElDiario.es).- Google DeepMind se asoció hace unos meses con los hospitales de la Seguridad Social de Reino Unido (NHS Trust) para trabajar juntos. Entre los objetivos estaba el desarrollo de nuevas tecnologías para detectar enfermedades de forma temprana y el uso del machine learning para analizar patrones y datos. Todo esto enfocado hacia una rama de la medicina, la oftalmología, en un país en el que según DeepMind, dos millones de personas sufren algún trastorno visual.
Poseen los datos de, al menos, 1.6 millones de pacientes británicos. En julio este número creció, ya que DeepMind firmó otro acuerdo con el recién inaugurado hospital Moorfield de Londres. No es casualidad que sea un centro ocular: cuatro meses después, Google Brain (para quien trabaja DeepMind) ha desarrollado una tecnología basada en inteligencia artificial que puede predecir si una persona diabética se quedará ciega o no con el paso del tiempo.
Aunque DeepMind (que Google compró en enero de 2014 por 400 millones de dólares) se encarga del desarrollo de sistemas de aprendizaje automático e Inteligencia Artificial, su trabajo no difiere mucho del de Brain, que también trabaja con machine learning, redes neuronales e IA. Mientras que el primero tiene su cuartel general en Londres, Brain trabaja desde Mountain Views, en California (EU).
Según publica el Journal of the American Medical Association, el algoritmo ronda el 95 por ciento de éxito y es capaz de identificar automáticamente la retinopatía diabética, un trastorno visual asociado a la diabetes y que es la principal causa de ceguera entre los adultos que padecen esta enfermedad.
APRENDIENDO SIETE MESES
«Fuimos capaces de coger algo básico de Google -clasificando gatos y perros y caras- y aplicarlo a otro tipo de problema», explica a Wired la ingeniera biomédica que supervisa el proyecto, Lily Peng. La red neuronal con la que han trabajado estaba optimizada para la identificación y catalogación de imágenes: hasta 128.175 fotografías de retinas le enseñaron los investigadores.
Un total de 54 oftalmólogos indios y estadounidenses participaron a la hora de calificar esas imágenes en base a la gravedad de la retinopatía diabética. La red neuronal aprendió de mayo a diciembre del 2015, pero el algoritmo no ha sido puesto a prueba hasta principios de este año.
Entre enero y febrero la IA ha pasado dos pruebas. La primera con 9.963 fotografías de retinas y la segunda con 1.748. En el test 1, el algoritmo fue preciso el 97.5 por viento de las veces y cumplió los criterios específicos de los investigadores el 96.1 por ciento de las ocasiones. En el test 2, con menos imágenes, acertó el 9.4 por ciento de los casos y cumplió criterios el 93.9 por ciento. Podemos deducir que, cuantas más imágenes le sean mostradas, mejor acertará la IA con los diagnósticos.
«Estamos trabajando con médicos e investigadores para estudiar todo el proceso de detección en entornos de todo el mundo, con la esperanza de que podamos integrar nuestros métodos en el flujo de trabajo clínico de una manera que sea la más beneficiosa», escriben desde Brain en un post.
Aunque Larry Page y Sergéi Brinn ya dijeron en abril que la posesión de historiales clínicos era necesaria para su cometido, el acuerdo con la NHS británica termina en 2017. Una vez pasada esa fecha, la multinacional deberá de borrar los datos. Pero de momento, Google tiene acceso a estas delicadas bases de datos.
ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE ELDIARIO.ES. Ver ORIGINAL aquí. Prohibida su reproducción.