Posts Tagged ‘big data’

¿Es conveniente dejar que la inteligencia artificial optimice la sociedad?

sábado, mayo 15th, 2021

Con el avance tecnológico, las innovaciones de este ámbito forman cada vez más parte de la vida cotidiana, incorporándolas progresivamente a las prácticas sociales. Los beneficios obtenidos de la inteligencia artificial permiten la optimización de procesos complejos, pero ¿realmente podemos fiarnos de los algoritmos para optimizar las decisiones de una sociedad? Expertos reflexionan al respecto.

Por Raúl Jiménez
Profesor ICREA de Cosmologia y Fisica Teorica y Profesor Visitante en el Imperial College, Universitat de Barcelona

Licia Verde
Profesor ICREA de Cosmologia en el ICCUB de la Universidad de Barcelona, Universitat de Barcelona

Rabih Zbib
Director de Investigacion de Inteligencia Artificial y Procesamiento Natural del Lenguaje en Avature, Massachusetts Institute of Technology

Madrid, 15 de mayo (The Conversation).- La gran innovación del siglo XXI ha sido el advenimiento del big data y el aprendizaje automático profundo. Un ejemplo es la inteligencia artificial (IA). ¿Alguien podría haber imaginado en 1990 que una computadora derrotaría a cualquier humano en ajedrez o Go? El libro The Emperor’s New Mind, publicado ese mismo año por el matemático y ganador del premio Nobel Roger Penrose, argumentaba enérgicamente contra esta posibilidad. Hoy, cualquiera puede traducir otro idioma desde su móvil sobre la marcha.

Esta revolución tiene dos componentes. Primero, la disponibilidad de enormes cantidades de datos sobre todos los aspectos de nuestra sociedad: nuestra ubicación, la frecuencia de nuestras transacciones bancarias, nuestras preferencias cuando vemos películas… Segundo, la capacidad de la inteligencia artificial de dar sentido a estos datos.

La gran innovación del siglo XXI ha sido el advenimiento del big data y el aprendizaje automático profundo. Foto: Oskar Burgos/EFE

Para entender el poder de la IA, imagínese tener un modelo para un fenómeno: si este es exacto, se pueden hacer predicciones con él. Por ejemplo, consideremos la teoría física de la relatividad general de Einstein. Si queremos construir una red GPS necesitamos aplicar esta teoría para desarrollar dicho dispositivo.

Por otro lado, considere el lector fenómenos para los cuales no tenemos un modelo eficaz, como las interacciones sociales y el lenguaje. Hasta el siglo XXI se creía que sin un modelo no se podía predecir nada. Sin embargo, la red neuronal resuelve esto buscando y utilizando patrones y correlaciones en los datos. A saber: no tenemos una idea clara de qué es el lenguaje, pero tenemos algoritmos casi perfectos para traducir idiomas. Tampoco tenemos una teoría sobre los gustos cinéfilos de la gente, pero los servicios de streaming nos aconsejan películas que nos pueden gustar.

Dada la capacidad de la IA para gestionar y dar sentido a cualquier cantidad de datos, ¿por qué no dejamos que la IA optimice la sociedad? ¿Suena a herejía? Un caso concreto: La gestión global de la pandemia de COVID-19 no ha sido óptima por los gobiernos del mundo.

Si bien casi todos reconocen la importancia primordial de los datos científicos, y algunos han intentado utilizarlos de la manera más eficiente, otros simplemente no han podido digerir lo que decían los datos. Incluso el país más exitoso en vacunar a sus ciudadanos, Israel, se ha visto afectado por una enorme mala gestión y errores en el manejo de la pandemia. Otros países tienen campañas de vacunación erráticas o populistas; ninguno ha podido optimizar su estrategia. Estamos jugando con vidas humanas. ¿Podría la IA haberlo gestionado mejor?

La manera en que la IA aprende los patrones y aprovecha las correlaciones encontradas en cantidades masivas de datos es minimizando un conjunto de aspectos y cantidades y maximizando otros. En lenguaje técnico, optimizando una función de costo (cost function). Por ejemplo, en el caso de un banco, la IA proporciona la manera óptima de maximizar el retorno de beneficios.

La manera en que la IA aprende los patrones y aprovecha las correlaciones encontradas en cantidades masivas de datos es minimizando un conjunto de aspectos y cantidades y maximizando otros. Imagen ilustrativa. Foto: Wu Hong, EFE

Ningún país ha intentado utilizar la IA para decidir quién debe vacunarse y cuándo. El uso de algoritmos no implica necesariamente mejor toma de decisiones. Uno mal diseñado siempre dará malos resultados: el probado en el Centro Médico de Stanford (EU) dejó fuera a los médicos que se enfrentaban a la pandemia en primera línea y puso por delante a algunos que trabajaban desde casa.

¿PUEDEN LOS ALGORITMOS SUPERAR NUESTROS SESGOS?

El siguiente paso sería argumentar que tal vez la IA no sólo debería optimizar las respuestas de la sociedad a las pandemias, sino también otros aspectos de nuestras vidas. ¿Por qué no? Después de todo, en la mayoría de los casos, los políticos están tratando de optimizar sus opciones: ¿cuántas carreteras construir? ¿Cuánto pagar en el sistema nacional de salud o pensiones? ¿Cómo hacer la economía más verde?

Se podría argumentar que se trata de decisiones políticas en las que los datos y hechos “cuantitativos” y concretos no juegan ningún papel. En realidad, estas decisiones se toman maximizando una función de costes que inevitablemente será sesgada por factores humanos e intereses como el enriquecimiento del político y sus electores. Por ejemplo, la política del pork barrel, esa que se refiere a la contribución de dinero público que los miembros del Congreso y los Senadores de Estados Unidos tienen a disposición para financiar proyectos de interés local, y que frecuentemente se utiliza para ganar votos.

Idealmente, en una democracia (incluso robotizada), la función de costos debería optimizar el bienestar de la sociedad y todos sus miembros. Una ventaja de los algoritmos es que pueden remover los sesgos humanos del proceso de toma de decisiones. Entonces, ¿por qué no dar a los algoritmos la capacidad de gestionar y digerir los datos, proponiendo soluciones óptimas desde un punto de vista objetivo?

Con una reserva importante: sesgos y prejuicios pueden estar empotrados en el algoritmo mismo. Esconderse detrás de la IA no garantiza una toma de decisiones ética e igualitaria: la ética tiene que estar incorporada en el algoritmo.

Una ventaja de los algoritmos es que pueden remover los sesgos humanos del proceso de toma de decisiones.  Imagen ilustrativa. Foto: EFE

¿Podemos llegar a pensar que todo el proceso de optimizar la sociedad lo pueda hacer, mucho más eficientemente, un algoritmo? ¿Es posible construir una IA ética? ¿Cómo? ¿Quién controla los algoritmos y la función de costo? ¿En qué casos y bajo qué condiciones los humanos podrían dejar completamente la toma de decisiones a los algoritmos? ¿Cuándo deben intervenir los humanos?

Estas son las cuestiones clave a las que se enfrenta la sociedad contemporánea: deberíamos responderlas lo antes posible mientras todavía controlamos al robot.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE THE CONVERSATION. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

Con ayuda de Big Data, expertos identifican vulnerabilidades claves del cáncer en 10 mil tumores

martes, enero 19th, 2021

Han identificado hasta 112 subtipos de tumores definidos por 407 de estas proteínas reguladoras que canalizan la información

Barcelona (España), 19 de enero (EFE).- Un estudio liderado por la Universidad de Columbia (EU), con participación del Instituto de Investigación Biomédica de Bellvitge (IDIBELL), en Hospitalet de Llobregat (noreste de España) y el Instituto Catalán de Oncología (ICO), identificaron vulnerabilidades clave del cáncer mediante el análisis de Big Data de 10 mil tumores.

El IDIBELL explicó que los resultados obtenidos, publicados en la revista científica Cell, tienen el potencial de mejorar el diagnóstico y tratamiento del cáncer.

Los investigadores han analizado, a través de algoritmos computacionales, los datos genómicos de 10 mil tumores de los 20 cánceres más frecuentes con el objetivo “de identificar las proteínas reguladoras responsables de canalizar la información proveniente de las alteraciones genómicas y transformarla en la identidad transcripcional propia del cáncer”.

Así, han identificado hasta 112 subtipos de tumores definidos por 407 de estas proteínas reguladoras que canalizan la información.

Además, el análisis ha puesto en evidencia que los 112 subtipos tumorales se pueden catalogar a partir del grado de activación o inactivación de sólo 24 grupos de proteínas reguladoras, o lo que es lo mismo, la combinación de 24 características fundamentales de cáncer.

Conocer cuáles son las características fundamentales que presenta un cáncer concreto puede ayudar a hacer una previsión muy fiable del pronóstico del paciente.

Los investigadores han validado alguna de las características fundamentales descritas en cánceres de próstata o riñón, entre otros, y mediante técnicas de edición genética y tratamientos farmacológicos han demostrado que las predicciones hechas a través de algoritmos se cumplían en los ensayos con modelos experimentales.

Las 7 profesiones amenazadas por la automatización: meseros, carteros, choferes, repartidores…

jueves, enero 2nd, 2020

Meseros, carteros, chóferes, repartidores y hasta abogados podrían ser reemplazados por tecnologías artificiales, como is se tratara de un episodio e Star Wars.

La IMF Business School analizó los 7 puestos de trabajo que tienen mayor probabilidad de desaparecer o transformarse radicalmente para la década del 2020.

Por Yolanda García

Ciudad de México, 2 de enero (Economía Hoy).- El año 2020 cerrará una década en la que tecnologías como el Big Data, la Inteligencia Artificial y la robótica se han consolidado, unos avances que tendrán un pleno protagonismo en el ámbito laboral durante los próximos años, puede que incluso por encima del trabajador humano.

Es más, entre 400 y 800 millones de trabajadores podrían ser desplazados de sus puestos de aquí al 2030 por la automatización de las labores, tal y como afirma un estudio de McKinsey Global Institute (MGI), la Universidad de Oxford y el Banco Mundial.

Se trata de un proceso previsto a largo plazo pero que ya se nota en el presente. De hecho, el Foro Económico Mundial calcula que el 29 por ciento de las tareas de hoy en día son completadas por una máquina. Ante esta perspectiva y con el objetivo de preparar y formar a los trabajadores ante estos nuevos avances tecnológicos, desde IMF Business School han analizado los 7 puestos de trabajo que tienen mayor probabilidad de desaparecer o transformarse radicalmente para la década del 2020:

1. Camareros. Aunque parece una escena sacada de la última película de Star Wars, nos encaminamos a un futuro en el que serán los robots los que nos sirvan la comida en los restaurantes. El potencial de automatización en los próximos años para el empleo de camarero es del 77 por ciento, según afirma un estudio del “Center for an Urban Future”.

2. Operarios de industria. El segundo sector es uno de los que se han visto más transformados por el auge de la tecnología, principalmente por la incorporación de máquinas y robots que hacen el trabajo de humanos en cadenas de montaje. En este sentido, aproximadamente 400 milpuestos industriales han sido ocupados por robots en toda Europa desde el año 2000 según el estudio How Robots Change the World de Oxford Economics, una tendencia que se multiplicará de aquí a 2030 con 2 millones de puestos ocupados por máquinas.

La solución en ese sentido pasa por adaptar nuestros oficios a las necesidades de un mercado. Foto: Shutterstock.

3. Chóferes. Durante este año hemos visto las primeras pruebas de coches autónomos, por lo que no es nada descabellado pensar que en la década del 2020 veremos su implantación real. Un avance tecnológico que también tendrá impacto en el sector profesional de la automoción y el transporte, ya que un estudio de la Universidad de Oxford calcula que hay un 89 por ciento de probabilidades de que la profesión de chófer sea totalmente automatizada en el futuro.

4. Maquinistas de tren. La automatización aplicada a los vehículos ha llegado bastante antes a los trenes y líneas de metro de todo el mundo. De hecho, solo en Europa ya existen 17 líneas de metro totalmente automatizadas en pleno funcionamiento, y tres de ellas las podemos encontrar en el Metro de Barcelona.

5. Carteros. El e-mail ha hecho que los carteros hayan disminuido el volumen de reparto de cartas y postales. A cambio, ha aumentado considerablemente el reparto de paquetería y artículos pedidos por plataformas de e-commerce. Pero incluso esta última función podría estar en peligro desde que Amazon anunció Prime Air, un servicio de entrega por drones que lleva funcionando en Estados Unidos desde 2016.

6. Agricultores. El que es probablemente uno de los sectores más antiguos del mundo también está experimentando cambios por la tecnología. Todo empezó con la introducción de grandes máquinas cosechadoras que ahorraban mucho tiempo y esfuerzo humano, una tendencia que ha seguido con la incorporación de inteligencia artificial para predecir las condiciones meteorológica, drones para controlar grandes áreas de cultivo, sensores y Big Data para recoger información útil del suelo…

7. Abogados. Resulta difícil pensar que una profesión en la que hay que conocer las leyes y saber interpretarlas pueda desaparecer o verse muy modificada por las nuevas tecnologías. No obstante, ya existen softwares de Inteligencia Artificial y Big Data capaces de revisar una gran cantidad de documentos jurídicos en muy poco tiempo, algo que podría llevar a la destrucción del 39 por ciento de empleos en el sector legal del Reino Unido, según Deloitte Legal.

Para Carlos Martínez, presidente de IMF Business School, “la tecnología avanza a grandes pasos, pero hay ocasiones en los que el mundo laboral no sigue este camino con la misma rapidez, lo que lleva a la destrucción de puestos y sectores profesionales enteros. La solución en ese sentido pasa por adaptar nuestros oficios a las necesidades de un mercado cada vez más tecnológico y formarse en estos nuevos avances”.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE ECONOMÍA HOY. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

Red de fans de AMLO ataca desde Twitter a periodistas y medios críticos, revela Signa_Lab ITESO

martes, marzo 12th, 2019

Un informe realizado por Signa_Lab ITESO revela que una red de seguidores en Twitter del Presidente Andrés Manuel López Obrador ha lanzado diversos ataques y campañas de ridiculización a periodistas, medios de comunicación y usuarios críticos del Primer Mandatario. Y esta campaña se ha reforzado haciendo uso y convirtiendo en tendencia hashtags como “PrensaFifí o “Chayoteros”.

Ciudad de México, 12 de marzo (SinEmbargo).- El laboratorio Signa_Lab del Instituto Tecnológico y de Estudios Superiores de Occidente (ITESO) publicó este martes el informe titulado “Democracia, libertad de expresión y esfera digital. Análisis de tendencias y topologías en Twitter: el caso de la #RedAMLOve”, en el que destaca el surgimiento y evolución de una tendencia en la que un grupo de usuarios ha emprendido una campaña de ataques y ridiculización de periodistas y medios críticos al Gobierno federal.

Estos usuarios conforman el grupo llamado #RedAMLOve, surgido en meses pasados y con amplia capacidad de convocatoria. De acuerdo con el estudio dado a conocer este martes, entre los meses de enero y febrero esta red de usuarios ha intensificado su hostilidad hacia comunicadores y medios definidos por su postura crítica hacia el Primer Mandatario.

En estas discusiones destaca el empleo de etiquetas negativas como #PrensaFifí, término que introdujo el propio Presidente Andrés Manuel López Obrador a la escena de las redes sociodigitales, o #Chayateros para referirse a una antigua práctica en la que gobiernos, políticos y otros actores de poder integran a su nómina a algunos comunicadores con el fin de controlarles y censurarles.

El análisis realizado por Signa_Lab –obtenido por medio de la herramienta THOTH, desarrollada por ese mismo laboratorio– muestra que la discusión al interior de la #RedAmlove se ha orientado en los últimos días al ataque a periodistas que cubren las entrevistas mañaneras.

“Las constantes descalificaciones han ido escalando no solamente hacia los periodistas de la prensa más convencional en México, como Loret de Mola o López Dóriga, sino especialmente a las y los periodistas que cubren “las mañaneras”, conferencias matutinas en las que López Obrador usa con frecuencia adjetivaciones como “prensa fifí”, a la que acusa de calumnias y ‘voladas'”, plantea el informe.

En el análisis algorítmico –visualizado a partir del software Gephi, Signa_Lab– se muestra la interacción de 3 mil 220 cuentas que han empleado la etiqueta #PrensaFifí y otro grupo de 9 mil 428 cuentas que ha empleado el hashtag #Chayotero, conversaciones en las que destacan los nombres de periodistas como Vicente Serrano (@_VicenteSerrano), Ivonne Melgar (@IvonneMelgar), Pedro Ferriz @PedroFerriz y otros más.

El análisis plantea que es posible suponer, con criterios cuantitativos y cualitativos, estrategias metodológicas de monitoreo crítico y generación de capas de profundidad, que la #RedAMLOVE es una operación sofisticada de producción de narrativas políticas a través de, por lo menos, tres dimensiones:

1. Replicación automatizada de contenido.
2. Ataques y confrontación.
3. Producción de agenda y encuadre.

Para realizar el estudio se analizaron 98 mil 806 tuits que utilizaron los hashtags #ReformaTodoLoDeforma, #NoSoyBotSoyReal, y #RedAMLOVE.

El Instituto Tecnológico y de Estudios Superiores de Occidente (ITESO) fue fundado en 1957 y pertenece al conjunto de más de 228 universidades jesuitas en el mundo.

Grafo 1. Relaciones Usuario a Usuario del HT #Chayoteros. Elaborado por Signa_Lab

En un nivel más profundo de conversación, Signa_Lab encontró que en torno al empleo de estas etiquetas persiste una narrativa en la que se reafirma el repudio a la prensa.

“La relación semántica entre las palabras más utilizadas en ambos hashtags muestra una persistente expresión de “repudio” hacia la prensa y esparce la idea de que el presidente está siendo injustamente atacado”.

Imagen 1. Nube de palabras del HT #Prensafifí.Imagen 2. Nube de palabras del HT #Chayoteros. Elaborado por Signa_Lab

#REFORMATODOLODEFORMA

Una de las activaciones más destacadas de la #RedAMLOve fue el posicionamiento de la etiqueta #ReformaTodoLoDeforma en respuesta a una nota publicada por este medio de circulación nacional entre el 31 de enero y el 7 de febrero de este año. A partir de la intensa movilización que generó esta etiqueta Signa_Lab recuperó 98 mil 806 tuits en los que encontró comportamientos atípicos de usuarios.

La discusión sobre el diario Reforma articuló tres etiquetas: #ReformaTodoLoDeforma, #NoSoyBotSoyReal y #RedAmlove, en las que se identificaron a través del empleo de varias metodologías que incluyen las herramientas Atrapabot, Botometer y Proton Pack cuatro categorías entre otros cruces de información cuatro categorías de comportamientos atípicos entre los usuarios de esta red:


Grafo 3. Relaciones Usuario a Hashtag #RedAMLOVE, #NoSoyBotSoyReal y #ReformaTodoLoDeforma. Elaborado por Signa_Lab

Master of ceremony (MC): Generadores de contenido que marcan o definen las tendencias que posiciona la red.

Usuarios identificados como MCs. Elaborada por Signa_Lab.

Coro (Bots o semibots): Son los que se encargan del apoyo masivo a travésd el “me gusta” y el retuit.

Usuarios identificados como bots. Elaborada por Signa_Lab

Troll: Son las cuentas empleadas para atacar a otros usuarios.

Usuarios identificados como troles. Elaborada por Signa_Lab

Fans: Se suman al apoyo masivo al confiar en los líderes del grupo. “Son cuentas reales, de personas, seguidores o simpatizantes que no participan de la lógica inorgánica o atípica en una tendencia, pero que confían en los contenidos promovidos por los MC’s y por tanto, tienden a retuitear (elevado grado de salida), sumándose a una tendencia sin dimensionar la estrategia con la que se están aliando”, expresó Signa_Lab.

En este sentido, el análisis concluye que: #RedAMLOVE es una operación sofisticada de producción de narrativas políticas a través de, por lo menos, tres dimensiones:

Replicación automatizada de contenido.
Ataques y confrontación.
Producción de agenda y encuadre”.

El laboratorio sitúa esta práctica dentro de una dinámica que se genera a nivel global, ya que “la producción de trending topics o tendencias, la creación y uso de cuentas conocidas como “troles” para dirigir ataques contra cuentas específicas o temas “incómodos” para ciertos grupos de poder”, han proliferado no solo en México, sino en el mundo.

Estas estrategias tampoco son nuevas en el entorno nacional, ya que según el laboratorio guardan similitud con las que se generaron durante el sexenio de Enrique Peña Nieto en que se introdujo el término “peñabot” y se documentó la existencia de prácticas en las redes sociales que tenían como objetivo acallar voces.

“Durante la gestión de Enrique Peña Nieto (2012-2018), fueron constantes los casos del uso de estas estrategias, en este periodo se acuñó el término “peñabot” que incluso cuenta con una entrada en Wikipedia”, se señala en el estudio.

Sin embargo, en el caso de la #RedAMLOve, el contexto político en el que se activa esta red contribuye a polarizar la discusión a un punto en que la intensa hostilidad hacia lo que se califica como anti-AMLO repercute en la generalidad de usuarios que simpatizan con el tabasqueño, según los resultados de este análisis:

“Uno de los efectos de los ataques coordinados y masivos sobre usuarios que discrepan o difunden información juzgada como anti-amlo por parte de esta red, es que contribuye a generar una imagen negativa de los seguidores de AMLO. Pues varios mensajes son altamente ofensivos o incluyen amenazas.

Signa_Lab no descarta que en el interior de la #RedAMLOve se genere una  dinámica de manipulación, que podría ser resultado de un intento de desligitimar a los seguidores del Presidente, o si sea otro el objetivo:

En el caso de la tendencia #ReformaTodoLoDeforma, resulta difícil saber si hay un uso intencionado de la “red” pro-AMLO para deslegitimar la imagen de los y las seguidoras de la 4T7 , o si, por el contrario, la adhesión a la red y sus mensajes, aglutina una representación adecuada de dichos seguidores. De cualquier modo, consideramos que esto no favorece en absoluto a la imagen del gobierno y específicamente a la del presidente, y que, por el contrario, abona al clima innecesario de polarización.

Entre las consecuencias que fueron identificadas por el laboratorio de análisis de redes sociales, se encontró que la activación de los ataques de la #RedAMLOve podría generar  prácticas de autocensura en usuarios críticos al Gobierno federal para evitar el trato hostil.

“Otro de los efectos es producir un cerco coercitivo en relación con la información u opiniones críticas hacia a AMLO, de modo que a éstas les resulte cada vez más difícil producirse, en primer lugar, sin esperar las represalias de la red. Lo cual puede resultar en que las voces críticas, necesarias en una democracia, se replieguen dada la virulencia de los ataques (como en sexenios anteriores en que un ejército de bots y troles se usaba para acallar la crítica y la disidencia)”, concluye el estudio.

Aumento en esperanza de vida y uso de dispositivos inteligentes revolucionarán el cuidado de la salud

jueves, junio 14th, 2018

Con el aumento de la esperanza de vida y el consecuente envejecimiento de la población son numerosos los retos que se le plantean a la Humanidad y la tecnología podría servir de aliado para, por ejemplo, prevenir problemas de salud o realizar importantes avances médicos gracias al “big data” (inteligencia de datos).

Por Paula Escalada Medrano

Shanghái, China/Ciudad de México, 14 de junio (EFE).- Auriculares que miden la frecuencia cardíaca, una máscara que ayuda a dormir o tiritas que monitorean la temperatura de los bebés, son algunos de los aparatos que están surgiendo de la mezcla entre tecnología y salud, un sector que, según los expertos, vivirá una revolución en los próximos años.

Con el aumento de la esperanza de vida y el consecuente envejecimiento de la población son numerosos los retos que se le plantean a la Humanidad y la tecnología podría servir de aliado para, por ejemplo, prevenir problemas de salud o realizar importantes avances médicos gracias al “big data” (inteligencia de datos).

Así lo aseguraron hoy varios expertos participantes en CES Asia, la principal feria tecnológica del continente que se celebra estos días en la ciudad china de Shanghái.

La salud está siendo uno de los principales temas que se están tratando y decenas de empresas locales e internacionales están presentando las últimas novedades en este sector.

Aparatos como Senviv, de la compañía china Shenzhen Institutes of Advanced Technology, un sensor que se pone debajo de la almohada al dormir y monitorea el sueño, controlando la respiración y la frecuencia cardiaca.

O los auriculares diseñados por la también china RenNuo, que se convierten en un medidor de la frecuencia cardíaca. Según explicó a Efe Su Tong, encargada del desarrollo internacional de la marca, están destinados a pacientes con problemas cardíacos que tienen que estar constantemente en alerta.

“La tecnología es muy importante para salvar vidas, nos ayuda a tener una vida mejor y más segura”, apuntó.

El Care Patch, un sistema diseñado por la empresa china Hangzhou Proton Technology, es otro de los aparatos que se muestran en la feria. Es un sensor que, con la forma de una tirita, se adhiere a la piel del bebé, monitorea su temperatura, envía los datos automáticamente al móvil de sus padres y alerta ante cualquier anomalía.

Puesto que lo importante es comenzar la prevención desde la infancia, hay también numerosos artículos destinados a los niños, como el coreano Big 9 Health Care, un aparato con forma de cinturón de superhéroe que, no solo promete evitar la obesidad de los niños sino que también asegura que si lo usan crecerán hasta diez centímetros más.

Todo ello con una serie de ejercicios que le ayudan a mantenerse activos y evitar con ello la obesidad. El aparato también monitorea las habilidades físicas de los niños.

“Conforme la esperanza de vida está aumentando y la población está envejeciendo, la clave es mantener a la población activa durante el mayor tiempo posible”, apuntó Charla Stracener, experta en análisis cognitivo y avanzado de IBM, participante en una de las charlas ofrecidas en la feria.

Así, agregó, es tiempo de “dejar atrás la era de hombre ‘versus’ máquina y pasar a la era de hombre ‘plus’ máquina. Optimizar la inteligencia, optimizar a los humanos”, todo ello con un objetivo dual, salvar vidas y tener una asistencia sanitaria más eficiente.

“El objetivo principal es salvar vidas y mejorar la calidad de las vidas y si eso también ahorra el dinero de la gente y de los sistemas de salud, pues es maravilloso”, dijo a Efe la experta tras su presentación.

En la charla también participó Maarten de Rijk, director del holandés ICAI (Innovation Center for Artificial Intelligence), quien habló sobre la importancia del uso de la inteligencia artificial en la clasificación de investigaciones médicas.

Una buena criba de documentos puede ahorrar cientos de horas a los expertos, que pueden emplear su tiempo en cosas más productivas y humanas como la atención y el contacto directo con los pacientes, explicó.

“La perspectiva que tengo de la inteligencia artificial es que no es ciencia ficción. Tiene que ser utilizada como muchas herramientas que tenemos hoy en día, nos ayuda a hacer las cosas mejor, nos ayuda a extender las habilidades que tenemos, llevarlas a otros niveles, es un aumento de nosotros”, agregó.

 

Qué es el Big Data y cómo lo alimentas cada día en tus redes sociales

domingo, junio 18th, 2017

A grandes rasgos, el Big Data se trata del análisis y gestión de volúmenes masivos de datos, convirtiendo el dato en información útil y valiosa para la toma de decisiones, también en tiempo real, aportando numerosas oportunidades a las empresas en su proceso de transformación digital, desde la mejora en captación de talento al seguimiento de la conducta de los clientes.

Por Andrea Núñez-Torrón Stock

Ciudad de México, 18 de junio (SinEmbargo/Ticbeat).- Muchos usan el vocablo sin comprender a ciencia cierta su significado, aunque saben que está asociado a la vorágine de información ligada a la era digital, imposible de ser procesada por sistemas analíticos convencionales. A grandes rasgos, el Big Data se trata del análisis y gestión de volúmenes masivos de datos, convirtiendo el dato en información útil y valiosa para la toma de decisiones, también en tiempo real, aportando numerosas oportunidades a las empresas en su proceso de transformación digital, desde la mejora en captación de talento al seguimiento de la conducta de los clientes.

El Big Data penetrará cada vez con más fuerza en nuestro día a día, ya que mediante toda clase de gadgets, aparatos y plataformas -redes sociales, formularios, smartphones, aplicaciones móviles, emails, encuestas, dispositivos conectados al Internet de las Cosas– generamos gigantescos conjuntos de datos estructurados, no estructurados o semiestructurados que modificarán la manera en la que las marcas interactúan con nosotros según nuestros deseos, necesidades y preferencias. Sin ir más lejos, más de 22 millones de españoles se conectaron a Internet todos los días durante 2016, tal y como refleja un informe de Telefónica.

¿QUÉ SE ESPERA DEL BIG DATA?

Entonces, ¿cómo nos afecta el Big Data en nuestro día a día? Desde luego, mucho más de lo que crees, e irá en aumento dado el valor que crece de forma exponencial ligado a los datos, algo que muchos ya califican como el petróleo del siglo XXI. Cada día o semana proporcionas información de toda clase a compañías como Google, Apple, Facebook o Amazon, las cuales pueden explotar tu comportamiento y conocer tus intereses.

Cuando sales a hacer running con tu smartwatch, este calcula tus pulsaciones por minuto; cuando vas a un restaurante de moda, subes la foto de tu hamburguesa a Instagram; al saltar en tu concierto favorito, es probable que lo retransmitas mediante Snapchat o Stories; al ir de viaje empleas Google Maps para encontrar tu hotel o explorar monumentos famosos; incluso, puede que vuelques tu ideología política u opinión a través de la red social de microblogging Twitter o compartas en Facebook datos sobre tus vacaciones, tus marcas de ropa favoritas o tus planes para el próximo fin de semana. Recapitula: ¿cuánta información tuya vuelcas a la red y crece conforme el tiempo avanza?

EJEMPLOS DE CÓMO GENERAS DATOS EMPLEADOS POR EL BIG DATA

El Big Data se caracteriza por la generación de un gran volumen de datos a una gran velocidad -incluso en tiempo real- y con una gran velocidad de actuación, algo que forma parte del paradigma del mundo hiperconectado en el que vivimos. De la información que aportamos de forma constante nacen toda clase de indicadores que sirven para la elaboración de tendencias, predicciones, segmentos de público objetivo o toma de decisiones.

Pongamos algunos ejemplos de todas las veces que en tu día a día creas y aportas información orientada al Big Data:

  • Navegación web: Cuando navegas por una plataforma en la red -ya sea un medio de comunicación digital, un blog o una tienda online- dejas huellas de tu comportamiento como usuario a través de los lugares en los que haces clic, las secciones en las que pasas más tiempo, los lugares desde los que aterrizas en la landing page, los dispositivos desde los que accedes, la velocidad, el tiempo de permanencia en la página, etc… Todos estos datos son valiosísimos para la analítica web.
  • Redes sociales: Las plataformas sociales en las que tienes un perfil pueden ser monitorizadas para extraer datos valiosos y dibujar tu perfil o las principales tendencias para una marca o mercado. Las publicaciones a las que le das Me gusta, las páginas que sigues, la información que compartes, el contenido que compartes públicamente o tu lista de amigos, a´si como tu actividad, son sumamente útiles para el Big Data. En este artículo podrás conocer todo lo que Facebook no quiere enseñarte.
  • Búsquedas de Google: Las palabras clave que empleas, tus dispositivos y formas de acceso, los enlaces en los que haces clic o los anuncios que despiertan tu atención son información muy valiosa, además de determinante para el posicionamiento SEO.
  • Sensores inteligentes e Internet de las Cosas: Desde tu reloj inteligente, los aparatos biomédicos, tu smartphone y tu tablet, el GPS, los electrodomésticos inteligentes o los asistentes de conducción para tu coche conectado… Todos estos dispositivos contienen numerosa información personal, que se incrementará de forma considerable conforme se multipliquen los dispositivos conectados que tiene cada persona: este 2017 acabará con 8 mil 400 millones.
  • Información personal: Tus registros de facturación, las llamadas, la actividad en redes o los formularios que cubres. Existen empresas que comercializan -en muchos casos de forma poco ética o incluso ilegal- tu información personal, ya que tu huella digital es sumamente valiosa para las marcas, incluyendo tus intereses, afinidades políticas, creencias, gustos, poder adquisitivo o línea ideológica. Ni siquiera ver porno en el modo incógnito es tan privado como crees.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE Ticbeat. Ver ORIGINAL aquí. Prohibida su reproducción.

El big data, la herramienta al servicio del turismo mexicano

viernes, diciembre 2nd, 2016

El estudio ‘Big Data y Turismo’ ha permitido identificar las tendencias y productividad de los destinos turísticos en México para fortalecer el diseño de las políticas públicas en el sector.

El sector turístico en México podría verse potenciado gracias al 'big data'. Foto: eldiario.es

El sector turístico en México podría verse potenciado gracias al ‘big data’. Foto: eldiario.es

Ciudad de México, 2 de diciembre (SinEmbargo/ElDiario.es).- El big data, esa ingente cantidad de datos que genera la actividad cotidiana digital a través de la tecnología, sigue mostrando cómo su adecuado análisis abre nuevas puertas que ayudan a impulsar determinados sectores. Es el caso de un proyecto pionero en México que identifica las tendencias y productividad de los destinos turísticos del país presentado recientemente por BBVA Bancomer y la Secretaría de Turismo del país americano (SECTUR). El estudio permitirá a las autoridades mexicanas fortalecer el diseño de las políticas públicas y mejorar el crecimiento ordenado de su actividad turística.

Bajo el nombre Big Data y Turismo, y desarrollado con la colaboración del centro de excelencia analítica de datos BBVA Data&Analytics, el estudio ha recopilado en una primera etapa información sobre el comportamiento comercial de 86 millones de usuarios de tarjetas bancarias nacionales y extranjeras durante un año. A través de 12 análisis estadísticos se ha estudiado lo que ocurría en 111 Pueblos Mágicos y los principales corredores turísticos del país.

Los usuarios de la tecnología generan gran cantidad de información contextual, georreferenciada y relacionada con la movilidad de los mismos. De ahí que el proyecto, siempre respetando la privacidad de los implicados, se haya centrado en el análisis de la huella digital de los visitantes. Así por ejemplo, se ha podido saber que los turistas extranjeros que más gastan proceden de EE.UU., seguidos de Argentina. Sus gastos se concentran fundamentalmente en Playa del Carmen, donde se registra cerca del 35% del gasto de los visitantes que llegan de otros países.

CONCENTRACIONES DE PAGO

Los turistas nacionales pagan con tarjeta sobre todo cuando realizan viajes o excursiones, mientras que los extranjeros utilizan este medio para actividades de entretenimiento. En Cancún y Playa del Carmen hay una concentración de la proporción del gasto total los viernes y sábados y un comportamiento estable durante toda la semana. En Isla Mujeres y Cozumel hay una proporción mayor de gasto por las mañanas.

Las conclusiones del estudio son informaciones que no son fáciles de obtener a través de las encuestas tradicionales. De ahí que estos resultados sean tan valiosos para el impulso del sector turístico en México, que representa el 8,7% del PIB. Pueden servir, por ejemplo, para ofrecer una mejor atención por parte de las empresas de bienes y servicios turísticos en las horas pico de gasto. Ayudarán también a anticipar los movimientos que realizan los visitantes a las islas del corredor turístico y la distribución del gasto dependiendo de la hora del día.

La información, la infraestructura, las visualizaciones, así como la base de datos, totalmente anonimizada, corresponden a los sistemas de pago electrónico procedentes de BBVA Bancomer. Tanto las herramientas analíticas, como los resultados y la generación de visualizaciones estadísticas y geográficas han sido desarrolladas por BBVA Data&Analytics y la Secretaría de Turismo de México. El proyecto, además, ha contado con expertos para la interpretación de las estadísticas y la elaboración de las conclusiones del estudio, que se ha desarrollado siguiendo de manera estricta las normas de protección de datos y privacidad de los usuarios de servicios financieros.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE ELDIARIO.ES. Ver ORIGINAL aquí. Prohibida su reproducción. 

¿Y si la inteligencia artificial necesitara al hombre para analizar Big Data?

lunes, agosto 8th, 2016

Buenas noticias para los humanos, y en particular, para los científicos de datos: hay cosas que la inteligencia artificial no hace del todo bien. Como clasificar Big Data que no es específico, ni clasificable en términos binarios.

Foto: Shutterstock

Al final la Inteligencia Artificial no va a ser problemática como parecía en términos laborales. Foto: Shutterstock

Por Lara Olmo

Ciudad de México, 8 de agosto (SinEmbargo/TICbeat).- ¿Y si la máquina necesitara al hombre? Llevamos meses oyendo que la Inteligencia Artificial (IA) y el Big Data acabarán sustituyéndonos en cualquier empleo, pero la realidad está demostrando otra cosa. Sus limitaciones para analizar ciertos datos e información ambigua hacen necesario al científico de datos, que se está convirtiendo en la figura que aquéllas necesitan para realizar un análisis completo.

Se ha escrito mucho sobre el Big Data, la información como el oro negro de nuestra era e incluso de la próxima burbuja en que podría convertirse. Tenemos ejemplos evidentes de lo que una compañía puede alcanzar si almacena información y además la interpreta bien para convertirla en una ventaja competitiva: ahí tenemos a Facebook, Amazon o Google, por citar algunos ejemplos.

Pero trabajar con grandes volúmenes de información en bruto no es nada fácil. Ello explica que casi el 80 por ciento de las empresas tengan datos almacenados sin sacarles ningún provecho. Para manejarlos es preciso conocer nuevas tecnologías y algoritmos de tratamiento de datos. Sin embargo, este no es lo que más preocupa a la mayoría de corporaciones que trabajan con Big Data.

El reto sobre todo está en la falta de tiempo y los recursos necesarios para preparar los datos, diferenciar la información útil de la que no lo es, detectar la duplicada y clasificarla. Todo ello forma parte de un largo proceso que los científicos de datos encaran a diario.

De acuerdo con una encuesta de Xplenty, el tiempo medio que dedican estos profesionales sólo en depurar los datos (para después analizarlos), es de entre el 50 y el 90 por ciento de su horario de trabajo. Por esta razón muchas compañías están optando por servicios y herramientas de Inteligencia Artificial para gestionar esta tarea.

Pero esta tampoco es la solución a todos los problemas con el Big Data. Resulta efectiva cuando el objetivo es concreto y específico, por ejemplo, clasificar cierto volumen de datos en dos categorías diferenciadas, como centros de datos y cloud computing. Sin embargo, su exactitud se reduce considerablemente cuando queremos que sepa diferenciar entre la nube como espacio de almacenamiento y la nube atmosférica.

En resumen, los algoritmos que emplea la IA responden bien en términos binarios o de clasificación entre “blanco-negro”, pero necesitan del trabajador humano, esto es, del científico de datos, para trabajar con elementos que se mueven en “grises” o no son tan evidentes. Por eso cada vez más empresas están apostando por proyectos de Big Data en los que máquinas y humanos trabajan estrechamente.

Al final la Inteligencia Artificial no va a ser problemática como parecía en términos laborales. Al menos en profesiones de mayor cualifiación.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE TICBEAT. Ver ORIGINAL aquí. Prohibida su reproducción.

Recopilar datos del consumidor para predecir la oferta: ¿hasta dónde es legal?

martes, marzo 1st, 2016

Big data: recopilar todos los perfiles de compra de los clientes, cruzarlos con sus datos personales y extraer conclusiones. El conocimiento profundo del consumidor permitirá, por un lado, predecir mucho mejor la oferta –y por tanto mejorar la logística y el almacenamiento–, y por el otro concebir técnicas de marketing más eficaces. Pero, ¿es legal?

Un hombre de compras. Foto: Cuartoscuro.

Un hombre de compras. Foto: Cuartoscuro.

Por Jordi Sabaté

Ciudad de México, 1 de marzo (SinEmbargo/diario.es).– Andrew Pole siempre fue un chico extraño para sus compañeros de instituto. Mientras el resto del colegio se dedicaba a jugar a fútbol americano, a ligar o a escuchar las canciones de moda durante los descansos, él se distraía resolviendo problemas de álgebra en una libreta o picando código para programas de ordenador. Estaba claro que su vocación de futuro iba a ser diferente de la del resto.

Con el tiempo, pasó por la universidad de Kansas City con notas brillantes, una licenciatura en estadística aplicada y un MBA en ciencias económicas. No le costó demasiado encontrar trabajo en Target, una cadena de hipermercados del medio oeste estadounidense famosa tanto por sus precios, tan bajos como sus sueldos. Sin embargo en 2012 Pole ocupaba allí también un puesto nuevo y distinto al de los demás: analista de datos.

Su misión era recopilar todos los perfiles de compra de los clientes, cruzarlos con sus datos personales y extraer conclusiones.

En una ocasión, unos directivos del departamento de marketing le preguntaron hasta dónde se podía llegar con toda aquella información. Pole entonces extrajo varias listas de compra correspondientes a una misma tarjeta de crédito y les aseguró que se trataba de una mujer y que estaba embarazada de pocos meses.

BIG DATA, EL MEJOR PREDICTOR

Lo concluyó por el tipo de productos adquiridos y los cambios progresivos en las compras efectuados en las últimas semanas. Los directivos llamaron a la persona en cuestión, quien tras la sorpresa inicial, aseguró que en efecto lo estaba, pero que se acababa de enterar hacía muy pocos días. En cambio, la última compra la había realizado dos semanas antes. Pole había predicho el embarazo antes que la barrita de Predictor. O mejor dicho, había sido el big data.

El de Pole es un caso paradigmático del análisis de datos personales de los clientes que en su día contó The New York Times. Pero ni es el único ni mucho menos el primero.

Ya en 2005, antes de que el huracán Katrina tocara tierra en Luisiana y pusiera patas arriba la ciudad de Nueva Orleans, la cadena de hipermercados Walt-Mart, también famosa por sus precios tan bajos como los miserables sueldos de sus empleados, había hecho los deberes cruzando datos meteorológicos con los historiales de compra de los clientes del sureste estadounidense.

De este modo, Walt-Mart pudo saber qué se iba a comprar masivamente en caso de desastre natural y realizó los pertinentes envíos a sus centros de la zona días antes de la llegada del devastador huracán. Resultado: fue el único centro de abastecimiento viable tras la catástrofe, superando en eficacia al ejército y la guardia nacional. En 2005 nadie hablaba del big data aún, pero en Walt-Mart ya sabían por dónde iría el futuro.

INVERSIONES MILLONARIAS

Ahora, en 2016, la cooperativa de distribución Consum, la primera del arco mediterráneo, acaba de llegar a un acuerdo con IBM para utilizar todo su paquete de herramientas de análisis de datos por un monto desconocido, pero se presume que no será pequeño.

“También El Corte Inglés se está gastando cientos de millones en adaptar sus almacenes para poder responder según los resultados que arrojen sus propios programas de análisis de los datos de sus cientos de miles de clientes”, cuenta Sergi de Pablos, cofundador y CTO -director técnico- del supermercado digital Ulabox.

De Pablos augura “un gran futuro” al big data aplicado a las compras en grandes superficies, ya que el conocimiento profundo del consumidor permitirá por un lado predecir mucho mejor la oferta -y por tanto mejorar la logística y el almacenamiento-, y por el otro concebir técnicas de marketing más eficaces.

Sin embargo, el CTO de Ulabox matiza que “no es big data todo lo que reluce, ya que se necesita como mínimo un terabyte de información -mil gigabytes- para que realmente se puedan sacar conclusiones acertadas de un análisis de datos serio”. De Pablos explica que una herramienta de análisis medianamente potente es bastante cara y por lo tanto le ha de merecer la pena a la gran superficie. “Para Ulabox, de momento, no es un planteamiento dado nuestro flujo de clientes, pero si yo fuera CTO de Caprabo o Mercadona, no lo dudaría”.

SUPERMERCADOS 

Durante un Buen Fin en México. Foto: Cuartoscuro.

Durante un Buen Fin en México. Foto: Cuartoscuro.

Este ingeniero informático describe la situación ideal para los supermercados: “que los carritos tuvieran insertado un chip trazable que nos permitiera conocer el recorrido que hace el comprador; dónde se para más rato, por dónde pasa de largo, que zonas le son preferentes, a qué velocidad va en cada zona”.

Sin duda un contexto que suena inquietante desde el punto de vista de la privacidad y del uso de las personas para experimentación psicológica sin su permiso, como si el fantasma del Gran Hermano vagara entre los lineales.

Pero sería perfectamente legal siempre que esta información no tuviera ni nombre ni apellidos, o si los tuviera, obraran única y exclusivamente en poder de los servidores de la gran superficie.

De hecho, este tipo de estudios ya se han dado en la cadena británica de supermercados Tesco, gracias a determinados usuarios que se prestaron a realizar un test de compra sin pasar por caja.

A estos clientes les bastaba con el escaneo de los productos en un lector/datáfono incluido en el carrito, en el que al terminar se insería la tarjeta de crédito y se pagaba sin hacer colas. Privilegios a cambio de datos precisos.

Pero también Ulabox, por su condición digital, puede realizar con sus clientes un seguimiento detallado de sus pasos por la web para saber qué es lo primero y lo último que buscan, en qué rango de precios se mueven, cuáles son los apartados donde más comparan, etc.

“En función de estos datos, podemos hacer que aparezcan durante su navegación determinadas ofertas, promociones o recomendaciones”, explica De Pablos, quien añade que adicionalmente pueden conducir al comprador a otros sectores que normalmente no visita si creen que finalmente entrará a comprar. Por ejemplo, pueden seducirle para que acabe comprando frescos o verdura también en su sitio.

¿HASTA QUÉ PUNTO ES LEGAL? 

Quizás el punto más polémico de esta nueva actividad derivada de la recolección de datos personales es dónde queda la privacidad y el anonimato del ciudadano. Al fin y al cabo, si con el tratamiento de big data consiguen darnos un mejor servicio, nosotros también sacamos un rédito de la cesión. Pero, ¿donde esta la línea que separa el análisis de la violación de la intimidad?

Según el Dictamen 3/2013 del Grupo de Autoridades Europeas de Protección de Datos (GT29), “la toma de decisiones basadas en Big Data podría incrementar el desequilibrio de poder ( power imbalance) entre las grandes empresas y corporaciones, por un lado, y los consumidores, por otro”.

En otras palabras, a las agencias de protección de datos europeas les preocupa que esta “orientación” o servicio que nos hacen las empresas acabe siendo una manipulación de nuestra voluntad, ya que les estamos dando las herramientas para poder hacerlo.

El Grupo Internacional de Trabajo sobre Protección de Datos en el sector de las Telecomunicaciones (Grupo de Berlín) elaboró en 2014 un documento de trabajo sobre big data y privacidad ( Privacy principles under pressure in the age of Big Data analytics), en el que destacaba una serie de principios clave cuyo respeto y observancia es básico:

–Principio de legitimidad y consentimiento: para que el tratamiento del dato personal sea legítimo el afectado ha de prestar su consentimiento inequívoco.
–Principio de limitación de la finalidad: los datos han de ser utilizados sólo para la finalidad para la que fueron recabados.
–Principio de calidad: datos adecuados, pertinentes, no excesivos, exactos y actualizados.
–Principio de minimización de los datos: datos no excesivos, utilizar sólo los datos necesarios para cumplir el fin con el que se recaban y no más.
–Principio de información o transparencia: derecho del ciudadano de conocer y acceder a toda la información que se posea sobre él mismo.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE DIARIOES. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

Exceso de datos obliga a empresas a crear un nuevo puesto: el CDO

jueves, enero 28th, 2016

El auge del big data y la necesidad acuciante de gestionar correctamente toda la información que manejan las empresas en la actualidad, ha obligado a las organizaciones a crear un puesto específico para abordar este paradigma.

Chief Digital Officer Foto: Shutterstock

Una lista de cargos directivos a la que se añade una nueva posición: el CDO, o Chief Data Officer. Foto: Shutterstock

Por Alberto Iglesias Fraga

Ciudad de México, 28 de noviembre (SinEmbargo/TICBeat).– La firma de análisis Gartner estima que el 90 por ciento de las grandes empresas tendrán un CDO en su organigrama de cara a 2019

La aparición y democratización de las nuevas tecnologías en las empresas ha ido creando toda una sucesión de perfiles profesionales, tanto en puestos de ejecución como en mandos intermedios y en la línea directiva. Así, desde hace ya muchos años, siglas como CIO (Chief Information Officer) o CSO (Chief Security Officer) no son ajenas al organigrama de la mayoría de grandes compañías.

Una lista de cargos directivos a la que se añade una nueva posición: el CDO, o Chief Data Officer. Y es que, el auge del big data y la necesidad acuciante de gestionar correctamente toda la información que manejan las empresas en la actualidad, ha obligado a las organizaciones a crear un puesto específico para abordar este paradigma.

No en vano, la firma de análisis Gartner estima que el 90 por ciento de las grandes empresas tendrán un CDO en su organigrama de cara a 2019. De hecho, la explosión de este nuevo cargo ya se está viviendo, en tanto que ya existen mil directores de datos en todo el mundo, frente a los apenas 400 CDO que existían a finales de 2014.

UN NUEVO DIRECTIVO TIC

A pesar de la necesidad clara de contar con un profesional especializado en explotar al máximo las capacidades de la actual explosión de datos, lo cierto es que las perspectivas que les esperan a estos directivos no es la mejor, al menos en sus primeros años.

En ese sentido, la misma firma de análisis estima que apenas el 50 por ciento de los CDO tendrán éxito a finales de 2019. De este modo, la mayoría de estos nuevos perfiles aún estarán adaptándose a su recién estrenada posición y estableciendo una estrategia corporativa para abordar el big data. Por ello, aún habrá que esperar para comenzar a palpar el trabajo de estos CDO.

Asimismo, Gartner cree que la confluencia de grandes expectativas y un conocimiento limitado alrededor de la gestión de la información por los directivos de negocios puede hacer que sea difícil para los CDO obtener el presupuesto y confianza por parte de la empresa que necesitan para hacer sus planes sean un éxito.

PRINCIPALES FUNCIONES DEL CDO

Pero, la gran pregunta que cabe hacerse es saber cuáles son las funciones del día a día que tendrán que desempeñar los CDO. Entre ellas destacan:

  • Crear una estrategia de gestión de información corporativa sobre la base de la estrategia de negocio y tecnología de la organización.
  • Trabajar sin descanso para construir una relación de confianza con el resto de directivos de la empresa, en especial el CIO y el CEO.
  • Educar a los principales líderes y compañeros sobre el papel que los datos y la información juegan en el éxito de la empresa.
  • Establecer líneas para la gestión y la monetización de los datos de la compañía.
  • Establecer métricas cuantificables sobre el aprovechamiento de los datos.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE TICBeat. Ver ORIGINAL aquí. Prohibida su reproducción.