Social Media: 2017: Regreso al futuro con la Inteligencia Artificial y los Grandes Datos (Big Data)

miércoles, 8 de marzo de 2017

2017: Regreso al futuro con la Inteligencia Artificial y los Grandes Datos (Big Data)

A.I. Artificial Intelligence (album)
A.I. Artificial Intelligence (album) (Photo credit: Wikipedia)
A medida que avanzamos en 2017 y la mayoría de nosotros todavía estamos recuperando de la fiesta de Navidad, quiero pasar a lo largo de algunas áreas de enfoque para los gurús de datos en 2017. Estoy proporcionado algunas ideas de los analistas de la industria (Gartner, Forrester), Venture Capitalists, y las compañías de software multimillonarias que están impulsando la próxima ola de datos y análisis, como IBM, Microsoft y Amazon.


Edge Computing


El Edge Computing es una arquitectura distribuida de tecnología de la información (IT) en la que los datos del cliente se procesan en la periferia de la red, lo más cerca posible de la fuente de origen. El movimiento hacia la computación de borde es impulsado por la computación móvil, la disminución del costo de los componentes de la computadora y el gran número de dispositivos en red en el Internet de las cosas (IoT). Dependiendo de la implementación, los datos sensibles al tiempo en una arquitectura de cálculo de borde pueden ser procesados ​​en el punto de origen por un dispositivo inteligente o enviados a un servidor intermediario situado en proximidad geográfica cercana al cliente. Los datos que son menos sensibles al tiempo se envían a la nube para los análisis históricos, análisis de datos grandes (Big Data) y almacenamiento a largo plazo.

Como Inversor / VC, señaló Peter Levine, Edge Computing va a ser mainstream (cultura de masas) en un plazo muy corto. He aquí un breve resumen del ciclo de vida:

  •  El Mainframe marcó la era de la informática centralizada.
  • A continuación, los ordenadores personales (PCs) se hicieron cargo de la descentralización de los datos y la toma de decisiones.
  • La computación en nube se convirtió en la corriente principal, permitiendo capacidades simplificadas y centralizadas para los usuarios no técnicos para procesar datos complejos en la toma de decisiones empresariales.
  • La próxima generación serían dispositivos descentralizados (Inteligencia Artificial) que toman decisiones automáticamente o como Levine llama 'Data Center on Wheels'

La cantidad de datos que se recogen en los dispositivos de procesamiento complejos, como automóviles autodirigidos (Tesla y Uber) a dispositivos simples como zapatos y relojes, permitirá que los dispositivos piensen por su cuenta y sólo permitan a los seres humanos escoger las opciones.


Inteligencia Artificial


El lanzamiento de Home de Google, Alexa de Amazon y Cortana de Microsoft revela la inversión y la importancia de la IA y muestra el futuro del procesamiento de lenguaje natural (PNL). Mientras estaba revisando mis actividades de PNL en Google, me di cuenta de que si los datos se recopilan correctamente y se analizan, la IA puede ayudar en muchos aspectos diferentes de mi vida cotidiana personal como reuniones y citas, horarios de vuelo, fechas importantes como aniversarios y cumpleaños, y mucho más. Mientras que esto puede sonar asustadizo y rompa las leyes del aislamiento para mucha gente, para los millennials esto es apenas la manera natural de la vida.

Si Alexa puede provocar un algoritmo de búsqueda basado en una queja del cliente, identificar un modelo, y generar un orden de trabajo para un producto que se hace fabricado al por mayor, todos dentro del ecosistema AWS, las organizaciones pueden ganar beneficios financieros significativos junto con la lealtad de cliente reforzada. Si las organizaciones pueden conseguir todos estos datos del cliente, los nuevos modelos comerciales evolucionarán como el lanzamiento de campañas de mercadotecnia de B2C. Este también preparará el terreno para nuevos modelos comerciales que no poseen su propia mercancía, similar a Uber y Airbnb. Además, estos casos de uso proporcionarán oportunidades de modelos de proceso evolutivos de la transformación digital.


Internet de Todo (IoET)


Gartner predijo el futuro del IoT aquí. Los sensores conectarán millones de dispositivos peer to peer que proporcionarán muchas oportunidades para la próxima década de la informática (Levine, 2016). A medida que el procesamiento y la potencia de la computación disminuyan y la potencia aumente, el análisis de los datos del sensor en esta cadena de suministro será fácil de usar. Esto también proporcionará un mercado nuevo e interesante para los proveedores de servicios de TI para crear propiedades intelectuales específicas para una industria como la venta al por menor y la asistencia sanitaria. A medida que surgen nuevas amenazas de seguridad con IoET, los nuevos modelos de seguridad y gobernanza se adherirán a los riesgos y al cumplimiento. El análisis en tiempo real de secuencias y análisis de patrones creará decenas y miles de patrones de decisión en milisegundos.


 Analítica Big Data 


2017 será un año de mudarse al Big Data en la nube con tecnologías como AWS, Azure y Snowflake. Además, la analítica y la ciencia de datos de datos no estructurados se convertirá en corriente principal con estimaciones de gasto de casi $ 28 mil millones en 2019 (Informe IDC). Las pequeñas y medianas empresas que quieren aprovechar los datos no estructurados, y algunas grandes empresas que no quieren gastar en centros de datos, se moverán a un modelo basado en la suscripción. Además, la escalabilidad elástica con NO y NEW SQL aumentará rápidamente en 2017 con empresas pequeñas y medianas.


Democratización de los datos


Gartner prevé una oleada de herramientas de descubrimiento de datos para el 2017 con capacidades inteligentes de descubrimiento de datos para expandir el horizonte del BI de autoservicio y el análisis interactivo. A medida que la detección de patrones de datos estructurados y no estructurados se está convirtiendo en un componente crítico para el benchmarking, el marketing y el análisis de la competencia, los usuarios que tradicionalmente dependen de TI para construir análisis buscarán herramientas de descubrimiento de datos para crear sus propios algoritmos de detección de patrones. Además, los medios de comunicación social como Twitter y Facebook, y los datos comparativos como los data.com, clinicaltrials.gov y otras APIs abiertas de datos proporcionarán datos que se utilizarán para el análisis de mercado y crearán nuevos modelos de negocio bajo demanda.

La democratización también desempeñará un papel en la gestión de proyectos y el software. Durante décadas, la gestión de los proyectos ágiles se han centrado en la construcción del IU y el prototipado. Sin embargo, dado que la mayoría de las herramientas de datos incluyen opciones de interfaz de usuario fáciles de usar en la nube, el análisis ágil de los datos y la creación de prototipos tendrán un impacto agresivo en los plazos. Además, el círculo vicioso de los requisitos para la liberación se reducirá a días en lugar de semanas. Esto permitirá un mayor tiempo para valorar con un montón de puertas de escenario para evitar problemas de financiación y la inversión innecesaria.


Data Science


Uno de los más calientes y más citados conjuntos de habilidades para puestos de trabajo en LinkedIn fue el 'Data Science' en 2016. Esta tendencia sólo seguirá aumentando en 2017 a medida que el mundo avanza hacia la programación centrada en datos. Sin embargo, además de la ciencia de datos, habilidades blandas como la creatividad, la visualización, la presentación y la comunicación se convertirán en habilidades obligatorias que se enseñarán en las universidades, además de habilidades comunes como Hadoop, Spark, R y Python. Mientras que las máquinas nunca pueden reemplazar a los seres humanos, las máquinas pueden complementar la redistribución del trabajo humano con un enfoque en la toma de decisiones efectivas basadas en datos. Estoy buscando un gran 2017 y un emocionante año nuevo para la Inteligencia Artificial y el Big Data.

Articulos relacionados:

El Camino de un Data Scientist
Cloud Computing+Web Semántica+Datos Abiertos (III): Linked Data Cloud
El Papel de un Data Scientist Requiere de un Análisis Predictivo, Dice un Experto