EMPRENDER, INNOVAR, TRIUNFAR
miércoles, 19 de diciembre de 2018
Tecnología
El futuro está escrito en un algoritmo
La inteligencia define nuevos modelos de negocio.
Redacción TICPymes16/04/2018

La inteligencia artificial es el centro de los mensajes tecnológicos y corporativos, el nuevo estribillo de la estrategia digital. Las máquinas están aprendiendo el comportamiento de los consumidores y usuarios, adelantándose a sus aspiraciones, para hacerles la vida más fácil y permitirles acceder a un mundo de innovación sin fronteras.

Una carrera que han emprendido todos los fabricantes sin distinción, agregando el oxímoron ‘inteligencia artificial’ a su argumentario de negocio. Pero inteligencia artificial es más que una cantinela, es la gran revolución que la tecnología nos tenía reservada, el incesante desarrollo y que está dando vueltas a los negocios como si fuera un calcetín. Crecen los proyectos en torno suyo, y son muchas las empresas que han reforzado su cartera adquiriendo compañías y startups punteras en este ámbito. Es una ola que va alcanzando todas las áreas de actividad. Los proveedores velan armas para presentar sus nuevas criaturas con el apellido IA incrustado en la marca. Todos quieren salir en la foto de la inteligencia artificial, en albores de una tecnología que lleva probándose más de dos décadas pero que no hace tanto que ha aterrizado en los procesos corporativos en plena explosión de los datos.

PwC estima que las repercusiones de la IA en el mercado laboral español serán muy livianas a principios de la década de 2020

¿Todo es inteligencia artificial?

Cuando todos los agentes de un ecosistema se aferran a una misma bandera surgen dudas razonables sobre si todos venden lo mismo, o si hay más humo que leña en según qué caso. Algunas empresas categorizan en torno a la IA, pero ¿qué nivel de madurez tienen estas propuestas? Felipe García, alías Knowdler, un especialista en sistemas expertos en los noventa y en la actualidad creador de una aplicación de recomendación para Amazon, cree que es prematuro hablar de inteligencia artificial en sentido estricto. “Me considero muy purista, hay gente que cree que inteligencia artificial y machine learning son la misma cosa. Para mí, no hay IA si no hay una meta. Mi herramienta es una IA en ciernes y le quedan dos años para fijar las metas y saber que el sistema va correctamente orientado”.

Pero el juego no es solo cuestión de sistemas más o menos perfectos, sino que las personas sepan qué papel jugar y cómo deben interactuar con las máquinas. Recientemente se acaba de producir la primera víctima de tráfico atropellada por un coche autónomo de Uber, y se han multiplicado los recelos. Para Knowdler, sucede que la “la psicología de los usuarios todavía no está preparada para la inteligencia artificial”. Y por otro lado, las máquinas carecen de autoconciencia y todavía va a pasar mucho tiempo para alcanzar este hito. Como determina el experto: “Hasta que los ordenadores no sean autoconscientes tienen que pasar dos cosas: tiene que haber ordenadores cuánticos de bajo precio en los que los algoritmos puedan ensayar en múltiples escenarios y comprobar qué sucede en tiempo real. Ahora tenemos ordenadores costosos con los que hacer pequeñas simulaciones. Dentro de 25 años, con un ordenador cuántico podré estar simulando en tiempo real millones de escenarios y funcionando permanentemente como hace el cerebro”.

Aclarando términos

Lo que es indudable es que avanzamos hacia un escenario donde la inteligencia extraída de los datos sentará la base de los negocios, convirtiéndose en el nuevo patrón oro. Y en este cóctel hay que agregar unas cucharadas de redes neuronales, machine learning (ML) a discreción, sazonado de deep learning (DL) y unos buenos cocineros que sepan redondear la receta: efectivamente, los científicos de datos, esa rara avis que escasea en los páramos tecnológicos. Daniel Martínez Batanero, responsable de Smart Data y Compliance de Rural Servicios Informáticos, explica cómo se procede a su elaboración. “La red neuronal como tal es una caja negra, utilizamos redes neuronales con nuestras variables y nuestros datos. Hay que elegir muy bien las variables y quitarles todo el ruido. Una vez están claras estas variables que van a permitir que la red neuronal aprenda, probamos varias redes neuronales distintas para ver cuáles centran más el tiro y no dan resultados erráticos”. Algoritmo es la palabra mágica, un conjunto de reglas bien definidas que marcan el campo de actuación de los sistemas. Batanero, acude de nuevo a simplificar la explicación: “ML es un aprendizaje supervisado y DL es no supervisado”.

Pongamos el caso del ajedrez, el primero consiste en explicar a la máquina las reglas del juego para que aprenda a optimizar su uso. En el segundo caso, sería transferirle todas las jugadas de millones de partidas diciendo quién ganó y que sea la máquina quien establezca sus propias reglas. Estas nuevas reglas, presentadas como índices de probabilidad van engrosando la experiencia cognitiva de los sistemas.

En el sector financiero, DL tiene mucho que aportar, a partir de miles de interacciones que se hacen en banca móvil, es posible ‘adivinar’ si la persona que está utilizando ciertas credenciales es una intrusa o no. Los expertos de Gartner consideran el DL como el gran corrector del machine learning: “el aprendizaje profundo será un factor crítico para el mejor desempeño de la clase para la demanda, el fraude y las predicciones de fallos de los sistemas”. El aprendizaje profundo también hereda todos los beneficios del ML. Varios avances en los dominios cognitivos lo demuestran. Los servicios de voz a texto de Baidu están superando a los humanos en tareas similares; PayPal está utilizando el aprendizaje profundo como el mejor enfoque de la clase para bloquear pagos fraudulentos y ha reducido su tasa de falsas alarmas por la mitad, y Amazon también está aplicando un aprendizaje profundo para las mejores recomendaciones de productos de su clase.

Una tendencia imparable

Y es que cuando Gartner certifica una tendencia lo normal es que adquiera la categoría de dogma. Según la Agencia del CIO 2018, el 4% de los CIO ya ha comenzado a implementar tecnologías en este ámbito y un 46% ha desarrollado planes para iniciar su despliegue. La consultora pone énfasis en que hay que centrarse en las personas, que podrán liberarse de tareas tediosas y dedicarse a labores que proporcionen mayor valor añadido. Según sus estimaciones, en 2020, el 20% de las organizaciones dedicará trabajadores a monitorizar y guiar las redes neuronales. Whit Andrews, vicepresidente de investigación y analista de Gartner, está persuadido de que “será mucho más productivo que los profesionales se entusiasmen y participen con la idea de que el apoyo en la toma de decisiones impulsado por la inteligencia artificial puede mejorar y elevar el trabajo que realizan todos los días”. A pesar de la euforia mediática, todavía es pronto para darse un festín, la misma fuente señala que las organizaciones no están bien preparadas para implementar tecnologías de IA ya que carecen de habilidades internas en ciencia de datos, lo que les lleva a confiar en proveedores externos. La predicción es que, hasta 2022, el 85% de los proyectos de IA darán resultados erróneos por los sesgos en los datos, los algoritmos o los equipos responsables de su gestión.

El informe ‘Realidad y perspectivas de la IA en España, 2018’ elaborado por PwC en colaboración con Microsoft, a partir de encuestas a una treintena de grandes compañías españolas líderes en su sector, constata que solo un 11% de las compañías entrevistadas cuenta con los profesionales y las capacidades adecuados para poner en marcha iniciativas en el campo de la IA. Y, por consiguiente, seis de cada diez están buscando de forma activa los perfiles profesionales necesarios. Pero a la escasez de talento se suman otros obstáculos a la hora de apostar por la IA, como la falta de un modelo de negocio que les permita saber cuál es el retorno de la inversión; las dificultades en la gestión del cambio cultural dentro de la empresa, o la ausencia de un liderazgo claro a la hora de impulsar este tipo de iniciativas.

Enrique Serrano, CEO de MBIT School, apostilla, en relación con este tema, que “IA conlleva comunicaciones totalmente síncronas de muy baja latencia, automatización de procesos y analítica avanzada, por lo que se requieren perfiles profesionales en cada uno de estos campos, lo cual son combinaciones de conocimientos de telecomunicaciones, informática, matemáticas, estadística e ingeniería industrial”. Actualmente, no existe ningún plan de estudios en ninguna universidad que abarque por completo todas estas disciplinas. Esta es la razón por la que MBIT School ha lanzado el primer programa aplicado a la empresa en inteligencia artificial.

Empleo y ciberseguridad

IA concita también reticencias sociales en los ámbitos del empleo y de la ciberseguridad, pero los consultores no dramatizan. PwC estima que las repercusiones de la IA en el mercado laboral español serán “muy livianas a principios de la década de 2020”, en la que solo un 3% de los empleos podrían estar en riesgo por la automatización. Un ratio que aumentará hasta el 21% a mediados de los 20 y hasta el 34% a partir de 2030. El estudio estipula que afectará más a los trabajadores masculinos (39%) que a las mujeres (28%). En el largo plazo, la cosa cambia.

Por ejemplo, en las economías con mayor peso de la industria y, por lo tanto, con trabajos más fáciles de automatizar, el porcentaje de puestos de trabajos en riesgo -en la fase más avanzada- puede llegar al 44% en el caso del Eslovaquia, al 39% en el de Italia o al 37% de Alemania. “En otros países, donde la actividad está más concentrada en el sector servicios, como sucede en Estados Unidos, Francia o el Reino Unido, la proporción de trabajos en peligro será del 38%, 37% y 30%, respectivamente”, argumenta PwC. Sin embargo, en los del norte de Europa las estimaciones son algo más moderadas: Finlandia (22%), Suecia (25%) y Noruega (25%).

Otro campo candente es el de la ciberseguridad, dado que la industria del malware está sacando partido al aprendizaje automático para analizar miles de datos sobre sus víctimas y preparar las incursiones más sofisticadas. Ya están pergeñando ataques lentos y silenciosos con un efecto más devastador. Phil Quade, director de seguridad de la Información de Fortinet, lo explica gráficamente: “Los cibercriminales y los gobiernos rivales aprovechan cada vez más las técnicas automatizadas y polimórficas para aumentar la velocidad y la escala de su actividad dañina, mientras se evade la detección creando cientos de variantes de ataques zero-day para colapsar los sistemas de protección. Las empresas precisan de una forma de abordar estas técnicas y que aumenten los costes de los atacantes, mientras reducen sus propios gastos operativos”. Ironías de la tecnología, la lucha entre el bien y el mal se desarrolla en un tablero de algoritmos que utilizan técnicas idénticas para infligir la derrota al enemigo. Inteligencia artificial que necesitará del mejor talento para luchar contra fenómenos que asolan Internet como las fake news, el robo ingente de datos, suplantaciones de identidades, o la utilización de bots virales para destruir la reputación de una persona, de un país o una marca.

Computing 775