El tratamiento masivo de datos mediante Aprendizaje Automático o Machine Learning nos permite predecir comportamientos en personas, dispositivos y, en general, cualquier tipo de proceso. A diferencia de los lenguajes de programación, basados en un conjunto exhaustivo de sentencias del tipo “haz esto cuando pase lo otro”, los algoritmos de ML aprenden reglas extraídas de patrones ocultos bajo grandes volúmenes de datos que les han servido de entrenamiento.

Mientras más datos le suministremos para ello, variados, bien balanceados y de calidad, más elevado será el nivel de precisión alcanzado, más se acercará a la realidad que queremos abstraer y, por tanto, ofrecerá mejores resultados a la hora de predecir comportamientos futuros. Pero, ojo, esto no significa que “vean” el futuro. Tan solo el ser humano es capaz de imaginar un futuro y, esto lo hacemos casi del mismo modo, es decir, basándonos en experiencias pasadas, felices pero también amargas.

Aunque no exista como término aceptado por la RAE, se denomina interpretabilidad como la capacidad de un algoritmo para ser entendible, es decir, capaz de ser explicado correcta y coherentemente. En general, los algoritmos menos complejos (árboles de decisión, regresiones lineales…) son más interpretables, mientras que las redes neuronales y de soporte vectorial son más complejas, requieren mayores rangos de procesamiento y de datos y se comportan al modo de una caja negra: sabemos los datos de entrada y los resultados de salida, pero desconocemos qué ocurre en el interior.

Los algoritmos han llegado para quedarse, afectan a la vida de las personas y tienen implicaciones éticas muy importantes para el futuro de determinados colectivos, como muy bien explica Cathy O’Neil  en su libro Weapons of Math Destruction. Es por ello que hay ocasiones en las que es mejor sacrificar precisión en los modelos en aras de una mayor interpretabilidad. Esto derivará en clientes más informados y esto genera más satisfacción.

Las consecuencias de este balanceo y su repercusión, en términos vitales o profesionales, para personas o colectivos, la tuvieron en cuenta nuestros políticos europeos cuando decidieron desarrollar un Reglamento General de Protección de Datos (RGPD), efectivo desde el pasado 25 de mayo. Conocido por su amplia protección sobre la privacidad de los datos personales frente a la situación en otros países menos regulados, como USA, Rusia o China, define en su articulo 22 nuestro derecho a no estar sometidos únicamente a una decisión autónoma. Aunque los titulares de prensa dicen que el RGPD nos faculta a exigir una explicación sobre la lógica subyacente, es cierto que este derecho a estar informado es ambiguo y limitado, necesitando un mayor desarrollo legislativo futuro. En cualquier caso, los encargados de diseñar e implementar los algoritmos de aprendizaje automático que afectan a sujetos humanos son responsables de comprender y explicar cómo funcionan.

Necesitamos traductores analíticos, personas que hagan de puente entre los expertos en marketing, cadena de suministro o producción, y los expertos en ciencia de los datos para darle foco y valor a los proyectos de Big Data y analítica que se acometan en las empresas. Y eso no es todo. Necesitamos, además, auditores analíticos, capaces de escrutar los resultados de los algoritmos y validar que son, no solo acordes a los objetivos de negocio, sino interpretables y explicables a los clientes. En ambos casos, lo más aconsejable es desarrollar esos perfiles dentro de la propia organización, complementando su conocimiento de procesos del negocio con capacidades analíticas adquiridas mediante formación externa. Decidamos con tiempo ahora, antes de que la competencia nos fuerce a ello.

 

Juan Ignacio de Arcos juan ignacio de arcos EOI

Strategic Advisor – BigML

Director de los Programas Ejecutivos Big Data & Business Analytics EOI en Andalucía

 

Artículo incluido en el número de diciembre de la revista Agenda de la Empresa