La inteligencia artificial se comporta igual que cuando grabamos la información en nuestro disco duro, pero sin que mamá repita las palabras: no le hace falta, ya se las coreamos los demás con unos cuantos clicks en las fotos de semáforos o pasos de cebra de los formularios Captcha para probar que no somos androides cuando nos suscribimos a un nuevo servicio.

El machine learning va capacitando algorítmicamente al programa de Inteligencia Artificial para que reconozca tendencias, y lo alimentamos entre todos cuando consultamos Google o Spotify.
Poco a poco creamos nuestros propios trending topics, pero lo difícil es predecir lo inesperado: un ataque a las Torres Gemelas de Nueva York, un tsunami, el crack del 29.
Nicholas Taleb se hizo famoso cuando nos hizo pensar en las posibilidades de que existiera un cisne negro. Que no lo hubiéramos visto nunca no significaba que no existieran los cisnes negros, y con esa metáfora el matemático explicó que los acontecimientos inesperados, ocultos tras errores de confirmación y falacias narrativas, existen aunque nunca se hayan medido, ni siquiera detectado. Después se lo contó a Malcolm Gladwell en un capítulo de David y Goliat en el que le explicaba cómo se desgañitaban en su equipo por determinar el algoritmo ideal que predijera los pequeños movimientos en la bolsa, las mínimas oscilaciones que provocarían terremotos bursátiles que seleccionarían a ganadores y perdedores a uno u otro lado de la brecha económica. Lo que Taleb pretendía era eliminar a toda costa la posibilidad de que un cisne negro arruinase el dinero invertido en acciones.