Les détails sont rares, mais Intel affirme que les nouvelles puces amélioreront les temps de formation en apprentissage profond.
Lorsque l’IA a explosé, Intel n’a pas réagi. Aujourd’hui, ils tentent de réaffirmer leur position dans le monde du silicium en dévoilant une nouvelle gamme de puces, spécialement conçue pour l’intelligence artificielle, appelée Intel Nervana Neural Network Processor ou NNP en abrégé.
La gamme de puces NNP est comme une réponse au besoin d’apprentissage automatique et sa destination est les centres de données, pas les ordinateurs.
Les processeurs d'Intel sont peut-être un géant dans le domaine des serveurs (selon une estimation, Intel détient 96 % de part de marché dans les centres de données), mais les charges de travail actuelles de l'IA sont toujours dominées par les processeurs graphiques. Les graphiques ou les GPU proviennent de sociétés comme Nvidia ou ARM. En conséquence, la demande pour les puces de ces sociétés augmente. (Les revenus de Nvidia de l'année dernière à l'année prochaine ont augmenté de 56 %).
Google est intervenu en concevant sa propre puce Tensor Processing Unit pour prendre en charge le cloud computing, tandis que de nouvelles sociétés comme Graphcore au Royaume-Uni tentent également de combler l'écart.
La réponse d'Intel est d'acheter des talents en matériel d'IA. Ils ont acheté la société de vision Mobileye en mars, le fabricant de puces Movidius (qui fabrique des puces pour les avions autonomes de DJI) en septembre dernier et la startup d'apprentissage profond Nervana Systems en août 2016.

Intel investit massivement dans des spécialistes du matériel de puces IA
Depuis lors, ils se sont occupés du Neural Network Processor, anciennement connu sous le nom de Lake Crest. La puce NNP est le résultat direct de l’acquisition de Nervana et se concentre sur les experts pour obtenir « des temps d’apprentissage plus rapides pour les modèles d’apprentissage en profondeur ». (Intel a également déclaré avoir reçu des conseils de Facebook sur la conception des puces, mais n'a pas donné de détails. »
Intel n’a pas précisé à quel point leur modèle d’apprentissage en profondeur sera plus rapide. Alors que Google fait la promotion de sa nouvelle puce TPU en proposant des tests comparatifs avec ses concurrents, https://cloud.google.com/blog/big-data/2017/05/an-in-owned-look-at-googles-first-tensor- processeur-unité-tpu Intel a seulement déclaré qu'il était sur la bonne voie et qu'il atteindrait son objectif d'accélérer l'apprentissage en profondeur 100 fois d'ici 2020.
On ne sait toujours pas exactement quand la puce NNP parviendra aux utilisateurs.