L’IoT a vécu. Place à l’IQT. Dell aux commandes
IQT -IQ pour intelligence. Dell Technologies fait évoluer le paradigme de l’IoT. Et signe la fin des architectures cloud centralisées. Une démarche qui fait sens.
«On a besoin de serveurs, de capteurs et de passerelles avec intelligence embarquée qui peuvent effectuer des tâches de calcul localement. Il faut aussi un niveau de calcul intermédiaire ‘near the edge’, le ‘distributed core’ capable d’effectuer du calcul en temps réel…» Ainsi s’exprimait Michael Dell lors du récent IQT Day à New-York.
Schématiquement, le «core» doit fonctionner comme une colonne vertébrale de l’objet et du service associé; c’est une forme d’intelligence déportée qui ne nécessite plus que l’objet soit connecté en permanence. Chaque nœud du réseau contribue à la force de l’ensemble du réseau : plus il y a de nœuds «intelligents», plus le réseau est «collectivement» intelligent.
L’IoT aurait donc vécu. Place à l’IQT -IQ pour intelligence. C’est l’intelligence artificielle qui fera la différence. Concrètement, pour Dell Technologies, l’IQT va se structurer autour d’une architecture à trois niveaux avec, situé entre d’un côté les passerelles proches du terrain qui recueillent les données issues de capteurs avec un premier niveau de traitement, et de l’autre les logiciels dans le cloud, un système intermédiaire de serveurs distribués, où des algorithmes d’intelligence artificielle et d’apprentissage automatique seront installés. A la clé, une nouvelle manière de concevoir l’informatique industrielle -au sens large du terme- avec la mise en œuvre de cœurs de calcul distribués capables de traiter en temps réel les informations issues de véhicules, de robots, d’équipements médicaux… En somme, un maillage de serveurs embarqués distribués, à diverses échelles, très réactifs et complétement décentralisés, contrairement au modèle hyper-centralisé de prestation de services informatiques du cloud.
La fin des architectures centralisées
Alors que de plus en plus de clients cherchent à transformer digitalement leur entreprise, un nouveau modèle d’informatique est en train d’émerger. Au cours des quinze dernières années, l’industrie informatique a vu l’essor du cloud computing, un modèle très centralisé de prestation de services informatiques. Mais à une époque où tout type d’appareil, des téléphones aux voitures en passant par les ampoules, les thermostats et les moniteurs cardiaques, est vivante et intelligente, il y a un besoin de traitement en temps réel de l’information, assure Dell Technologies. Ces dispositifs ne peuvent tout simplement pas attendre une réponse d’une infrastructure cloud centralisée.
Intel, Nvidia et Microsoft partagent la même vision. D’autres aussi ont déjà axé leurs efforts sur le «edge computing». Dell Technologies n’avance d’ailleurs pas la paternité du concept. En revanche, le groupe de Michael Dell revendique le «plus gros écosystème IoT de l’industrie tech», il ne part pas de zéro pour imposer sa vision.
Tout est en place !
De fait, Dell Technologies fournit d’ores et déjà des passerelles Edge Gateways, qui peuvent être sécurisées et administrées via VMware IoT Control Center. Les serveurs Dell EMC PowerEdge C-Series ont été perfectionnés pour l’apprentissage en différé et le machine learning. Les solutions Dell EMC Isilon et Elastic Cloud Storage (ESC) assurent le stockage au niveau du fichier et de l’objet pour de grandes quantités de données et permettent le traitement analytique via HDFS. Pivotal Cloud Foundry (PCF) et Pivotal Container Service (PKS) offrent une plate-forme idéale pour le développement de nouvelles applications analytiques dans le Cloud. Virtustream PCF Service permet une gestion de Pivotal Cloud Foundry Service, simplifiant ainsi le déploiement et l’exploitation de tâches de travail critiques architecturées pour le cloud dans Virtustream Entreprise Cloud, tandis que Virtustream Storage Cloud est disponible pour le stockage objet hors site. Enfin, Dell Boomi interconnecte rapidement les données pertinentes afin d’enrichir l’analytique Cloud et le deep learning.
Tout est en place. Des services spécifiques sont également en cours de développement tels qu’IoT Vision Workshop, qui permet d’identifier et de prioriser les cas d’utilisation professionnelle à forte valeur ajoutée, ou encore IoT Technology Advisory, destiné à développer des architectures IoT et à produire des feuilles de route d’installation.
Au moment de l’annonce, le 10 octobre, quelque 90 partenaires parmi lesquels des entreprises IT établies comme Intel, Microsoft ou SAP mais également des start-up comme Action Point (services IT et managés), IMS Evolve (machine management), Foghorn (edge computing) et Zingbox (sécurisation de l’IoT)- ont rejoint Dell Technologies. Et ce ne serait qu’un début. Le groupe souhaite à présent intégrer des partenaires au travers de toutes ses activités afin de permettre une collaboration et une mise en œuvre des projets plus faciles.
Axel Cleven
(envoyé spécial à New-York)
Les nouveaux produits vont émerger de plusieurs initiatives
Première mission : développer des serveurs Dell EMC PowerEdge série C spécifiques pour supporter des algorithmes d’apprentissage ou de machine learning dans les environnements «distributed core»; la gamme Isilon (EMC) et la solution Elastic Cloud Storage apportent le stockage objet et fichier pour de très gros volumes de données et permettent de faire de l’«analytics» à travers HDFS.
Mais la véritable innovation viendra de Nautilus, projet qui vise à développer un logiciel de traitement en temps réel des requêtes et des flots de données issus des passerelles, pour les rendre utilisables par les algorithmes d’analyse ou d’apprentissage automatique. Objectif : l’ingestion et l’interrogation des flux de données des passerelles IoT en temps réel. Les données peuvent ensuite être archivées dans le stockage de fichiers ou d’objets pour des analyses plus poussées
Fire, autre projet, a pour objectif le développement d’une plate-forme de gestion, de stockage et de calcul en local de données de l’IoT, fondée sur la famille des outils VMware Pulse et capable de «voir» une infrastructure, de la passerelle jusqu’au cloud. Fire permettra de déployer plus rapidement les cas d’utilisation de l’internet des objets et d’avoir des logiciels d’infrastructure cohérents, de la périphérie vers le cloud.
Le projet Iris, quant à lui, va s’intéresser à la sécurité globale des architectures IoT. En cours de développement dans les RSA Labs, Iris étendra la capacité de Security Analytics pour fournir une visibilité et un suivi des menaces directement sur le bord (edge).
Des technologies disruptives comme les accélérateurs de processeur augmenteront la vitesse de l’analytique plus proche du bord (edge). La collaboration avec des leaders de l’industrie comme VMware, Intel et Nvidia et l’investissement de Dell Technologies Capital dans Graphcore reflètent les opportunités d’optimiser les serveurs pour l’IA, l’apprentissage machine et la performance d’apprentissage en profondeur.
Dernier projet, Worldwide Herd vise à effectuer des analyses sur des données géographiquement dispersées -de plus en plus important pour permettre un apprentissage en profondeur sur des ensembles de données qui ne peuvent pas être déplacés pour des raisons de taille, de confidentialité et de préoccupation réglementaire.