Le succès du jeu Pokemon GO révèle la fragilité de nos infrastructures. Pour Schneider Electric, il faut développer le Edge Computing.
Le succès de Pokemon GO est incontestable, au point d’atteindre le déni de service. Premières victimes, les joueurs japonais et américains. En cause, trop de téléchargements ! De là, la frustration de milliers de joueurs en voyant apparaître le message «Nos serveurs connaissent des problèmes. S’il vous plaît, revenez plus tard…»
Selon Schneider Electric, qui analyse le phénomène sur son blog, le succès actuel du jeu donne une idée de ce que vont devoir supporter les infrastructures quand le nombre d’objets connectés sera multiplié. Pour éviter le déni de service, il existe une solution : le Edge Computing.
Aujourd’hui, explique l’auteur Paul Desmond, il semble bien que rien de tangible ne soit en mesure d’échapper à la possibilité d’être, un jour, connecté. Alors comment gérer les applications qui animent ces objets, et qui se comptent déjà en millions ? La question du traitement et du stockage est clairement posée. En ce sens, le Pokemon GO, développé par Niantic Labs, n’est que l’illustration de ce qui risque de se généraliser.
Selon Data Center Dynamics, le jeu est hébergé sur Google Cloud Platform. Les capacités de Google, on le sait, sont énormes. Il n’empêche. Pokemon GO a mis en lumière un écueil technique nullement insoluble, mais difficile à régler dans l’urgence : l’incapacité des data centers traditionnels à répondre à une demande inédite devenue trop forte. Le jeu nécessite en effet des allers-retours de données constants entre l’utilisateur et les serveurs d’hébergement pour délivrer des informations telles que l’emplacement de dizaines, de centaines, voire de milliers de joueurs, pour leur envoyer des messages ou des images virtuelles qui s’affichent sur leurs écrans, ou encore fournir des données sur le nombre de Pokémon attrapés par chacun…
Pour Schneider Electric, seul le Edge Computing permet de résorber efficacement les problèmes de latence et, plus généralement, de saturation des réseaux. Par Edge Computing, il faut entendre la mise à disposition de ressources informatiques proches de l’utilisateur final ou de la source de données. Ce qui signifie, en pratique, le partitionnement des tâches entre plusieurs micro data centers dans un même pays pour, par exemple, prendre en charge les messages transmis aux joueurs, les statistiques et les scores. Premier effet et non des moindres : réduire de manière significative la latence et le besoin en bande passante de chaque aller-retour. Les données ne seraient plus transmises du téléphone de tel utilisateur à un data center situé à quelques centaines ou milliers de kilomètres, mais à un micro data center situé à proximité. Ainsi, plus de cloud en surcharge, plus de serveurs en panne !
C’est évidemment un changement de paradigme. Et non des moindres. Son déploiement, reconnaît Schneider Electric, entraîne ainsi de nouveaux défis pour les entreprises, notamment parce que les serveurs Edge, contrairement aux data centers traditionnels, sont souvent gérés à distance, sans assistance informatique locale. Cela signifie qu’ils nécessitent une stratégie de déploiement différente de celle des data centers conventionnels, tenant compte de leur cycle de vie plus long et de leurs fortes exigences en matière de gestion, de sécurité, de déploiement et de continuité de service élevée. A la clé, une réponse au défi de l’IoT.