Web-Scale IT et Hyper-Convergence

Bonjour,

Il faut avouer que depuis quelques mois, il est difficile de passer à côté de l’hyper-convergence.

Annoncée comme le futur du Datacenter, ce modèle d’hébergement des infrastructures virtuelles, peut prendre différents chemins technologiques.

L’un d’eux est le Web-Scale IT, pur produit du SDS (Software Defined Storage), dont le terme a été introduit par Gartner en 2013.

webscaleITMais en quoi consiste-t-il ?

Dans les années 2000, les “Large cloud services providers comme Amazon, Google, Facebook, Rackspace” ont vite compris que les infrastructures traditionnelles trois tiers, ne leur permettraient pas de facilement grandir tout en maintenant des performances constantes.

Les baies de stockage ayant des limitations en nombre de disques et des faiblesses au niveau de contrôleurs qui deviennent rapidement un goulet d’étranglement, qui n’a jamais vu sa baie ralentir suite à une saturation de son cache ou de ses CPU ? Pas moi… j’en ai même trop vu…

Ils ont donc édité un cahier des charges, relativement simple, permettant de développer leur propre solution qui ne les limitera en rien dans leur évolution.

Les fondements du Web-Scale sont nés :

  • Linéaire, prévisible scale-out
  • Complétement distribué : données et services du cluster.
  • Le système d’auto-guérison : isolation des pannes avec récupération distribué.
  • Automatisation basée sur des API et des outils analyses riches.
  • Hyper-convergé sur des serveurs x86.

Ce qui est web-scale IT est Hyper-convergé, mais pas l’inverse, tout le monde n’a pas les fonctionnalités, ni la qualité du web-scale IT.

Passons donc à l’Hyper-Convergence…

Quelle est-elle ?

Le but de l’Hyper-convergence est de concentrer dans la même boite, l’hyperviseur, le comput, la mémoire et surtout les données. Une solution logiciel permettra de consolider les nœuds ensembles et offrir un stockage partagé afin de permettre d’utiliser l’ensemble des fonctionnalités de la visualisation comme si l’on avait une infrastructure legacy.

Dans ce cas, le partage du stockage est logique et non physique.

Les avantages sont principalement l’économie de place et d’énergie consommée et donc dissipée dans votre datacenter. Egalement, le but de ces solutions est la simplification de la mise en place et du maintien du produit.

Mais pourquoi rechercher à simplifier nos traditionnelles infra Legacy ?

Il existe plusieurs raisons à cela.

Premièrement, la partie virtualisation c’est tellement popularisée avec l’arrivée de VMware dans nos entreprises, que c’est devenu de la commodité et on arrive à un point où l’on ne veut plus perdre du temps avec cette partie, mais plutôt en prendre sur l’automation de notre DC.

Notre infrastructure composée d’une baie de stockage qui doit être régulièrement mise à jour ce qui exige une première fenêtre de maintenance, puis il faut s’attaquer au SAN afin de respecter une compatibilité, puis nos serveurs et leurs cartes de communication et BIOS, qui doivent avoir les bons firmwares et finalement on peut mettre à jour notre hyperviseur.

Rien que pour gérer la liste de compatibilité, c’est déjà plusieurs heures de travail, puis il faut les appliquer et c’est là que l’on tombe sur le bug de la version du flare de la baie… bref… laborieux !!!

A la suite, sont arrivées les solutions convergées qui vous vend des validations préparées en laboratoire et avec lesquelles le marketing de ces sociétés convergées va vous promettre la fin de vos soucis et un seul numéro pour le support.

Effectivement toute la phase de validation sera éliminé ou plutôt transparente mais cela n’enlève pas les fenêtres de maintenance et le faite que cela reste des actions complexes demandant du personnelle qualifié et donc pas gratuit, soit en interne et donc cela exige une formation sur l’ensemble des produits composant la solution convergée (une trentaine de jours), soit mandaté en externe, voici comment apparaissent les coûts cachés de la convergence. De plus, lors de problème, cela exige quand même une personne pour gérer et coordonner des intervenants, pas forcément un ingénieur, mais plus un chef de projet, encore des coûts cachés (et ça c’est du vécu).

Le monde du Web-Scale IT veut éliminer également ces coûts cachés avec sa souplesse et sa simplicité, plus de goulet d’étranglement, une seule console de management distribuée et finalement une meilleure maitrise de l’ensemble des stack de votre infrastructure virtuelle.

On construit son centre de calcul selon les besoins du moment et d’une manière granulaire. A chaque ajout de noeud, on augmente la volumétrie, les IOPS et la puissance de calcul.

Un de nos clients Suisses Romands a passé de 8 jours homme par mois, pour le maintien de l’infrastructure, à 0.5 jours homme par mois (sans aide externe), en utilisant une solution Hyper-convergée de type Web Scale IT .

Les seules exigences sont, un réseau 10 Gb Ethernet ‘’Top of the rack’’ et un produit offrant un système de fichier distribué.

Attention à bien différencier les produits Hyper-Convergées, certains modèles sont en cours de développement et donc plus adaptés à de petites infrastructures, tel que vSAN de VMware ou Simplivity, dû à leurs limitations de nombre de nœuds et le design de leur File System, mais je suis persuadé que dans peu de temps, ils auront largement évolué et offriront des solutions adaptées aux grosses entreprises.

La voie du Web scale IT quant à elle offre une expansion quasiment illimitée. Si cela fonctionne pour des géants comme Google, Amazon, etc… pourquoi cela ne serait pas bon pour votre centre de données. Aujourd’hui, le plus gros cluster Nutanix en production est de 1500 serveurs, ce n’est clairement pas une solution limité qu’aux petites PME…

Gartner prédit que d’ici 2017, la moitié des entreprises aura adopté une architecture Web-Scale IT.

Bonne réflexion !

 

Leave a Reply

Your email address will not be published. Required fields are marked *

*

This site uses Akismet to reduce spam. Learn how your comment data is processed.