article

done_all

workspace_premium

science

Actualité

Projet

Retour d'expérience

Parole d'expert

timer

21

minutes de lecture

Hébergement bare metal, mutualisé ou Cloud : comparaison et critères pour choisir l’hébergement adapté à son usage

SAnté

Retail & luxe

Énergie & environnement

Banque & assurance

Peux-tu te présenter rapidement et nous partager les types de projets dans lesquels tu interviens, pour contextualiser ce sujet ?

Cela fait maintenant plus de 25 ans que j’interviens dans des environnements de production, et avant cela, à 12 ans, je développais déjà sous Pascal ! J’ai commencé sur des plateformes Windows et j’ai un fort background réseaux. J’ai vécu la multiplication des enjeux d’hébergement avec le développement d’internet. A l’époque, Windows était déjà présent, mais pas complètement prêt et Unix est arrivé. Je me suis rendu compte qu’il y avait un tournant, et j’ai saisi l’occasion de rentrer dans le monde Unix… qui m’accompagne maintenant depuis 20 ans !

Ce parcours m’a amené à travailler chez un hébergeur web lorsque des datacenters s’ouvraient partout et devenaient accessibles aux PME, aussi bien qu’à piloter l’infogérance pour de grands groupes. Je suis notamment intervenu sur le portail WAP d’un grand opérateur de téléphonie, toujours dans des environnements de production où j’accompagnais le MCO, c’est-à-dire le maintien en condition opérationnelle des infrastructures et du réseau.

Entre les enjeux d’hébergement de PME et de grands groupes, les enjeux sont similaires, mais les ordres de grandeur changent ! D’un serveur qui va impacter 500 utilisateurs, on passe à la gestion de 300 serveurs dont vont dépendre tous les utilisateurs de l’opérateur de téléphonie.

En 2015, j’ai rejoint Infogene pour faire évoluer et maintenir l’infrastructure qui devenait de plus en plus critique avec la croissance de notre ESN. Aujourd’hui, je pilote l’infrastructure d’Infogene et je réalise des missions pour certains clients qui font face à des problématiques complexes : besoin d’agréments en lien avec les données de santé, infogérance sur des équipements hébergés par des tiers, escalade sur les demandes nécessitant de l’expertise…

Ce qui m’intéresse ? Il y a une dizaine d’années, je pensais m’orienter vers l’architecture du système d’information. Puis je me suis rendu compte qu’en arrivant sur une infrastructure existante, la faire évoluer en prenant en compte le legacy et les contraintes technologiques était passionnant. La variété de situations est une vraie source de satisfaction ! Je peux continuer à développer mon expertise technique tout en évoluant en termes de responsabilité.

Pour cadrer, pourrais-tu réexpliquer les grands principes de l’hébergement bare metal, mutualisé et Cloud ?

Cette séparation est un peu classique, mais elle reste valable. En effet, plus que trois approches différentes, chacune sert de base pour la suivante.

Le modèle historique, c’est le bare metal : un serveur dédié et donc une ressource matérielle qu’on maîtrise de A à Z. L’entreprise va acheter les disques, la mémoire, la capacité de stockage physique voulus.

Actuellement, le modèle mutualisé a tendance à disparaitre, mais il a eu ses heures de gloire dans les premières années qui ont suivi le boom d’internet. Destiné à des utilisateurs peu gourmands en ressources, il se base sur un serveur bare metal. Il va permettre de regrouper environ de 10 à 100 clients sur une machine. Ainsi, il est typiquement adapté pour héberger un site web qui fait quelques dizaines de visites par jours, pour lequel le propriétaire ne souhaite pas payer plusieurs dizaines d’euros par mois ! Ce modèle est donc la première version de la mutualisation des ressources et a été petit à petit remplacé par la démarche Cloud.

Le Cloud a intégré les avantages de la virtualisation. Les ressources, tout comme la localisation géographique, sont devenues virtuelles. Les données sont quelque part dans le nuage mais l’utilisateur ne sait pas vraiment où : on peut décider de l’avoir dans 2 ou 3 environnements sans avoir à déterminer où à l’avance. Ce mécanisme de virtualisation a permis de développer de plus en plus de services complémentaires.

On entend également parler de l'hébergement VPS (Serveur Privé Virtuel). Il y a t-il d’autres types d’hébergements ou des sous-catégories ?

Une fois qu’on a présenté ces trois principes d’hébergement, c’est la manière de les utiliser qu’il est intéressant d’étudier.

Avec un hébergement Bare Metal, la machine peut-être On Premise, c’est-à-dire que l’entreprise gère entièrement le data center, dont le niveau de complexité peut être variable.

En Bare Metal, on peut également faire de l’housing. Dans cette situation, un hébergeur s’occupe de tout l’écosystème du serveur : les accès physiques, les risques d’incendie ou la climatisation. C’est cependant à l’entreprise de gérer les aspects liés au serveur : pannes matérielles, capacité…  C’est un modèle qui s’est développé depuis une dizaine d’années.

Et pour finir, l’approche « Bare Metal as a Service » est selon moi la plus intéressante, y compris pour démarrer de nouveaux projets. On délègue toute la gestion à l’hébergeur. J’ai travaillé chez un hébergeur qui faisait du low cost et avait mis en place un ensemble de pratiques et d’optimisations pour réduire les coûts au maximum. Par exemple, en cas de panne, il peut être plus cher d’envoyer quelqu’un sur place pour redémarrer et mettre à jour la machine, que de migrer le client sur une autre machine. Avec une gestion intelligente et optimisée de l’humain, l’hébergeur peut proposer des coûts très attractifs. Cette approche offre également une simplicité de mise en œuvre. Elle est selon moi encore sous-exploitée.

Il y a moins de diversité sur les autres grands principes d’hébergement. Le mutualisé est le plus souvent géré en externe, avec un serveur physique sur lequel on cherchait à mettre le maximum de clients. Les arbitrages portent majoritairement vers la frugalité pour optimiser au maximum.

Le cloud, c’est la version hors-sol de la mutualisation ! Il apporte une modernité et une intelligence dans le contrôle des ressources. La clé du FinOps par exemple, c’est la virtualisation. En plus de la manière dont sont hébergées les données et virtualisées les ressources, le cloud va offrir des API. Entre Cloud privé, Cloud public et Cloud hybride, c’est souvent un choix de sécurité et de maîtrise de la localisation.

Attention, cependant, aux abus d’utilisation du terme « Cloud » ! Le VPS ou Serveur Privé Virtuel va apporter les avantages de la virtualisation et le cloisonnement du Bare Metal. Ce n’est pas forcément du Cloud, car la machine peut être située à un endroit déterminé.

De même, un hébergeur qui appelle « Cloud » un hébergement avec des machines virtuelles qui sont localisées uniquement à un endroit précis et donc avec un risque physique (incendie, inondation, coupure d’électricité…) c’est un abus de langage ! Le principe du Cloud, c’est de ne pas avoir à se poser la question d’où sont localisées et backupées mes données, hormis vis-à-vis des contraintes légales de pays.

De même, un Cloud Privé a du sens s’il peut être connecté avec d’autres sites de l’entreprise ou un Cloud Public pour ne pas être contraint par des problèmes localisés et limiter l’adhérence aux réseaux. En cas de souci, les entités doivent pouvoir être autonomes.

Le meilleur Cloud Privé pour moi, c’est d’avoir du Bare Metal As A Service chez des prestataires différents. On dispose alors d’un Cloud Privé multisites.

Quels sont les avantages, les inconvénients et les critères de choix de ces différentes approches d’hébergement ?

Essayons de sortir des positions superficielles pour présenter les cas d’usages les plus adaptés à chaque approche.

Commençons par le Bare Metal

Le Bare Metal On Premise offre le meilleur contrôle sur le matériel. Elle peut être intéressante si l’entreprise projette précisément ses besoins, arrive à bien factoriser et dépasser un certain seuil en termes d’étendue du parc.

Si le parc est plutôt restreint, le Bare Metal Housing est préférable. Le coût est un peu plus élevé avec la marge de l’hébergeur, mais il apportera les mêmes avantages de maîtrise des coûts si l’entreprise remplit au moins une baie.

Avec le Bare Metal As a Service, l’entreprise n’a plus besoin de ressources humaines pour intervenir. C’est en théorie le meilleur socle pour faire du Cloud Privé si l’étendue du parc est trop faible pour que l’hébergement en interne soit rentable. C’est par exemple le cas s’il est composé de moins d’une dizaine de machines physiques.

Si, bien maitrisé, l’avantage premier du Bare Metal réside dans l’optimisation des coûts, l’inconvénient principal réside dans le spectre de compétences nécessaire pour maintenir le parc et assurer sa sécurité. Dans le cadre d’un hébergement Bare Metal On Premise, il faut par exemple envisager de faire appel à une société de sécurité la nuit et le week-end si les installations sont critiques ! Cela représente donc une forte complexité à gérer, surtout si cela ne fait pas partie des activités premières de l’entreprise : même avec un hébergement Bare Metal As a Service, il faut avoir les compétences en infrastructures et systèmes.

Si on s’intéresse maintenant à l’hébergement mutualisé

Le point fort de l’hébergement mutualisé, c’est son coût. Cependant, selon moi, cela ne peut pas être une solution si vous avez des ambitions liées à l’hébergement : les services sont très basiques et il est difficile de garantir quoi que ce soit. Ce n’est donc pas adapté pour des activités sensibles.

C’est ce service simple qui fait sa pertinent en termes de coûts quand les besoins en termes de charge sont faibles : l’infogérance basique est intégrée. L’inconvénient, ce sont les limitations : évolution de la consommation des ressources, criticité, performance…

Finissons avec l’hébergement Cloud

Contrairement à certaines croyances, le coût est généralement le plus élevé si on compare à des installations Bare Metal parfaitement dimensionnées. Cette différence de coût est contrebalancée par des avantages indéniables. Il va être parfaitement adapté si l’entreprise a des besoins en ressources variables dans le temps, liés à de l’événementiel par exemple. La facturation à l’heure fait que c’est gagnant même face à un hébergement bare metal dont l’évolution de la charge serait pensée en amont, car il y a le temps d’intervention. En plus des avantages classiques comme la variété de services, une utilisation intéressante apparaît dans le cadre du PRA (Plan de Reprise d’Activité) : c’est un excellent moyen de synchroniser une partie de ses données et applications à l’extérieur avec des coûts optimisés. Il suffit en effet d’une machine disposant d’une forte capacité de stockage qui sauvegardera les informations et permettra de redémarrer rapidement les services dans le Cloud en cas d’indisponibilité de l’infrastructure principale.

La meilleure illustration des bénéfices Cloud, c’est la réponse à un évènement. Illustrons avec un mailing envoyé à des dizaines de milliers de personnes qui va engendrer un pic de trafic et d’activités sur le site web : la demande peut être 100 fois supérieure à la moyenne habituelle ! On découvre des impacts qui n’auraient pas été identifiés lors de recherches préliminaires et engendrent un défaut sur le serveur s’il est hébergé en interne. Si on veut que cela tienne la prochaine fois, il faut augmenter l’infrastructure et donc le coût, uniquement pour répondre à un pic ponctuel.Dans le cas du Cloud, l’adaptation se fait automatiquement : des mécanismes vérifient les ressources consommées. Si on dépasse un certain pourcentage, on démarre en conséquence des instances complémentaires, et, en quelques secondes, on peut se retrouver avec le double ou le triple en termes de capacité et cela temporairement : le prix s’adapte précisément à la consommation réelle. C’est impossible avec les autres approches !

Si on se place dans une démarche de conseil, quelles bonnes pratiques peux-tu partager autour des stratégies d’hébergement ?

En principe, il y a toujours un intérêt à disposer des compétences en interne, si l’entreprise sait les dimensionner parfaitement. Dans la pratique, il faut être certain d’utiliser ces compétences, sinon le retour sur investissement sera faible. Comme les compétences et le matériel représentent un investissement, ce dimensionnement doit être calculé sur l’ensemble de leur durée de vie. Les délais de projection sont généralement de 5 ans minimum et 10 ans maximum, car, ensuite, l’infrastructure initiale devient trop vieille. Si on arrive à faire cette estimation, cela peut être une solution rentable mais encore faut-il que la croissance de l’entreprise ne soit pas trop marquée.

On peut conclure que si l’entreprise est capable d’estimer très précisément les besoins et leurs évolutions sur 5 à 10 ans, elle peut se permettre d’avoir des ressources informatiques sur tout le spectre. Le cas échéant, mieux vaut externaliser de manière réfléchie tout ou partie de l’expertise et de l’infrastructure.

Pour prendre l’exemple d’Infogene, quasiment tout notre système d’information est hébergé en interne avec des redondances à Lyon et dans le Cloud. Grâce au recul que nous avions sur l’utilisation du SI et notre expertise liée aux nombreuses missions clients, nous avons pu calibrer exactement les ressources et réaliser un capacity planning. En 2 ans, nous avions rentabilisé le matériel. C’est bien sûr également dû au fait que nous disposions de toutes les compétences en interne pour l’hébergement, l’infrastructure, la sécurisation des locaux…

En cas d’incertitude sur la charge et les ressources nécessaires sur plusieurs années, je conseille de s’orienter vers une approche moins contraignante comme le Cloud. Le coût peut être légèrement plus élevé que si on avait optimisé précisément en interne, cependant cela permettra de s’adapter en termes d’applications, de besoins et de bénéficier de tous les avantages que nous avons évoqués. De plus, cela participe aussi à la modernisation du Système d’Information en limitant l’obsolescence du matériel et des applicatifs.

Dans le cadre d’une stratégie d’externalisation, je préconise premièrement de ne pas s’enchaîner à un fournisseur pour éviter d’être dépendant. Ma deuxième préconisation, c’est de ne pas utiliser le Cloud comme un réseau privé ! J’ai rencontré plusieurs entreprises, avec pourtant des contraintes légales et une forte criticité des données, qui agissent comme si elles étaient dans un réseau privé. Elles n’avaient pas conscience qu’interroger la base SQL sans chiffrement engendrait des défauts de sécurité par exemple ! Ce n’est pas parce que l’hébergement est sécurisé que le chemin pour accéder aux données l’est. Avoir des machines échangeant des flux ne signifie pas qu’on se retrouve en local.  Une stratégie Cloud maîtrisée implique d’avoir bien conscience des impacts en termes d’applications, de sécurité aussi bien que de la réglementation.

Ma dernière préconisation est de comprendre vraiment ce que nous vend le fournisseur Cloud et ce dont on a besoin. Tous les fournisseurs proposent une « calculatrice Cloud » avec de multiples cases à cocher pour lesquelles il est parfois difficile de savoir ce qu’il y a derrière. Cela prouve bien qu’entre le service de base et celui dont on a potentiellement besoin, il peut y avoir un gouffre !

En conclusion, ne craignez pas d’initier ou d'accélérer votre stratégie Cloud et l’externalisation d’une partie du MCO de vos infrastructures, mais faites-le en ayant bien conscience des choix et des implications ! Chez Infogene, nous pouvons vous accompagner dans cette démarche, aussi bien comme conseil, qu’AMO ou maitrise d’œuvre.