Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Profil

  • Tariq Ashraf
  • Quelques bons mots, un peu d'humour (Anglais), beaucoup de Business (Une deuxième religion), des TMT... somme toute, le regard d'un simple Citoyen (Au sens de la Grèce antique) sur notre société.

         logo about-me

View Tariq Ashraf's profile on LinkedIn


Follow TariqAshraf on Twitter

Pages

29 avril 2009 3 29 /04 /avril /2009 01:05

"Je ne pourrais jamais pénétrer nettement dans les choses d'en haut, si je ne suspendais mon esprit, et si je ne mêlais la subtilité de ma pensée avec l'air similaire.

Si, demeurant à terre, je regardais d'en bas les choses d'en haut, je ne découvrirais rien"

'Les Nuées'

(Tiré de 'Νεφέλαι/Nephélai' en Grec ou 'The Clouds' en Anglais)

Pièce d'Aristophane, 423

Cloud, Cloud Computing, Cloud Services: il n'y a pas plus tendance en ce moment, si ce n'est Twitter

Les industriels de l'informatique et des réseaux misent sur le nouveau concept qui consiste à centraliser des capacités informatiques dans des Data Centres et à vendre le service à la demande via un 'simple' accès web.

 

Une véritable révolution comparable à celle de l'internet et du e-commerce nous dit-on…

1 -     Un paiement plus souple

-          Facturation liée à l'usage…

-          Ajustement du service à la hausse ou à la baisse…

2 -     Une facilité et une rapidité de mise en œuvre

-          Accès à des ressources 'Hardware' dans un laps de temps relativement court.

-          Peu ou pas d'investissement (Capital Expenses: CAPEX) pour les utilisateurs.

3 -     Moult opportunités de création de valeur…

-          Moins d'obstacles techniques à l'innovation

-          Amélioration de l'interopérabilité entre des technologies très différentes…

Le Cloud est ainsi l'aboutissement d'un mouvement de fond vers la simplification et la dématérialisation des services informatiques. Le PC avait rapproché les moyens informatiques des utilisateurs mais en avait aussi imposé la complexité à tout un chacun; le Cloud lui, permet enfin de ne conserver que l'usage. La boucle serait donc bouclée.

Salut les petits clous!

 

Commençons par définir la chose: Le Cloud fait référence à l'utilisation de la mémoire et des capacités de calcul d'ordinateurs et de serveurs dédiés répartis dans le monde entier, et liés par un réseau, tel Internet. Les utilisateurs du Cloud peuvent ainsi disposer d'une puissance informatique considérable et modulable… tel que l'eau et l'électricité (ce qui correspond au concept originel 'On Demand' d'IBM)

 

Des services offrant donc des capacités de calcul et informatique au sens large, de réseau et de stockage avec:

1 -     Une absence de gestion matérielle ('Hardware Management') pour l'utilisateur du service

2 -     Des utilisateurs qui n'ont pas de couts d'infrastructure, mais plutôt des couts opérationnels qui d'ailleurs sont variables (Operational Expenses: OPEX)

3 -     Et une infrastructure très élastique en termes de capacité (à la hausse ou à la baisse)

Les Clouds remplissent les trois conditions, on peut citer comme exemples Amazon EC2, Windows Azure, Google Apps

 

Les Cloud Services, eux, ne remplissent pas la condition des coûts sous forme d'OPEX, Ils peuvent d'ailleurs être instanciés sur une couche Cloud (Le 'Software as a Service' ou SaaS est un exemple), les Cloud Services les plus connus sont Gmail, Google Docs, Yahoo! Mail, Salesforce CRM…

 

A l'image de la fée électricité il y a un siècle, la puissance de calcul et de stockage de l'information serait proposée à la consommation par des sociétés spécialisées. De ce fait, les entreprises n'auraient plus besoin de serveurs propres, mais confieraient cette ressource à une entreprise qui leur garantirait une puissance de calcul et de stockage à la demande.

Une couche logicielle de gestion des ressources et d'outils de programmation est aussi proposée par les propriétaires de Cloud Computing et ce de manière à rendre utilisable par le plus grand nombre ces ressources informatiques sans plonger dans les méandres de la technique.

De plus le Cloud Computing permet un accès simultané à l'architecture de la part de plusieurs utilisateurs, et en plusieurs endroits. Grâce à des performances réseau en croissance constante, le 'Hardware' peut être situé à une distance très importante de l'utilisateur du service.

La capacité peut être ajustée à la hausse et à baisse, dynamiquement et instantanément (ce qui constitue la vraie différence avec des hébergeurs).

C'est dans cette optique que les logiciels en ligne tels que les suites collaboratives peuvent être perçues comme la partie logicielle émergée de cette nouvelle manière de concevoir l'informatique. De même, les systèmes d'exploitation pourraient être proposés à distance. Sur ce point, les technologies de virtualisation, très en vogue à l'heure actuelle, pourraient s'intégrer à plein dans le concept de Cloud Computing.

La tête dans les nuages

En théorie, les avantages de ce système sont multiples. En 2009, 100 milliards de dollars vont être investis dans les serveurs d'entreprise (Source: IDC). Mais ces derniers ne sont utilisés qu'à 10 % (en moyenne) de leur capacité.

En mutualisant l'usage des serveurs, on estime que l'on pourrait au moins doubler leur taux d'utilisation. Alors que la crise économique pousse les entreprises à optimiser leurs achats informatiques, les fournisseurs de grands serveurs, comme HP, IBM ou Sun, et plus récemment Cisco (qui lui, maitrise le réseau), se sont donc lancés dans la course.

D'autres acteurs majeurs de l'informatique en réseau ont décidé d'y participer. En particulier Microsoft - qui a présenté un système d'exploitation virtuel baptisé Windows Azure - et bien sur Google: la firme de Mountain View est le champion des Cloud Services dans un premier temps  avec Gmail, Gdrive, Google Calendar puis du Cloud Computing (Google Apps).

Un mouvement stratégique planifié depuis longtemps, comme l'indique la construction de Data Centres massifs lancée depuis déjà plus de 5 ans par Google.

Amazon a été une des premières entreprises à proposer par l'intermédiaire de ses outils S3 (Simple Storage Service) et EC2 (Elastic Compute Cloud) du stockage et de la puissance de calcul tirée de son infrastructure informatique pour des clients. Le New York Times est par ailleurs client d'Amazon et utilise le service S3 pour ses archives en ligne.

Des clous oui!

…mais nous sommes encore loin du Cloud Computing en tant que service de type Utility: facile d'accès et fiable, comme peuvent l'être l'eau et l'électricité… il reste encore quelques obstacles à lever.

1 -     Exigence de Sécurité ('Sans Maitrise, la puissance n'est rien')

Il existe une problématique de sécurité liée à la nature même du Cloud Computing: les données à traiter sont partagées entre la société cliente et son fournisseur… dans un environnement lui-même 'partagé'. Le fournisseur doit être capable de garantir la sécurité et la confidentialité des données au sortir de la firme cliente: que ce soit en termes de transport ou de traitement dans le Data Centre.

Ceci implique en interne une muraille de Chine entre les données de ses différents clients; et un chiffrage des données suffisamment puissant et crédible pour rassurer des clients confiant leurs informations sensibles (tels que les fichiers clients) à un tiers.

Bien sur cette exigence de sécurité est à comparer à toutes les vulnérabilités qui subsistent du simple fait de l'incurie ou de l'ignorance des utilisateurs (Perte d'ordinateurs portables contenant des données sensibles par des employés ou des consultants, de clés USB et autres CD Rom, Faille dans les clés WEP des réseaux WiFi etc…).

Toutefois, les solutions logicielles multi-clients ont encore du chemin à faire: comme toujours, les mesures seront prises après les premiers incidents.

2 -     Les choix en termes d'architecture (plateforme) restent d'actualité

A l'heure actuelle (et cela ne semble pas près de changer) la totalité des fournisseurs de Cloud Computing forcent leurs clients à adopter une plateforme qui leur est propre (Amazon Web Services, Google Apps…). La plupart des sociétés possèdent plusieurs plateformes… donc dans le principe elles devraient adopter plusieurs fournisseurs… ce qui va à l'encontre de l'optimisation recherchée. L'obstacle à l'interopérabilité étant de fait plus commercial que technique, il est probable que cette situation perdure tant qu'un standard de fait ne se sera imposé, permettant l'interopérabilité des solutions (une polémique a déjà défrayé la chronique entre IBM, et Amazon, mais elle constitue un sujet à part entière)

3 -     La fiabilité n'est pas encore totale (My SLA is better than your SLA)

Cette année, les services Google Apps, Windows Azure et Amazon S3 ont été plusieurs fois indisponibles, et certains utilisateurs rapportent des problèmes réguliers de lenteur quand le service est censé être 'disponible'.

Bien sur cela arrive de même lorsque les services et les plateformes informatiques sont hébergés au sein de l'entreprise, toutefois la communication autour du problème est bien meilleure et des solutions de remplacement (Fail-over par exemple) existent.

Le Cloud Computing doit se convertir à des Services Level Agreements (SLAs) alignés sur les standards du marché; ce qui peut s'avérer difficile quand la qualité de service dépend de la disponibilité d'un réseau de transport que l'on ne maîtrise pas, et sur lequel les pirates informatiques ont développé des attaques très puissantes de déni de service souvent préludes à de l'extorsion.

4 -     La localisation des serveurs de Cloud Computing est un facteur discriminant

Au risque d'en décevoir certains, Il n'y a aucune Magie: pour permettre le Cloud Computing, il faut des serveurs, dans des Data Centres… et c'est bien là que réside le problème, car la localisation de ces derniers décide de la loi applicable… aux données.

Par exemple, le gouvernement Canadien a des réticences à ce que ses agences utilisent un service hébergé dans des serveurs aux Etats-Unis, car selon l'US Patriot Act, le gouvernement américain peut y avoir très facilement accès s'il le décide…

Plus prosaïquement il est nécessaire d'avoir des Data Centres proches géographiquement de leurs clients pour prévenir toute latence dans les services proposés.

5 -     Tout ne sera pas balancé dans le tonneau du Cloud Computing

Vitesse de traitement de données (en factorisant la latence), nature des données traitées (et risque associé) ainsi que le RoI sont autant de critères importants avant de penser à traiter ces données en dehors du périmètre de l'entreprise, et ce d'autant plus que les éléments constitutifs d'un Data Centre sont disponibles à l'achat pour les sociétés d'une certaine taille.

Gageons que le Cloud proposera une solution simple et souple, qui restera plus chère pour les grandes entreprises à l'usage (en termes de cout 'unitaire') que l'achat et l'exploitation d'infrastructures en propre.

Les solutions proposées actuellement visent d'ailleurs essentiellement les PME. Quant aux groupes, beaucoup de firmes  (comme General Electric par exemple) ont leurs propres Data Centres (internes ou hébergés) qui jouent le rôle d'un Cloud Computing interne. Plus de problème de sécurité (tout le monde étant derrière son firewall) et une logique de fournisseur interne qui -en principe- met la pression sur les SLA et les couts.

Le Cloud Computing est donc une tendance prometteuse, mais la révolution ne fait pas partie du futur immédiat, les entreprises n'externaliseront pas toute leur informatique dans le Cloud Computing: ce dernier fournira toutefois un bon benchmark pour tous les calculs de RoI (Return on Investment) d'externalisation de pans de la DSI…

Avec l'idée majeure que même si le Cloud Computing peut couter plus cher qu'un service 'hébergé' en interne, il ne coute rien ou très peu quand on ne l'utilise pas…d'où l'intérêt d'intégrer la notion de TCO (Total Cost of Ownership) dans toute analyse de scénarii.

OPEX 'de droit Divin'?

 

La question du choix entre OPEX et CAPEX n'est d'ailleurs pas forcément si simple que cela… l'utilisation de capital vs cash flow est une décision qui n'a pas d'impact sur le long terme en ce qui concerne le RoI pour une entreprise bien gérée.

Le CAPEX ne constitue pas un péché capital, et les OPEX ne sont pas forcément 'bénis des dieux': c'est un choix qui relève des dirigeants (Directeur Général, Directeur Financier et Directeur des SI) et ce en factorisant plusieurs paramètres: opérationnels bien sur, mais aussi comptables et fiscaux…

Vincent Bouder

Tariq Ashraf (@TariqAshraf)

Partager cet article

Repost 0
Published by Vincent Bouder & Tariq Ashraf - dans Internet
commenter cet article

commentaires