Magazine Immobilier

Principales tendances technologiques pour 2010

Publié le 21 janvier 2010 par Xp14

Fernando Rodriguez, vice-président de Citrix Europe du Sud, dévoile les principales priorités et tendances technologiques prévues en 2010, et leur impact sur l'entreprise dans les prochains mois.

Paris le 20 Janvier 2010

Principales tendances technologiques pour 2010 Le verdict est unanime : l'Europe émerge doucement de la récession. Une récession qui a dominé tous les aspects de la vie ces deux dernières années : l'économie, les médias, la vie privée. Pourtant, les chiffres publiés en novembre 2009 semblent montrer que la zone euro s'est peu à peu affranchie de cette récession au troisième trimestre. En effet, le PIB a connu une croissance de 0,4%, une première depuis plus d'un an. Certes, l'embellie est modeste. Le PIB était 4,1% supérieur l'année dernière à la même époque.

Pour Gartner, en 2010 : « La prévision la plus évidente est que nous ne pourrons plus fonctionner tout simplement comme en 2007, c'est-à-dire avant la crise. »1 Jusqu'à cette date, les entreprises avaient connu une longue période de stabilité économique. Même si la crise s'estompe peu à peu, il est évident qu'elles ne pourront plus fonctionner comme elles le faisaient auparavant. Elles seront condamnées à faire bien plus attention et à privilégier des environnements d'exploitation légers et réactifs, particulièrement adaptés à la survie économique.

En 2009 l'Europe s'est trouvée confrontée aux pires conditions économiques rencontrées depuis 70 ans. A la même époque l'année dernière nous avions vivement recommandé aux professionnels de l'informatique de regarder de près les technologies capables de réduire de façon globale les dépenses IT quelle que soit la taille de leur entreprise.

Alors que l'Europe se remet doucement sur les rails de la croissance, quel est l'avenir immédiat des directions informatiques ?

L'année du poste de travail virtuel ? 2010 s'annonce comme une année charnière pour la virtualisation des postes de travail. Il a été estimé que les dépenses d'acquisition matérielles et logicielles liées au poste de travail traditionnel représentaient en général de 20 à 30% du coût de possession d'un périphérique, les 70 à 80% restants étant consacrés à la maintenance informatique. La virtualisation de postes élimine les nombreuses tâches répétitives de maintenance destinées à assurer les mises à jour, les corrections et l'implémentation des nouvelles versions de logiciels sur chaque poste de travail de l'entreprise. L'année 2010, laissera moins de place aux conversations et plus à l'action.

Les freins à l'adoption de la virtualisation de postes les plus fréquemment invoqués jusqu'à présent étaient le coût et la complexité de mise en place associés à la récession économique et à l'attente de Windows 7. Mais le fait que de plus en plus d'entreprises réalisent désormais que la virtualisation de postes peut servir à étendre significativement la durée de vie de leurs périphériques (surtout en remplaçant peu à peu ceux-ci par des clients légers) ou à accélérer le déploiement de Microsoft Windows 7 signifie que le choix en faveur de cette technologie peut parfaitement satisfaire au cycle de rafraichissement des PC de la plupart des sociétés. Maintenant que Windows 7 est disponible, que les technologies sont devenues plus matures et plus souples à mettre en place et que la reprise a débuté, l'heure de l'adoption massive de la virtualisation de postes est arrivée.

La technologie de l'hyperviseur poste client va commencer à rencontrer un succès croissant : il s'agit d'un composant majeur de la technologie de virtualisation de postes, qui permet la coexistence de multiples systèmes d'exploitation de postes au sein d'environnements parfaitement isolés, sur un seul et même périphérique et de façon indépendante de celui-ci. Cette fonctionnalité est rendue possible par l'hyperviseur poste client, qui autorise l'utilisation de machines virtuelles locales. Courant 2010, Intel commencera à distribuer son chipset vPro, qui permet aux fabricants de PC et d'ordinateurs portables de proposer des ordinateurs déjà équipés d'un hyperviseur de type I (implanté directement sur la puce, comme pour les serveurs), spécialement conçu pour prendre en charge la virtualisation côté client.

La couche de séparation (ou couche d'abstraction) qui maintient isolés entre eux de multiples systèmes d'exploitation de postes permet par exemple à un poste de travail personnel et à un poste de travail professionnel de coexister sur un même matériel, totalement protégés l'un de l'autre. L'utilisation d'un hyperviseur de type I, pour l'instant uniquement possible avec les chipsets Intel vPro, signifie concrètement que la virtualisation de postes va encore évoluer :

  • en offrant une capacité de sécurité beaucoup plus forte
  • en permettant de gérer de façon centralisée des images de postes pouvant être déconnectées du réseau

Contrairement aux autres formes de virtualisation de postes, la virtualisation côté client ne dépend pas de la connexion aux serveurs par le réseau. Déconnectez l'ordinateur portable du réseau, par exemple, et le poste virtuel continuera à fonctionner jusqu'à la connexion suivante au réseau. En clair, la virtualisation côté client apporte la « pièce manquante » au puzzle d'une virtualisation de postes généralisée à l'échelle de l'entreprise, y compris les ordinateurs portables en déplacement (apportant en outre une bien meilleure sécurité).

L'informatique en tant que bien de consommation courant (sans doute la tendance informatique majeure de l'année) et le libre-service informatique exploseront en 2010

Les smartphones, et tout particulièrement l'iPhone qui connait un essor phénoménal, rejoignent de plus en plus l'ordinateur portable et le netbook dans la liste des outils de travail de prédilection de l'utilisateur. Or, ces technologies se trouvent au cœur du conflit entre le modèle traditionnel où le matériel appartient et est géré par l'entreprise, et l'aspiration profonde des utilisateurs à travailler avec leurs technologies favorites.

La génération des « digital natives » (nés à l'ère du numérique) est le plus souvent mécontente des ordinateurs portables d'entreprise, auxquels sont attachées trop de règles restrictives. C'est pourquoi de nombreux utilisateurs passent régulièrement de leur périphérique professionnel à leur périphérique personnel. Que ce dernier soit un ordinateur portable plus performant ou un MacBook. Même si les entreprises interdisent l'utilisation de matériels extérieurs sans pouvoir simplement le contrôler, il faut qu'elles se préparent à s'adapter à cette inéluctable évolution des attentes et des comportements.

Dans le même temps, l'ère du service à la demande s'enracinera dans l'entreprise, tout le monde ayant bien compris les considérables économies qu'il est possible de réaliser grâce aux services « à tout moment et en tout lieu ». Le formidable succès du mode Apple iTunes d'accès et de mise à disposition des applications illustre parfaitement cette tendance.

Alors que la pression exercée sur les directions informatiques s'accentue et que celles-ci doivent en permanence démontrer la valeur qu'elles apportent aux entreprises, ces dernières adopteront le modèle d'informatique en libre-service pour :

  • Réduire les coûts
  • Offrir aux utilisateurs la souplesse et le niveau de contrôle qu'ils attendent
  • Conserver un contrôle centralisé tout en offrant un modèle ouvert

Vers l'utilisateur mobile : Gartner prévoit que « d'ici à la fin de 2010, 1,2 milliard d'individus utiliseront des périphériques mobiles offrant un environnement très riche, assurant la convergence parfaite entre Internet et la mobilité. »2 A partir de l'année prochaine, la demande en applications accessibles sur une large gamme de périphériques (PC, ordinateurs portables, netbooks, iPhones, BlackBerrys ou smartphones Android) devrait littéralement exploser. Le concept de mobilité lui-même deviendra de plus en plus viable, les petits périphériques devenant de plus en plus connectés grâce à la virtualisation d'applications et de postes de travail.

Le cloud computing : Il demeure une certaine ambigüité autour des services en nuage, mais nous devrions y voir plus clair cette année. Les nuages publics, comme Amazon EC2 ou Google, dominent déjà largement l'espace technologique privé. L'introduction du système d'exploitation Chrome OS devrait renforcer ces services en nuage, en leur intégrant la technologie de virtualisation de postes sous la forme d'une plate-forme informatique viable et massivement adoptée.

Les concepts de nuages privés (internes) et hybrides (privés/publics) devraient connaître également un certain essor. En fin de compte, les datacenters d'entreprise deviendront en général des nuages internes, alors que les PME s'orienteront plutôt vers des nuages externes pour la gestion de leurs services informatiques.

Green IT : Désormais l'un des objectifs majeurs des directions informatiques, l'évolution vers le green IT se poursuivra en 2010, mais pour des raisons légèrement différentes que précédemment. L'Europe sort en effet peu à peu de la récession, ce qui signifie que les entreprises rechercheront en permanence à renforcer leur efficacité, partout où elles le pourront. Et notamment l'efficacité énergétique de leur informatique. Les administrations et les entreprises du secteur public seront plus que toutes autres priées de se fixer des objectifs ambitieux en la matière.

Un bon moyen pour l'entreprise de parvenir à ces objectifs consiste à consolider les serveurs et à simplifier ses environnements d'exploitation grâce à la virtualisation. Le travail à distance devrait également rencontrer un succès croissant, grâce à la virtualisation d'applications et de postes de travail. Il y aura sans doute aussi une prise de conscience accrue, tout particulièrement pour les datacenters, de l'importance de facteurs autres que la consommation d'énergie. Comme par exemple de l'importance de la gestion des actifs, de l'analyse des charges, ou d'une vision à l'échelle de l'entreprise de tous les systèmes informatiques. Se contenter de réduire sa consommation d'énergie sera immanquablement perçu comme une attitude simpliste et insuffisante face au problème du réchauffement climatique.

1 "Return to Growth: Three Short-Term Economic Scenarios and Their IT Impacts for 2010-2011" (Le retour à la croissance : trois scénarios économiques à court terme et leur impact sur l'informatique en 2010-2011), Mark Raskino, octobre 2009

2 Communiqué de presse Gartner, « Gartner identifie les 10 technologies stratégiques majeures de l'année 2010 », octobre 2009 - http://www.gartner.com/it/page.jsp?id=1210613

À propos de Citrix
Citrix Systems, Inc. (NASDAQ:CTXS) est le principal fournisseur de technologies de virtualisation, de mise en réseau et de solutions cloud computing pour plus de 230 000 clients dans le monde entier. Ses familles de produit Citrix Delivery Center™, Citrix Cloud Center™ (C3) et Citrix Online simplifient radicalement l'informatique pour des millions d'utilisateurs et délivrent les postes de travail et les applications comme un service à la demande, à tous types d'utilisateurs, en tous lieux et sur tous types de périphériques. Citrix compte parmi ses clients les plus grandes entreprises Internet mondiales, 99 % des entreprises du Fortune Global 500, ainsi que des centaines de milliers de PME et de particuliers dans le monde. Citrix dispose d'un réseau de plus de 10 000 partenaires et revendeurs dans plus de 100 pays. Créée en 1989, l'entreprise a réalisé un chiffre d'affaires de 1,6 milliard de dollars en 2008.

Contact Presse Citrix :
Alexia Rouca – Consultant - Citrix Systems France
Tél. : +33 (0)1 49 00 33 69 – Email : [email protected]


Retour à La Une de Logo Paperblog

A propos de l’auteur


Xp14 407 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte