Magazine High tech

Vers de nouvelles architectures informatiques ?

Publié le 01 décembre 2008 par Ecoleinfo

L’émergence des serveurs d’application, de la virtualisation, des technologies Web, l’échouage commercial de Windows Vista semblent considérablement changer la donne dans le périmètre de l’informatique d’entreprise.

Un TCO maîtrisé

Perçue comme un centre de coût, l’informatique a vu, dans la période récente, ses coûts exploser sous la conjonction de l’augmentation des prix des logiciels et des comportements de l’utilisateur confondant parfois informatique personnelle et professionnelle.

Avec les technologies de déploiement PXE (RIS devenu WDS chez Microsoft), avec la diffusion de paquets, avec les technologies de clonage, le Total Cost of Owning a été contenu dans la période récente. L’avènement des clients légers tels que ceux proposés par la société Axel ou encore Hewlett Packard permet désormais de centraliser le déploiement sur les serveurs d’application. La main d’oeuvre utilisée dans les services informatique se déplace de la station de travail vers les serveurs exigeant des personnels mieux formés.

Face à une réduction de la charge liée à la maintenance, certains informaticiens ont été priés de rejoindre le fonctionnel ou d’animer le help desk lié aux applications métiers.

Quant à la problématique de l’augmentation des coûts liés aux logiciels (qui dépassent très largement le montant lié à l’acquisition du matériel), le logiciel libre de plus en plus utilisé dans les entreprises permet très largement de la contenir. L’inflation fonctionnelle proposée par les éditeurs ne correspond pas toujours à la demande de simplicité et de modularité souhaitée par les utilisateurs. Elle s’accompagne en revanche d’une hausse considérable du prix des logiciels.

L’exigence sécuritaire

En parallèle, de nouvelles précoccupations ont émergé du fait de postes de travail de plus en plus perméables aux failles de sécurité à la fois liées au comportement de l’utilisateur et aussi à l’inflation logicielle qui rend les machines plus vulnérables au chevauchement incontrôlé des applications utilisées.

Dans les grandes entreprises où les serveurs sont regroupés dans des salles blanches, les accès se font désormais par VPN après avoir validé les contrôles d’identification à plusieurs niveaux. Pour l’utilisateur, c’est extrêmement fastidieux. Pour l’entreprise, l’adjonction de points de contrôle ralentit l’assaillant potentiel. Les dispositfs techniques, aussi efficaces soient-ils, ont aussi cette vertu de contribuer à rassurer !

La centralisation n’a toutefois pas que des avantages. Elle fragilise les organisations en les exposant à des pannes d’électricité, de télécommunications ou de matériels réseau. Gageons que la théorie du chaos si chère à Paul Virilio ne s’applique pas un jour au domaine de l’informatique d’entreprise. Au bout de 4 heures, une panne générale du système d’informations peut être considérée désormais comme critique.

Les enseignements de la période récente en terme d’architecture

Le développement des serveurs d’application semble avoir remis les applications 2/3 au goût du jour.  Compte tenu du parc installé, cela ne doit en effet rien au hasard pur. La difficulté réelle à industrialiser les processus en développement Web n’y est pas non plus étrangère. Seul le recours à l’offshore, sans se poser toutefois la question de la rationalisation des processus de fabrication des logiciels, permet au développement Web de progresser. Lorsque les pays émergents auront rattrapé leur retard social, nous serons alors confrontés à des choix stratégiques et économiques d’un genre nouveau.


Vous pourriez être intéressé par :

Retour à La Une de Logo Paperblog

Ces articles peuvent vous intéresser :

A propos de l’auteur


Ecoleinfo 201 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte