Magazine

K3Média de retour de PHP Québec 2008

Publié le 19 mars 2008 par K3 Media

phpquebec.gif

Trois membres de l’équipe de développement de K3Média représentaient l’entreprise à la dernière conférence PHP Québec ayant eue lieu à Montréal. Jérôme Bascoul, Mathieu Ducharme et moi-même. Ce fut une belle réussite, l’événement faisant salle comble pour la première fois, ce qui démontre encore une fois l’implantation croissante de PHP dans la province.

Dans ce billet, je livrerai une petite synthèse de ma visite au Sofitel. Évidemment, sachez qu’il y a une énorme quantité d’information à notre disposition dans ce type d’événement. Chaque personne vient donc y chercher ce qui lui semble pertinent. En ce qui me concerne, je voulais rencontrer les vrais "pros". Ceux qui travaillent chez MySQL, qui ont les deux mains dans le noyau de PHP, qui produisent les innovations techniques nous permettant de demeurer créatifs et de livrer des applications de qualités. À ce chapitre, je n’ai pas été déçu.

Voici donc, chronologiquement, les détails :

JOUR 1 :

Performance-minded MySQL for PHP Developpers
Jay Pipes

Si la modélisation de base de données vous intéresse, sautez sur le dvd de cette conférence aussitôt qu’il sera disponible. Ou encore, cliquez ici pour en avoir un résumé de l’auteur. Jay Pipes travaille chez MySQL et il ne se contente pas de livrer les astuces éculées sur la bête. Il connaît visiblement le fonctionnement des différents engins (MyIsam, InnoDB…) et décrit en détail le fonctionnement interne d’une requête dans chaque cas. En plus de citer de multiples cas d’optimisation concrets de requêtes SQL ou de structure de données. Par exemple, les avantages à utiliser de multiples engins selon les tables et leur contenu, le partitionnement de données, la détection d’index inutiles, etc… Très intéressant et très pertinent.

Databases and SQL (un)patterns
Lukas Smith

Cela doit être difficile de voir la majorité de ses points se faire couvrir dans la présentation précédente. M. Smith s’est rapidement rendu compte que sa conférence était redondante avec la première et que plusieurs personnes assistaient aux deux, donc il a légèrement modifié sa présentation pour ajouter des éléments comparatifs entre MSQL, PostgreSQL et Oracle. Bien qu’intéressante, cette présentation n’avait pas la même profondeur que la première.

Rich desktop Applications
Raphaël Rougeron

Je ne savais que penser en lisant le résumé de ce séminaire car il semblait concerner des technologies propriétaires, mais il m’a grandement surpris. En fait, il s’agissait plutôt d’un comparatif entre Adobe Air et XulRunner. Clairement, le formateur penchait pour ce dernier, mais a joué le jeu de la description des deux, exemples à l’appui.

Bien que friand des solutions ouvertes, je dois avouer qu’Adobe air, était assez convaincant. Quelqu’un qui a des connaissances en HTML, Javascript, CSS, Actionscript peut recycler un projet, lui ajouter 2 lignes de codes et en faire une application desktop… impressionnant. L’intégration des différents outils d’Adobe n’est rien pour nuire.

XulRunner m’a semblé essouflé par rapport à la solution d’Adobe. Une syntaxe beaucoup plus aride (trop) pour le résultat escompté, lente à l’exécution, une pénétration du runtime très faible, bref alors qu’Adobe nous offre une solution clé en main, nous avons de l’autre côté une solution qui nous procurera de multiples migraines.

Maintenant XulRunner possède de belle qualités. En plus d’être une technologie ouverte, il y est plus simple de créer des composantes réutilisables (XBL) et de mieux moduler notre application. De plus, avec l’arrivée prochaine de Firefox 3.0, le runtime XulRunner sera inclu avec le fureteur. Ainsi, le tiers des internautes l’auront sur leur station et pourraient potentiellement installer des applications l’utilisant. Le rendu du Javascript sera aussi grandement accéléré donc le problème de vitesse devrait se résorber. Il y a donc un avenir pour cette technologie, qui sert déjà de base aux extensions de Firefox de toute manière.

Je crois que M. Rougeron frappe dans le mille en nous conseillant d’ailleurs de débuter par le développement d’une simple extension Firefox avant d’y aller avec la totale application si l’on veut suivre la voie Xul.

Une partie de cette conférence était consacré aux API REST et RESTFull. Très intéressant.

PECL : The PHP Language Workbench
Sebastian Bergmann

Quelquefois, un séminaire nous parle d’un truc et bien que nous savons que nous ne nous en servirons pas, cela nous fait aboutir sur d’autres choses. C’est un peu ce qui c’est passé avec celui-ci.

De toutes les extensions PECL que nous avons vues, je retiens parse_tree qui permet d’aller chercher toutes les informations possibles et inimaginables en format XML sur unr page PHP. Seulement, sans l’intervention d’un fichier XSLT, ces informations sont inutilisables pour un être humain normalement constitué!

Je trouvais l’idée d’aller chercher les informations sur les pages PHP géniale, mais l’utilisation de parse_tree me semble trop complexe pour le gain d’optimisation que nous pourrions en tirer. J’ai donc trouvé une extension PEAR PHP_CodeSniffer qui me permettra d’aller chercher les optimisations possibles aux pages PHP sur nos serveurs. Belle trouvaille.

Breaking the rules
Morgan Tocker

Je suis toujours impatient d’assister à un séminaire de quelqu’un de chez MySQL. Mais, je dois avouer que j’ai été déçu par celui-ci. Je m’attendais à des notions avançées de dénormalisations par un spécialiste, mais il ne s’agissait que de trucs génériques sur comment épargner son serveur mySQL. En résumé, la plupart des astuces pointaient vers un motto : “Enlever des trucs de votre MySQL, il roulera plus vite.” Ne pas utiliser de constraints, de checks, de foreign keys, épargne bien sûr du travail côté base de donnée, mais il en donnera davantage côté PHP… S’agit-il d’un gain réel tant au développement qu’à l’utilisation? Il n’avait aucun chiffre, benchmark test à l’appui. Bref, je ne suis pas convaincu.

JOUR 2

API Design in PHP
David Sklar

Passionnant, cette conférence. Le développement d’API fait appel à de nouvelles problématiques et cet architecte logiciel de chez Ning nous a livré de judicieuses astuces sur la maintenance de leur propre API.

Alors que dans le commun des développement, il est plus simple d’effacer que d’ajouter, la réalité s’inverse dans le développement d’API. Impossible de supprimmer une méthode sans subir des plaintes des usagers qui l’utilisent toujours. Si vous voulez déprécier un truc, vous le laisser actif combien de temps? Cela peut rapidement devenir un casse-tête.

La mentalité de Ning est de prévilégier l’expérience client au-dessus même du développement. Donc, si une façon de faire peut rendre un client plus heureux, malgré une perte d’optimisation, ce choix sera fait. L’idée est que l’usager ne devrait jamais être frustré par l’utilisation de l’API. Je crois qu’il s’agit d’une bonne ligne de conduite puisqu’un API pourrait être ultra-fonctionnel, mais très difficile à utiliser pour l’usager. Son succès en serait donc affecté davantage qu’avec un léger compromis sur les performances.

Aussi, les méthodes aux longues listes de paramètres sont proscrites car cela perd en clarté et en facilité de maintenance. L’utilisation d’un array est recommandée.

De plus, il est recommandé de débuter les noms de méthodes, de propriétés et de namespaces avec un préfixe identifiant clairement l’API (XN est celui de Ning). Ceci fait en sorte que les gens instinctivement n’altéreront pas ces items.

Comme Ning est un API RESTFull, il leur est facile d’inclure le numéro de la version de l’API demandée dans l’URL et de conserver plusieurs branches de l’API. Ainsi, les usagers utilisant des méthodes dépréciées pourront continuer d’utiliser la version voulue sans qu’elle ne soit "traînée" dans les branches futures.

Comme par exemple :

XN/ATOM/1.0/CONTENT…

Aussi, encore plus qu’ailleurs, l’importance est à la documentation détaillée de l’application. PHPDocumentor est une solution largement utilisée. Les tests unitaires sont aussi primordiaux dans ce type d’entreprise. Ning est récemment passé de Simpletest à PHPUnit pour les capacité accrues de ce dernier. Le fait de pouvoir automatiser des séquences de tests et de déclencher une notification à la moindre défaillance permet de déceler plus facilement une coquille qui s’est glissée dans quelque chose qui fonctionnait très bien autrefois, précisément le genre de bogue qui frustre les usagers d’un API. PHPUnit s’est d’ailleurs avéré être un outil fort prisé par plusieurs conférenciers.

Graph-Oriented Programming with PHP
Sebastian Bergmann

Ce séminaire présentait le "workflow engine" d’eZ Systems. Il s’agissait d’une présentation très "high level" et théorique sur le projet de thèse de doctorat de M. Bergmann. Je dois avouer que j’aimes voir des cas concrets et du code me démontrant les bénéfices d’une innovation. Je suis resté sur ma faim.

Pour en savoir davantage.

PHP and memcached – Giving your database server a break
Marc Wandschneider

La mise en cache… Le genre de truc que l’on connait tous sans jamais être parfaitement à l’aise avec tous les dillemmes que cela soulève. Cette formation réponds à plusieurs interrogations concernant une des façon les plus populaires d’accélérer l’accès à vos données, memcached.

À la base étonnemment simple, son concept est de réduire les allers-retours au disque dur, le maillon faible de la chaîne en terme de rapidité pour la lecture d’informations provenant de votre base de donnée. Memcached va utiliser votre mémoire vive qui est immensément plus rapide. Il s’agit tout simplement d’un gigantesque array contenant les informations que vous y déposez. Lors d’une requête, memcached va d’abord vérifier si votre valeur est dans l’array, sinon exécute la requête à la base. Tout simple.

Toutefois, memcached est bourré de trous. Par exemple, comme il ne s’agit que d’un giga-array, zéro sécurité. Aucune authentification possible. Ou si vous voulez barrer une entrée temporairement le temps qu’une transaction se termine, impossible de le faire via ce système. Faites très attention à ce que vous mettez dans votre cache.

L’autre faille est que pour être rapide, memcached doit être installé localement, grugeant des ressources précieuses de votre serveur. Bien sûr, il est paramétrable. Mais, pour être pleinement efficace, plusieurs serveurs doivent être greffé à votre memcached. Facebook a agi de la sorte. Ils ont des dizaines de serveurs dédiés à un memcached. Malheureusement, tous n’ont pas les moyens de Facebook.

Malgré tout, pour stocker de petites données bien choisies ne nécessitant pas de sécurité, memcached peut s’avérer un bon choix. À cela j’ajouterais toutefois le MySQL Query Cache. De cette manière, si jamais la donnée n’est pas trouvée dans l’array de memcached, un second niveau de caching se trouverait plus loin lors de la requête si cette entrée n’a pas subi de modification depuis.

Help! I found a bug in my code!
Derick Rethans

Toujours en version beta, xdebug est une extension PEAR permettant au développeur d’aller quérir davantage d’informations sur une erreur survenue en cours d’exécution ou encore d’optimiser son code.

Vous pouvez personaliser les indications d’erreurs fatales vous parvenant en paramétrant xdebug. Je vous invite à aller chercher le PDF de la conférence pour visualiser les différentes possibilités. Notez bien que le message d’erreur n’est pas nécessairement celui que vous auriez normalement, mais bien celui issu du compilateur PHP, souvent plus complet aux yeux du développeur.

Aussi, parmi les choses intéressantes, avec xdebug, vous serez en mesure d’identifier des écarts de temps, par exemple, combien de temps une fonction PHP a mis de temps à s’exécuter. Vous serez aussi en mesure de retracer les pointes de l’usage de la mémoire.

Comme je suis un visuel de nature, j’ai vraiment adoré l’idée d’activer le "profiling" et d’utiliser KCacheGrind pour visualiser les goulots d’étranglement de la page en un clin d’oeil. Idéal lorsqu’une page semble ramer sans raison.

Who am I? - The age of digital identity
Rob Richards

Ce spécialiste de la sécurité informatique, maniaque du respect de la vie privée sur le web a livré une conférence très intéressante sur OpenId versus les Information Cards (openinfocards pas celles de Microsoft!), Bien que l’on sentait son penchant pour l’une des deux solutions, il a livré une bonne description et une bonne analyse des deux plateforme. Je dois avouer que je ne connaissais aucune de ces technologies avant ce séminaire et j’en ai appris énormément. Bien qu’instructif, il reste encore beaucoup de travail pour que ce genre de techno devienne un standard sur le web. Premièrement, l’accessibilité de la chose. Ce n’est pas demain la veille que la personne plus ou moins “computer literate” va utiliser les information cards. Même le formateur s’y est repris à 5 fois pour que cela finisse par fonctionner! Bref, cela demeure pour l’instant une techno de “geeks”.

Côté sécurité aussi cela pose de nombreuse questions. OpenID est à mes yeux un danger public. Il faut vous procurer un ID auprès d’un fournisseur et vous authentifier chez lui à chacune de vos authentification, transaction sur le web… Je ne tiens pas à ce que Verisign ou quiconque possède de telles informations sur moi. Cela serait cent fois pires qu’un espiogiciels planté sur ma station. Et même si je fais confiance à Verisign, à qui sera-t-elle vendue dans le futur? Où irons mes infos? Un non-sens en terme de sécurité. OpenId a fait exactement ce contre quoi elle lutte. Bref, ils se sont plantés.

Concernant les information cards, cette techno a du potentiel si l’on peut traîner ses cartes avec soi, ce qui n’est pas encore le cas. Cela revient donc à dire que cette techno s’adresse pour le moment à ceux qui sauront héberger leurs identités chez eux afin d’en profiter partout. Un truc de “geeks” vous dis-je! Fort prometteur toutefois. Je retournerai voir où ils en sont l’an prochain.

ShareThis


Retour à La Une de Logo Paperblog