Les systèmes informatiques s'inspirent des jeux humains pour améliorer leurs performances.
En 2012, Lukasz Kaiser de l'université Paris Diderot avait développé un logiciel permettant à un ordinateur d'apprendre des systèmes ludique de façon mimétique. Le but du programme développé était d'apprendre les règles et les tactiques de n'importe quel jeu, sans que celui-ci ne soit au préalable installé sur la machine. Cinq chercheurs du département d'informatique de l'université d'Etat de Caroline du Nord ont créé un modèle qui s'inspire du même principe. Il s'agit, pour l'ordinateur, de recréer les performances d'être humains à partir des tactiques et des contraintes qu'ils ont employé au cours de parties d'un jeu de patience.
Apprendre par le mimétisme
Le jeu de patience utilisé consiste pour le joueur à retrouver des cartes similaires dans un ensemble plus vaste étalé sur une table ou toute autre surface plane. Les chercheurs ont recruté par Internet 179 participants qui ont participé à plusieurs parties sur une version numérisée du jeu, et leurs performances étaient mesurées en fonction de leur précision – le nombre d'erreurs commises, et la vitesse avec laquelle ils ont résolu le casse-tête. Par la suite, à l'aide d'un algorithme mathématique, les conditions de jeu sont recrées pour l'ordinateur. Le système informatique est parvenu, sous la contrainte de précision, à un taux d'erreur compris entre 1,7% et 5,7%. En considérant la contrainte de la vitesse, la probabilité moyenne de choisir une carte non similaire est comprise entre 2,5% et 7,7%. Cette marge d'erreur plus importante est expliquée par le fait que les humains, soumis à un temps imparti, accélèrent leur rythme de jeu jusqu'à ce tromper, et les chercheurs ont implanté dans le modèle mathématique un paramètre semblable.
Un joueur dans la norme
Le travail des scientifiques s'inscrit dans une volonté de recréer chez l'ordinateur un modèle de joueur moyen. La difficulté principale, pour implanter un jugement similaire à celui de l'humain chez son ordinateur, se révèle être la mémoire, et agir de sorte que le logiciel ne choisisse pas une carte qui existe dans sa mémoire. Le canal visuel est utilisé tant chez les humains que dans l'algorithme développé, mais les chercheurs affirment que d'autres recherches restent à mener en considérant cette fois-ci la mémoire.