Magazine High tech

Emma

Publié le 25 février 2009 par Philippe Poux

Le W3C est très actif ces derniers temps, autour des technologies vocales. Après le PLS, qui simplifie l'usage du vocal tant en synthèse qu'en reconnaissance, voici, avec l'agréable nom d'Emma, une recommandation pour le multimodal.

Ce Extensible MultiModal Annotation Markup Language, que l'on aimera donc continuer d'appeler EMMA, es un langage évolué de développement d'actions multi-modales incluant les technologies vocales et améliorant les interactions. Cette forme de XML permet d'annoter les données reçues (avec un score de confiance, par exemple) avant de les transmettre à la plate-forme vocale.

L'objectif est de rendre plus accessible les services web, quelque soit l'outil et la forme d'interaction (vocale, stylet ...), dépassant les limites du couple clavier / souris habituel.

Loquendo annonce que son serveur MRCP supporte dès à présent le standard EMMA et Daniele Sereno explique que "cela facilitera grandement le développement des applications et encouragera l'innovation tout en améliorant la compétitivité des entreprises". Loquendo MRCP Server already supports the EMMA standard - enabling your platform to be EMMA compliant, and thereby enhancing the functionalities and interoperability of your speech-enabled and multimodal applications.

C'est le groupe MultiModal Interaction Working Group qui a défini EMMA, vous pouvez retrouvez les spécifications ici :


Retour à La Une de Logo Paperblog

A propos de l’auteur


Philippe Poux 12 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte

Dossier Paperblog