Magazine

Etre aveugle et voir avec ses oreilles

Publié le 17 août 2010 par Rhubarbare

Le modèle classique de la perception sensorielle est que le cerveau reçoit des informations via nos “capteurs sensoriels” tels les yeux, envoie ces informations vers des zones de traitement spécifiques qui les décodent et recréent ainsi l’image, le son etc.. Des expériences en cours depuis plus de vingt ans démontrent que ce n’est pas si simple: le cerveau est capable de se “recâbler” afin de créer de l’image – de la vision – à partir de sons.

L’idée de substitution sensorielle n’est pas nouvelle, ayant été testée par Paul Bach-y-Rita dans les années 60 en associant une caméra à des palpeurs placés sur le dos d’une personne non-voyante, avec pour effet la recréation d’images très simples mais bien réelles.

Beaucoup plus récemment, en 1991, le physicien et inventeur hollandais Peter Meijerdéveloppa un instrument permettant de traduire les images en sons, le vOICe. Il a développé une version portable en 1998 lui permettant de faire des expériences dans la vie courante, et aujourd’hui l’équipement consiste en une paire de lunettes avec webcam et écouteurs intégré relié à un PC portable. La caméra fait un scan gauche-droite chaque seconde et l’expérimentateur reçoit l’information auditive préalablement traitée par un logiciel spécifique, par exemple les objets brillants “sonnent” plus fort et la fréquence du son est corrélée à la position haut/basse de l’objet dans le champ de vision.

De nombreux tests réalisés avec des aveugles de naissance ou ayant perdu la vue au cours de leur existence ont désormais complètement démontré que ces aveugles regagnaient, après un temps d’entraînement pouvant durer plusieurs mois ou années selon les cas, la vue par le biais de ce système. Non pas une forme de “vue sonique” comme par exemple le sonar d’un dauphin (pour autant que l’on sache ce que le dauphin “voit” vraiment) mais bien une vue tri-dimensionnelle, texturée et précise – mais en noir et blanc.

Ceci oblige à une refonte du modèle de fonctionnement du cerveau et la séparation entre les capteurs sensoriels et les zones de traitement, deux capteurs différent pouvant générer le même effet. Cette idée a été étudiée en 2002 par Amir Amedi de l’université hébraïque de Jérusalem qui confirma qu’une zone spécifique du cortex occipital répondait aussi bien au toucher qu’à la vue, zone qu’il nomma la région occipitale tactilo-visuelle latérale (LOtv). Cette région serait spécialisée dans la construction d’images 3D, indépendamment de la source d’information.

Il fut ensuite démontré que les utilisateur du vOICe activaient fortement cette région lors de l’utilisation de l’appareil, mais presque pas en mode d’écoute normale. Il suffit de 15 heures d’entrainement pour que le cortex visuel se mettent à prendre en compte des données sensorielles en provenance des oreilles.

Source: New Scientist – Sensory Hijack: rewiring brains to see with sounds

Il serait intéressant de voir si ces expériences renforcent le modèle holographique du fonctionnement du cerveau tel proposé par Karl Pribram et introduit par ce billet Hologramme, neurophysiologie et psychologie 

Billet en accès libre sur rhubarbe.net 

Compteur gratuit


Retour à La Une de Logo Paperblog

A propos de l’auteur


Rhubarbare 760 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte

Dossier Paperblog