Magazine Science & vie

Le pouvoir de l' imaginaire ( 218) ;Théorie de la communication

Publié le 02 janvier 2013 par 000111aaa

Je reprends bien vite mon thème   de dialogue imaginaire  sur  l’intrication  et la non –localité quantique ….Sachant que j’ai promis des explications et qu’ il me faut les structurer …..

Ne crois-tu pas PAPY  qu’ avant  d’ aborder les propriétés de l’ espace  sub quantique  , tu devrais mieux préciser  ce que tu sais  sur les « pertes » de transmission dans l’ information quantique ?

-   Je veux bien  PIERRE   mais il me faut alors revenir à des travaux précédents que j’ai très schématisés…Repartir  de systèmes non interactifs chacun dans son espace de  HILBERT , définir l’espace composite  , définir ses états séparables ou produits ou alors inséparables , c’est à dire intriqués ….. Ensuite à partir de là plusieurs axes de recherches se sont révélés possibles .Je t’ai déjà parlé des boites noires de Popescu-Rorlich   et des corrélateurs  représentés par les probabilités des entrées  des bits  du couple de ALICE et  BOB .  Ce sur quoi j’ai peut-être oublié d’insister  c’est   sur ce que l’on peut attribuer comme degré de non localité  à ces boites …… ainsi si la non-localité était maximale, une corrélation  à 1 seul bit ferait le travail de communication de l'information presque à coût zéro. En prenant comme point de départ que de tels échanges triviaux ne peuvent pas se produire, Wim van Dam et Gilles Brassard ont abordé le sujet de la complexité de la communication  et en ont tiré le maximum …..

Tu nous en as déjà un peu parlé , en précisant que le langage le plus adapté aux « dialogues »BOB/ALICE de la mécanique quantique , c’était des bits ( 0 ou 1 etc )

  

  Mais il faut que je te reparle avant , Pierre  de la théorie mathématique de la communication  : dans cette discipline, on étudie des problèmes dont les entrées sont reparties entre plusieurs communicants . L’ensemble des règles qui définissent les messages envoyés  s’appelle protocole de communication. Il faut faire remonter mon historique aux années 40 à 50 pour trouver le véritable inventeur  de la théorie de l’information Claude  SHANNON ….  C’est lui qui a   dématérialisé tout contenu de communication en suite logique de « bits ». Peu importe le contenu ( visuel, son, ..).     .L’information devient alors une mesure scientifique. Elle n’a pas de lien avec la signification en tant que telle d’un message. Il s’agit d’une théorie des signaux. On ne s’intéresse pas au sens des messages. L’information est une mesure de la liberté de choix, dont on dispose lorsqu’on sélectionne un message.  ET  le système se schématise sur ma photo :

Capture.PNG information shannon.PNG

Plus généralement, la quantité de l’information est définie par le logarithme du nombre des choix possibles   …….Et c est alors qu’ on introduit un concept venant d’un autre coin de la physique . Dans l’élaboration des messages ,plus le  hasard ou le choix sont limités, plus l’information ( ou l’ entropie ) est faible. La quantité précisément nécessaire à l’établissement de l’information correspond exactement à la notion thermodynamique d’entropie. Elle s’exprime en termes de probabilités.

Mais que vient faire le concept de bruit  dans une communication ?

-   C’est ce qui va perturber ou parasiter les signaux du message  et qui peut provenir des imperfections des constituants , des problèmes d’erreurs dans la transmission  ou  de l’impossibilité de réaliser une transmission parfaite à100% …..

Ça c’était la communication ordinaire  , par signaux morse par exemple …Parle-moi maintenant plus spécialement des difficultés de la communication quantique…..

   C’est Andrew C.C. Yao en 1979   qui a inventé le concept de la complexité de la communication quantique   …..Pour aller plus loin il faut alors DE NOUVEAU repartir en amont parler des  lois de la complexité et  faire un détour par une discipline plus ancienne mais tout aussi importante, la  théorie de la calculabilité. Celle-ci a pour objet de distinguer ce qui est calculable de ce qui ne l’est pas.  Et alors si la calculabilité se contente  de prouver qu’un calcul est réalisable par un ordinateur, la complexité cherche à montrer que celui-ci va s’achever en un temps raisonnable……Claude Shannon a été l’un des premiers à proposer de caractériser la complexité d’un problème par la taille du plus petit nombre de portes logiques requises pour résoudre ce problème. La théorie de la complexité   vise à aborder donc la notion de calcul d’une manière quantitative.Si on veut quantifier le cout d’un calcul, il faut préciser les opérations les élémentaires autorisées , celles dont le cout est unitaire .Ainsi , en prenant l’exemple de la machine de Turing (une machine abstraite qui exécute des programmes en lisant et en écrivant des données sur un ou plusieurs rubans constitués de cases) , on peut se définir  comme algorithme un programme exécutable par une machine de Turing. Et en résumé la complexité d’un problème est alors  la complexité du meilleur algorithme qui le résout. Et pour en revenir aux échanges de bits entre  BOB et ALICE seule comptera  la quantité de communication échangée  entre eux ……

A SUIVRE

-  


Retour à La Une de Logo Paperblog

A propos de l’auteur


000111aaa 168 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte

Magazine