Le pouvoir de l' imaginaire ( 218) ;Théorie de la communication

Publié le 02 janvier 2013 par 000111aaa

Je reprends bien vite mon thème   de dialogue imaginairesurl’intricationet la non –localité quantique ….Sachant que j’ai promis des explications et qu’ il me faut les structurer …..

Ne crois-tu pas PAPYqu’ avantd’ aborder les propriétés de l’ espacesub quantique, tu devrais mieux préciserce que tu saissur les « pertes » de transmission dans l’ information quantique ?

-   Je veux bienPIERRE   mais il me faut alors revenir à des travaux précédents que j’ai très schématisés…Repartirde systèmes non interactifs chacun dans son espace deHILBERT , définir l’espace composite, définir ses états séparables ou produits ou alors inséparables , c’est à dire intriqués ….. Ensuite à partir de là plusieurs axes de recherches se sont révélés possibles .Je t’ai déjà parlé des boites noires de Popescu-Rorlich   et des corrélateursreprésentés par les probabilités des entréesdes bitsdu couple de ALICE etBOB .Ce sur quoi j’ai peut-être oublié d’insisterc’est   sur ce que l’on peut attribuer comme degré de non localitéà ces boites …… ainsi si la non-localité était maximale, une corrélationà 1 seul bit ferait le travail de communication de l'information presque à coût zéro. En prenant comme point de départ que de tels échanges triviaux ne peuvent pas se produire, Wim van Dam et Gilles Brassard ont abordé le sujet de la complexité de la communicationet en ont tiré le maximum …..

Tu nous en as déjà un peu parlé , en précisant que le langage le plus adapté aux « dialogues »BOB/ALICE de la mécanique quantique , c’était des bits ( 0 ou 1 etc )

  

Mais il faut que je te reparle avant , Pierrede la théorie mathématique de la communication  : dans cette discipline, on étudie des problèmes dont les entrées sont reparties entre plusieurs communicants . L’ensemble des règles qui définissent les messages envoyéss’appelle protocole de communication. Il faut faire remonter mon historique aux années 40 à 50 pour trouver le véritable inventeurde la théorie de l’information ClaudeSHANNON ….C’est lui qui a   dématérialisé tout contenu de communication en suite logique de « bits ». Peu importe le contenu ( visuel, son, ..).     .L’information devient alors une mesure scientifique. Elle n’a pas de lien avec la signification en tant que telle d’un message. Il s’agit d’une théorie des signaux. On ne s’intéresse pas au sens des messages. L’information est une mesure de la liberté de choix, dont on dispose lorsqu’on sélectionne un message.ETle système se schématise sur ma photo :

Plus généralement, la quantité de l’information est définie par le logarithme du nombre des choix possibles …….Et c est alors qu’ on introduit un concept venant d’un autre coin de la physique . Dans l’élaboration des messages ,plus lehasard ou le choix sont limités, plus l’information ( ou l’ entropie ) est faible. La quantité précisément nécessaire à l’établissement de l’information correspond exactement à la notion thermodynamique d’entropie. Elle s’exprime en termes de probabilités.

Mais que vient faire le concept de bruitdans une communication ?

-   C’est ce qui va perturber ou parasiter les signaux du messageet qui peut provenir des imperfections des constituants , des problèmes d’erreurs dans la transmissionoude l’impossibilité de réaliser une transmission parfaite à100% …..

Ça c’était la communication ordinaire, par signaux morse par exemple …Parle-moi maintenant plus spécialement des difficultés de la communication quantique…..

   C’est Andrew C.C. Yao en 1979   qui a inventé le concept de la complexité de la communication quantique …..Pour aller plus loin il faut alors DE NOUVEAU repartir en amont parler deslois de la complexité etfaire un détour par une discipline plus ancienne mais tout aussi importante, lathéorie de la calculabilité. Celle-ci a pour objet de distinguer ce qui est calculable de ce qui ne l’est pas.Et alors si la calculabilité se contentede prouver qu’un calcul est réalisable par un ordinateur, la complexité cherche à montrer que celui-ci va s’achever en un temps raisonnable……Claude Shannon a été l’un des premiers à proposer de caractériser la complexité d’un problème par la taille du plus petit nombre de portes logiques requises pour résoudre ce problème. La théorie de la complexité   vise à aborder donc la notion de calcul d’une manière quantitative.Si on veut quantifier le cout d’un calcul, il faut préciser les opérations les élémentaires autorisées , celles dont le cout est unitaire .Ainsi , en prenant l’exemple de la machine de Turing (une machine abstraite qui exécute des programmes en lisant et en écrivant des données sur un ou plusieurs rubans constitués de cases) , on peut se définircomme algorithme un programme exécutable par une machine de Turing. Et en résumé la complexité d’un problème est alorsla complexité du meilleur algorithme qui le résout. Et pour en revenir aux échanges de bits entreBOB et ALICE seule compterala quantité de communication échangéeentre eux ……

A SUIVRE

-