Magazine Ebusiness

Tristan Nitot : “L’utilisation éthique des données est possible”

Publié le 20 juin 2016 par Pnordey @latelier

Comment associer utilisation éthique des données utilisateurs par les marques et contrôle de leurs propriétaires ? Tristan Nitot, ex-Mozilla, donne ses pistes.

Tristan Nitot a consacré 17 ans de sa carrière à faire vivre Mozilla Firefox. Aujourd’hui, celui qui qualifie le rôle d’informaticien de « responsable » a décidé de s’engager autrement dans l’internet libre et le juste contrôle des données. Sur son blog et dans un livre à paraître « Surveillance // Les libertés au défi du numérique : comprendre et agir », il explique pourquoi l’utilisateur doit reprendre la main sur ses données personnelles et comment les marques peuvent continuer à les utiliser de façon éthique. Rencontré lors de la huitième édition du festival digital Web2Day à Nantes, il a répondu aux questions de L’Atelier.

  

Portrait de Tristan Nitot, ex-Mozilla

Quelles sont, concrètement, les données utilisées aujourd’hui par les acteurs du web ? Et à quel dessein ?

Quand vous utilisez un site comme Facebook ou Google, vous leur donnez beaucoup de données sans le réaliser. Vous tapez à la main une question que vous posez : rien que cette interrogation-là, Google la retient et l’analyse. Gmail sait à qui vous écrivez à quelle fréquence, qui vous écrit, si vous répondez ou non, et même le contenu de vos pièces-jointes. Google est très clair : il veut « organiser l’information du monde entier » donc pour ça, il faut qu’il l’ait.

Le smartphone est un mouchard de poche que vous avez acquis volontairement.

Sur le smartphone, c’est pire. Certaines applications demandent une liste de permissions hallucinante. Facebook requiert par exemple agenda, photos et vidéos, contenus des sms, contacts…tout, en somme. Si vous achetez un téléphone Androïd, vous aurez déjà maps installé dessus, car Google oblige les marques à le faire. Cela n’est pas un cadeau, ce sont des chevaux de Troie qui vont collecter les données des utilisateurs et les récupérer pour Google. Ceci, afin que Google soit indispensable dans notre vie, mais aussi pour profiler un utilisateur et servir ses vrais clients : les publicitaires. J’aime beaucoup cette BD où deux cochons discutent « c’est génial, on est logés et nourris gratuitement », sans se rendre compte qu’ils ne sont pas les vrais clients du fermier. Nous ne sommes pas les clients des GAFAS, mais des organismes qui produiront de la donnée collectée. Le smartphone est un mouchard de poche que vous avez acquis volontairement.

Certains internautes sont d’accord pour partager leurs données afin de bénéficier de services personnalisés, comme la publicité ciblée par exemple. Pourquoi doivent-ils, selon vous, tout de même garder le contrôle sur leurs données ?

Une étude appelée Trade-Off Fallacy, « la fausseté du compromis », démontre que les gens ne sont pas contents de voir leurs données utilisées, mais résignés. L’utilisateur n’a pas beaucoup de choix ! Pour utiliser une application, soit il accepte tout, soit il n’utilise rien. La vraie question n’est pas « est-ce que j’accepte de partager avec Facebook », mais « qu’est-ce que Facebook en fait ? » Si ça ne sert qu’au niveau local de l’application, pourquoi pas. Si c’est copié et envoyé au data-center de Facebook, non, ça ne va pas.

Intervention de Tristan Nitot à L'échappée Volée le 6 juin 2015 sur le contrôle des données

Si on propose une solution avec des services architecturés pour respecter la vie privée sans pomper des données, je pense que ces services nouvelle génération auront la possibilité de vaincre les géants centralisés, autrement appelés « datacannibals ».

Le problème c’est qu’on échange beaucoup de données pour très peu de service. J’ai fait le calcul : compte tenu du nombre d’utilisateurs de Facebook, et des coûts pour faire fonctionner le service, cela coûte 5 € ou 6$ par utilisateur et par an. C’est de l’arnaque ! Ce sont des choses qui brillent mais qui ne valent rien. Il faut être conscient de ce déséquilibre.

Que répondez-vous à ceux qui disent que « ça n’est pas si grave » d’être pistés sur internet ; quels sont les risques pour la société ?

C’est néfaste parce que si on se sent surveillé, on change notre attitude. L’être humain a besoin de penser certaines choses, pas forcément acceptables, a besoin de se confier, d’échanger sur des données politiquement incorrectes, d’avoir des idées politiques, d’être curieux. Cette liberté de pensée est essentielle. Sinon, on osera plus avoir des pensées audacieuses, on osera plus imaginer le futur.

Sachant que l'on peut être surveillés, on s'auto-censure. Cela va tuer la créativité !

Des études très troublantes ont révélé l’impact des révélations d'Edward Snowden sur certaines pages Wikipédia. Avant, la consultation de la page sur le djihad par exemple, avait une audience croissante. C’est naturel : un sujet d’actualité, des questions qui se posent, c’est sain que les citoyens se renseignent sur les problèmes du monde. Mais après Snowden, l’audience de sujets sensibles comme celui-ci ont complètement chutés. Car en sachant qu’on peut être surveillés, on s’auto-censure sans même s’en rendre compte.

Cela va tuer la créativité, la liberté des citoyens et la gouvernance de nos sociétés. C’est extrêmement préoccupant.

Les données sont pourtant bien utiles…

Bien sûr que les données sont utiles, mais ce qui est dommage, c’est la chaîne vicieuse actuelle pour arriver au service personnalisé. C’est très légitime d’avoir besoin d’un service personnalisé, si Facebook servait à avoir des nouvelles d’1,5 milliard de personnes on s’en ficherait, on veut des nouvelles de ses propres amis. Le problème n’est pas la fin mais le moyen, l’architecture actuelle.

Comment trouver un équilibre entre le partage volontaire de certaines données et leur utilisation par les marques ?

Pour la publicité, il existe par exemple un concept très intéressant : le VRM (Vendor Relationship Management). Cela consiste à dire, d’une manière qu’il reste à inventer, ce sur quoi je suis intéressé « Je suis un homme de 40 ans, je veux changer de voiture pour une familiale, pas diesel pour telle raison, etc ». On peut alors imaginer un système où s’affiche un certain nombre de choses qui m’intéressent et que les marques peuvent consulter afin de me proposer un bien ou service en fonction des intérêts que j’ai, c’est moi qui aie choisi ces intérêts. Cela peut aussi être un navigateur en lequel j’ai confiance qui me propose en fonction des recherches que j’ai faites si je veux publier un profil pour les marques, et je peux modifier ce profil : je suis fumeur mais ne l’assume pas trop, je supprime cette donnée. Les marques n’auront que les données que je veux bien diffuser.

Il y aussi toute la problématique autour du cloud sur laquelle je travaille avec la startup Cozy. Le constat, c’est que la centralisation est néfaste d’une part, mais même pas très efficace : toutes les grandes sociétés prénumériques comme la banque, la poste, l’assurance, se méfient des GAFAS, ils ne veulent pas être désintermédiés, donc ne veulent pas donner accès aux données de leurs clients.

Retrouvez notre interview de Benjamin André, PDG de Cozy, sur la loi sur le renseignement dans L'Atelier Numérique

Là où il y une opportunité, c’est dans le croisement des données au niveau personnel. Un cloud personnel où je suis le seul à pouvoir me connecter, installer des applis, voir ce qu’il s’y passe. Un exemple concret : j’ai une liste de contact, donnée A. J’ai une facture de téléphone, donnée B. On peut imaginer que, demain, mon opérateur X me propose un service de croisement de ces données afin de déterminer le top 5 des numéros qui me coûtent le plus cher. Ca, les GAFAS ne peuvent pas le faire car ils refusent de partager leurs données entre eux, mais cela peut être une piste d’utilisation rémunératrice des données par les marques, sans qu’elles récupèrent par la suite les données de l’utilisateur dans leur data center. La marque se différencie alors de la concurrence en proposant un service utile - dans mon exemple, savoir où je perds de l’argent sur ma facture - et ce, de façon éthique.

En réalité, il y a deux visions possibles : la vision Google c’est « les données ça vaut beaucoup d’argent alors je vais tout récupérer et si j’ai tout je vais pouvoir offrir des services ». On peut voir la chose autrement : la seule personne légitime pour récupérer ses données, c’est l’utilisateur. Il met tout sur son cloud personnel, ça n’est plus un grand silo dans lequel la marque amasse plein de données, mais un algorithme que la marque distribue à chaque individu pour ses données à lui, sous son contrôle.

Va-t-on vers un modèle où l’utilisateur détiendra un profil avec des données qu’il choisira de vendre aux marques de son choix ?

C’est possible, mais je ne crois pas que ce soit très vertueux. Car une fois que Zara a mes données, c’est très facile de les copier. La solution la plus sûre, selon moi, est de garder ses données sur son espace à soi, et d’autoriser des applications, des services de marques, au sein de mon espace, sans copie par l’entreprise des données qui en résultent. L’utilisateur doit contrôler le service, plus l’inverse.

Quels sont les défis des logiciels libres et des initiatives web décentralisées : comment séduire les internautes face aux GAFA ?

L’expérience utilisateur est essentielle, on ne peut pas faire sans. Il faut déjà que ça existe, qu’on invente la solution. Qu’elle soit facile à utiliser et qu’elle dispose d’une killer feature. Si on se contente de faire aussi bien que les géants et qu’il faut demander aux gens de faire un effort pour switcher, ça ne fonctionnera pas. C’est là que le croisement des données apporte de la valeur selon moi.

Illustration évoquant la sécurité des données

Les startups sont-elles la solution ?

Aujourd’hui, je vois trois camps. Les GAFAS, les « prénumériques » qui réalisent que le digital est en train de tout changer, et les startups. Je pense que les startups vont arriver à faire un pont avec les prénumériques pour servir les consommateurs de manière plus éthique. Est-ce que la startup va challenger le GAFA ? Compliqué. Est-ce qu’elle va convaincre le citoyen ? Possible, mais ça coûte cher. Par contre les startups et les grands comptes peuvent avancer ensemble vers le grand public pour disrupter les GAFAS.

Retrouvez notre article sur les startups à la rescousse du contrôle des données !

Sinon, le système risque de s’écrouler ?

Je pense qu’il y a un vrai problème, 75 % des gens sont inquiets de la réutilisation des données faites par les GAFAS. Ils s’en servent parce que c’est pratique, mais n’aiment pas la façon dont ça se passe. Si on offre une solution vertueuse et respectueuse des données personnelles, je pense qu’il y une vraie tendance de fond.


Retour à La Une de Logo Paperblog

A propos de l’auteur


Pnordey 18702 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte