Accueil

La protection de la vie privée (PVP) est devenu un enjeu de société majeur. En témoignent entre autres le nouveau règlement européen sur les données personnelles (adopté en mai 2016), le projet de loi pour une République numérique ainsi que les débats provoqués en 2015 par la loi sur le renseignement. Dans le monde connecté où nous vivons désormais, des données personnelles toujours plus nombreuses sont collectées ou générées, souvent à l’insu des personnes concernées. Le traitement de ces données massives se traduit par un profilage des individus et de sérieux risques d’atteinte aux libertés individuelles.

De nombreux problèmes éthiques, philosophiques et bien entendu juridiques se posent à propos du concept de vie privée et des moyens de sa protection. L’objectif poursuivi dans ce GT n’est pas de résoudre de tels problèmes, mais d’étudier (i) comment ils se traduisent en termes de problèmes théoriques fondamentaux et (ii) s’ils peuvent donner lieu à des réalisations informatiques (« Privacy Enhancing Technologies – PETs », et « Transparency Enhancing Technologies – TETs »). Ces instruments techniques doivent être conçus en étroite interaction avec d’autres disciplines comme le droit, la sociologie et l’économie par exemple.

Parmi les défis à aborder figurent notamment celui du contrôle de l’individu sur ses données, la transparence dans le traitement, l’acquisition ou le transfert des données, la responsabilité (ou « accountability »), ou encore l’équité de la relation entre l’individu et les fournisseurs de services. En ce qui concerne les traitements, il s’agit bien souvent de techniques d’analyse de données. On parle alors de «Privacy-Preserving Publishing» ou de « Privacy-Preserving Data Mining» (PPDM) lorsqu’on souhaite étudier la prise en compte de la PVP dans ce domaine.

Les pistes explorées par les équipes travaillant sur la PVP en France sont assez diverses. Elles incluent des approches cryptographiques ou des approches formelles (logique, graphes, preuve) pour proposer des protocoles ou des architectures permettant de garantir des propriétés de PVP, des techniques d’interrogation de données protégeant la VP, des techniques de calcul sécurisées (chiffrement homomorphe, réseau de confiance ou matériel sécurisé).

Les domaines d’application sont très divers : santé, réseaux sociaux, applications mobiles, villes intelligentes, compteurs intelligents, objets connectés/IoT, quantified-self, etc.

Les co-responsables du GT sont :

  • Estelle Cherrier-Pawlowski, GREYC lab – ENSICAEN/CNRS
  • Mathieu Cunche, INSA Lyon, Lab. CITI

Groupe de Travail Protection de la Vie Privée