Quel futur pour nos données personnelles ?


 

Quel futur pour nos données personnelles ?

1075 mots, 5 minutes de lecture environ.

Mathilde Vallette | DimoGraphic 

TLDR : L’utilisation des données personnelles sur internet représente une réelle économie pour les entreprises qui y ont accès sans que les utilisateurs n’aient toujours accès à ce qui est fait de leurs données parfois sensibles et très intimes. L’utilisation, l’accès et la revente de données peut avoir de lourdes conséquences sur la vie des utilisateurs et le maintien de la démocratie. Des régulations sont proposées par les gouvernements mais leur application est difficile et parfois très couteuse aux géants de l’industrie digitale. 

Une donnée personnelle est décrite par la CNIL comme « toute information se rapportant à une personne physique identifiée ou identifiable ». Il existe 2 types d’identifications :

  • identification directe (nom, prénom etc.)
  • identification indirecte (identifiant, numéro etc.).

Aujourd’hui, ces données personnelles sont au cœur de nombreuses problématiques liées au numérique, et pour cause : L’économie numérique s’est principalement construite sur des modèles de plateformes gratuites qui font du profit à travers la publicité et la monétisation des données personnelles des utilisateurs. Si ces activités sont devenus des activités rémunératrices comme les autres, il reste que deux problématiques font surface avec l’émergence de ces économies : L’augmentation constante du volume de ces données (à la production et à la récolte), et l’opacité de certaines activités impliquées dans leur traitement.

Des activités opaques aux instances qui tentent de les réguler

Les grandes entreprises du numérique tirent d’énormes profits grâce à la quantité massive de données auxquelles elles ont accès. La plupart du temps, ces données sont revendues à des annonceurs afin de proposer des publicités ou des services personnalisés aux utilisateurs (et donc, de mieux les cibler). Cependant le travail invisible des données[1] reste résolument opaque aux yeux du plus grand nombre. Le consentement de l’utilisateur ne lui permet pas toujours de savoir où partent ces données, comment elles seront traitées ni même quelle valeur monétaire elles peuvent bien avoir. 

À cette opacité s’ajoute les intermédiaires qui interviennent dans le traitement des donnée :

  • Les sociétés de reciblage publicitaire comme Criteo, qui recueillent des données via les cookies pour déterminer nos centres d’intérêt.
  • Les data brokers comme l’entreprise américaine Acxiom, forte d’une base de données de 700 millions de personnes, qui vendent et achètent des fichiers en masse et les traitent pour extraire des informations.

Satisfaire tous les acteurs de cette chaine dans la mise en place d’une réglementation adaptée reste une tâche fastidieuse. Le règlement général sur la protection des données (RGPD) du Parlement Européen et du Conseil du 27 avril 2016 est l’un des projets de régulation les plus ambitieux et le plus controversé en matière de protection de données personnelles. Il vise, en outre, à renforcer les droits des personnes vis-à-vis de leurs données et à responsabiliser les acteurs qui les traitent. La mise en œuvre du règlement a rencontré beaucoup de résistance et causé des bouleversements dans beaucoup d’entreprises, notamment celles du secteur de la donnée, qui peinent à l’appliquer. En 2020, les pays de l’Union Européenne ont comptabilisé 171 millions d’euros d’amendes imposées à des grandes entreprises comme Google, Amazon, Doctolib, Carrefour ou encore H&M. Ces amendes pour non respect du RGPD s’étendent jusqu’aux professionnels indépendants, groupes de presse ou même des associations.

Protection des données sensibles et de la vie privée

Dans l’univers numérique, notre vie privée peut être exposée, de manière consentie ou non. Les frontières sont floues entre une donnée dite « personnelle » et une donnée qui ne le serait pas, d’autant que les formulations et régulations varient selon les pays et leurs législations. Dans ce contexte ambigu, ce sont les données dites « sensibles » qui posent le plus problème. Selon la CNIL, ces données sensibles révèlent l’origine raciale ou ethnique, les opinions politiques, religieuses ou philosophiques, l’appartenance syndicale ou encore la santé ou la vie et l’orientation sexuelle des individus.

Les entreprises qui détiennent des données sensibles devraient donc les protéger, or ce n’est pas toujours le cas. Doctissimo, site spécialisé dans les questions de santé parmi les 100 les plus fréquentés en France, est dans le viseur de la CNIL. La cause ? Le site ne respecterait pas le loi concernant les cookies et technologies de suivi, et il ne remplit pas les exigences nécessaires pour obtenir un consentement des internautes et enfin ne respecte pas les principes de protection des données inscrit dans le RGPD. Doctissimo a accès à des données de santé, donc très sensibles, qu’il partagerait avec des tiers à des fins publicitaires sans le consentement des utilisateurs.

L’émergence des objets connectés amplifie le volume de données créées et pose de nouveaux enjeux. En effet, il s’agit d’adapter la régulation existante à de nouveaux usages et de nouveaux moyens de collecte de données, toujours plus performants.

Les conséquences d’une exploitation frauduleuse

Le cas de l’entreprise britannique Cambridge Analytica est assez emblématique du problème de la liberté d’expression et d’opinion sur les réseaux sociaux. Dès 2015, l’entreprise travaille en partenariat avec les campagnes politiques américaines. Celle-ci a pu avoir accès aux données personnelles de plus de 50 millions d’utilisateurs de Facebook à travers des pratiques abusives. Ces données extrêmement précises auraient permis à Donald Trump de cibler des électeurs américains sur Facebook lors de la campagne électorale de 2016. Cette utilisation non consentie de données personnelles a mis en danger tout le système démocratique américain ainsi que la vie privée de millions de personnes. Les résultats de cette élection ont-t-ils été faussés suite à ce profilage ? Impossible de le savoir. Cet exemple montre qu’il ne faut pas sous-estimer l’influence du traitement de ces données, s’attaquant davantage à des biais inconscients, sur nos propres comportements.

Quel futur pour nos données ?

La collecte de données s’intensifie et, malgré une réelle prise de conscience, ne semble pas empêcher les internautes d’utiliser des plateformes connues pour leur mauvaise réputation en matière de protection de la vie privée. Ce phénomène est souvent appelé “privacy paradox”. La ville du futur se construit aujourd’hui : elle offrira une meilleure qualité de vie à tous, grâce à des services numériques et des outils technologiques qui collectent des données en temps réel.

En Chine, l’examen des données personnelles permet déjà de surveiller les citoyens à travers les caméras et la reconnaissance faciale, mais aussi par un système de crédit social, en place dans 260 villes, qui rémunère des points pour des « bonnes » actions et en enlève pour des « mauvaises » actions. Ces points donnent ensuite accès à certains avantages, ou au contraire vous restreignent l’accès à certains lieux ou services.

Si le futur est construit autour des données, encore faut-il que celles-ci soient collectées et utilisées dans un cadre réglementaire précis. L’un des principaux enjeux pour notre avenir est donc d’appliquer les lois en vigueur concernant la protection des données personnelles, tout en adaptant ces réglementations aux changements rapides du secteur afin d’assurer une meilleure transparence sur le devenir de nos données.

[1] DENIS Jérôme, Le travail invisible des données, éléments pour une sociologie des infrastructure scripturales, Paris, 2018.