Le grand mensonge de la collecte de données de santé “anonymisées”
Alors que de nombreux services et applications collectent des données anonymisées sous prétexte d'améliorer leur prestation, des études montrent qu’une telle anonymisation est souvent impossible. Des données des usagers pourraient en effet être reliées à tout moment à l'identité de l’utilisateur.
Des systèmes pour protéger la vie privée numérique facilement contournables
Malgré les efforts du Règlement général de la protection des données (RGPD) européen pour que les données de santé soient « anonymisées » avant de pouvoir être partagées ou vendues à des tiers, la ré-identification de données « anonymisées » est relativement facile. Les établissements de santé, par exemple, doivent retirer de leurs bases de données tous les noms et adresses, et pour éviter la ré-identification des données, ils doivent substituer le numéro de l’assuré social par une suite de chiffres aléatoires. Cependant, pour des chercheurs de l’Université catholique de Louvain et de l’Imperial College de Londres, la ré-identification des individus est possible et cela sans même avoir recours au piratage informatique.
Le partage des données médicales, au coeur des préoccupations concernant la ré-identification des individus
Dans leur étude “ Estimer le succès des ré-identifications dans des ensembles de données incomplets à l'aide de modèles génératifs” les chercheurs ont utilisé de l’intelligence artificielle pour prouver que l’anonymisation des données de santé n’est qu'un grand mensonge, et que ces données sensibles peuvent être exploitées, à des fins de chantage, de surveillance de masse, d'ingénierie sociale ou d'usurpation d'identité. Selon les chercheurs, les résultats suggèrent que “même des ensembles de données anonymisés fortement échantillonnés sont peu susceptibles de satisfaire aux normes modernes d'anonymisation énoncées par le RGPD et remettent sérieusement en question l'adéquation technique et juridique du modèle de libération et d'oubli de l'anonymat.” En regroupant des critères qualifiants, l’intelligence artificielle des chercheurs a été capable de réaliser cette identification. À partir de 15 critères sociodémographiques comme l’âge, le genre, le lieu, le métier, la nationalité et d’autres critères décrivant le statut social des individus, les chercheurs ont pu identifier des individus avec un taux de réussite de 100 %.
TousAntiCovid, un exemple du manque de sécurité des données privées
Plusieurs applications sensibles collectent des données qui peuvent être ré-identifiées par la suite. Comme nous l’avions déjà écrit dans un article, le système de l’application TousAntiCovid permet de déduire un certain nombre de données concernant un utilisateur, notamment son nom, son prénom ou sa date de naissance en associant « un identifiant d'application (UUID) à une identité réelle,” ainsi qu’à ses relations.
À LIRE AUSSI
L'article vous a plu ? Il a mobilisé notre rédaction qui ne vit que de vos dons.
L'information a un coût, d'autant plus que la concurrence des rédactions subventionnées impose un surcroît de rigueur et de professionnalisme.
Avec votre soutien, France-Soir continuera à proposer ses articles gratuitement car nous pensons que tout le monde doit avoir accès à une information libre et indépendante pour se forger sa propre opinion.
Vous êtes la condition sine qua non à notre existence, soutenez-nous pour que France-Soir demeure le média français qui fait s’exprimer les plus légitimes.
Si vous le pouvez, soutenez-nous mensuellement, à partir de seulement 1€. Votre impact en faveur d’une presse libre n’en sera que plus fort. Merci.