@decorator/Stock.adobe.com/ générée avec IA
Fraude sociale : la Défenseure des droits alerte sur le recours aux algorithmes
L'intensification de la lutte contre la fraude en matière de protection sociale fait émerger "de nouveaux risques d'atteintes aux droits des usagers", alerte la Défenseure des droits dans un rapport publié ce jeudi 23 avril. Elle appelle notamment à encadrer le recours aux algorithmes de ciblage afin de prévenir les discriminations.
@decorator/Stock.adobe.com/ générée avec IA
"La lutte contre la fraude est indispensable, c'est d'ailleurs un objectif à valeur constitutionnelle. Mais ce que l'on observe […], c'est que cette lutte contre la fraude se retourne contre les personnes", a déclaré Claire Hédon, ce jeudi matin, au micro de RMC. La Défenseure des droits, qui publie ce jour un rapport sur le sujet, a d'abord pointé à l'antenne "une confusion entre les erreurs et la fraude".
"Si jamais il y a une qualification de fraude, c'est à l'organisme social de prouver qu'il y a fraude et ce n'est pas à l'usager de prouver qu'il n'a pas fraudé", a rappelé Claire Hédon, qui observe "très souvent, [parmi] nos réclamants, des erreurs dues à la complexité du système" et des démarches. Erreurs qui, a-t-elle insisté, peuvent provenir des usagers mais aussi des organismes.
Alors que la loi "consacre le droit à l'erreur", la Défenseure des droits observe "un écart entre le droit annoncé et son effectivité". Dans son rapport, elle émet "un certain nombre de recommandations sur la clarté du langage et [ce qui est demandé] aux personnes", parfois contraintes de rembourser des sommes pouvant atteindre "10 000, 15 000, 25 000 euros".
Autre recommandation : "encadrer le recours aux algorithmes afin de prévenir les discriminations et le surcontrôle de certains publics, notamment les plus précaires", lit-on dans le rapport. Afin d'"optimiser l'efficacité et l'efficience des contrôles", les organismes sociaux sont en effet de plus en plus "incités" à automatiser leurs procédures, notamment grâce à des algorithmes permettant de cibler les dossiers à contrôler en priorité.
Mais "il apparaît que les organismes de sécurité sociale, en se focalisant essentiellement sur l'amélioration de l'efficacité des contrôles, ont développé leur automatisation sans mener de réflexion véritablement approfondie et encore moins aboutie, ni sur les effets qu'elle est susceptible de produire sur les droits des usagers qui en font l'objet, ni sur les risques de discrimination qu'elle peut induire", soulève le rapport.
La Défenseure des droits pointe notamment "le risque d'amplification des atteintes au droit à la vie privée et familiale", à travers l'accès à certaines données personnelles, bancaires ou issues des réseaux sociaux. Le rapport relève également le caractère "intrusif" des contrôles pour les usagers, souvent vécus comme empreints d'une "présomption de culpabilité".
"Il y a des risques d'atteintes à la vie privée avec ce qui est public ou non (sur les réseaux sociaux, NDLR). C'est important que les personnes comprennent quel a été le motif du contrôle de départ : est-ce l'algorithme, est-ce de l'intelligence artificielle qui a été utilisée et quand un contrôleur est-il intervenu ?, pour pouvoir le contester", a indiqué Claire Hédon sur RMC.
L'encadrement du recours aux algorithmes doit passer par la mise en œuvre d'une "démarche de transparence du modèle algorithmique et des analyses réalisées", la réalisation systématique d'une "analyse d'impact sur la protection des données (AIPD)", et par des évaluations sur les éventuels effets discriminatoires.
[avec RMC et AFP]
La sélection de la rédaction
Arrêt maladie : la possibilité de solliciter un deuxième avis auprès d'un confrère spécialiste est-elle une bonne idée ?
Blue GYN
Non
⚖️ On remarque que pour ceux qui répondent soit OUI soit NON, l'argumentaire est à peu près superposable, le seul spécialiste inco... Lire plus