Un logiciel peut-il attribuer des points de crédits aux consommateurs en fonction de leur nationalité ? Oui, a dit le Conseil d’Etat, en annulant une recommandation de la Commission nationale de l’informatique et des libertés vieille de trois ans.
On connaissait le "contrôle au faciès", officiellement prohibé. Voici venir la légalisation du crédit bancaire passé au filtre des origines nationales. Il aura fallu trois ans de bagarres juridiques, menées par plusieurs organismes bancaires, pour venir à bout d’une recommandation faite par la Commission nationale de l’informatique et des libertés (CNIL). En 1998, cette dernière avait sévèrement analysé une pratique connue sous le nom de "credit scoring ", qui consiste, avant de décider d’accorder un crédit à un client, à s’assurer qu’aucune de ses caractéristiques personnelles et sociales ne le prédestine à être mauvais payeur. Et notamment sa nationalité.
Les européens et les autres
C’est cet avis de la Cnil qui vient d’être battu en brèche par le Conseil d’Etat, dans une décision rendue publique lundi 30 octobre. Qui a annulé ni plus ni moins la délibération de la CNIL. Pourquoi ? Parce que les établissements bancaires à l’origine de la procédure (l’association française des sociétés financières, l’association française des banques, l’association française des établissements de crédit), affirmaient que la CNIL s’immisçait dans leur gestion des prêts. Car, depuis 1998, ils devaient régulièrement déclarer à l’autorité indépendante les logiciels qui leur servaient à accomplir cette activité de tri sélectif. Comprendre : l’attribution de (bons) points en fonction de certains critères. Montant des revenus, des dettes, stabilité professionnelle, résidentielle, situation matrimoniale, etc.... Un célibataire par exemple, peut se voir attribuer 2 points quand une personne mariée en ramasse 8, voire 12 si elle a des enfants. Une note finale trop basse entraîne le rejet de la demande. Dans certains logiciels, les Français se voyaient gratifiés de 10 points, les européens de 8 et les autres ( sans précision) de 1 seul.
Avant d’ émettre son avis, la CNIL avait enquêté sur le terrain, auprès de 7 établissements distributeurs de crédit, contrôlant 80 % du marché français. Et poursuivi l’analyse au fur et à mesure des dossiers qui lui étaient communiqués par des clients mécontents. Elle avait ainsi été destinataire d’un cas, indiquant qu’un logiciel attribuait une note pénalisante qui excluait les originaires d’un territoire d’outre-mer d’une solution de crédit. L’entreprise de crédit, titillée par la CNIL, avait "nettoyé" son dispositif de ce filtre douteux.
Conseil d’Etat et facteur humain
Le Conseil d’Etat apparaît, lui moins sourcilleux en ce qui concerne l’origine territoriale des clients au crédit. La référence à la nationalité est "l’un des éléments de pur fait d’un calcul automatisé du risque, dont la mise en œuvre n’entraîne pas le rejet d’une demande sans l’examen individuel de celle-ci (et) ne constitue pas une discrimination (...)" , a-t-il conclu.
Tablant sur le "facteur humain", il prend un pari sur ce qu’il adviendra d’un croisement raisonné entre les données numériques d’un logiciel et les circonvolutions d’un cerveau. Dans sa défense devant le Conseil d’Etat, la CNIL faisait valoir, elle, que si tous les critères donnés à digérer aux logiciels de "scoring" étaient objectifs, la nationalité, elle, ne pouvait appartenir au monde des algorithmes... Si les banques persistent, ce sera plus tard aux juges de parler. Pour dire si les principes de la République peuvent encore dominer "l’examen individuel" du dossier de crédit d’un étranger vivant en France.