L’éthique des algorithmes : Comment l’Europe se positionne-t-elle par rapport aux autres continents ?

L’éthique des algorithmes : Comment l’Europe se positionne-t-elle par rapport aux autres continents ?

La compréhension de l’écosystème de la donnée évolue et on se rend compte que les données sont partout et que de facto les algorithmes sont partout. Plus on déploie les technologies Big Data, plus on est impacté par les algorithmes. La première vague était plutôt optimiste et utopiste vis-à-vis des technologies Big Data. On pensait que le Big Data allait tout permettre (une sorte de baguette magique qui permet de tout résoudre) mais c’est le déploiement à large échelle qui a généré cette prise de conscience qu’il pourrait y avoir des effets de bord pas toujours maîtrisable.

Ce ne sont pas les algorithmes dans l’absolu qui sont à remettre en question, il s’agit d’une véritable évolution technologique. L’analyse des données n’est pas une nouvelle discipline mais elle est en train d’évoluer de la description du passé vers l’analyse prédictive et de plus en plus vers une analyse prescriptive qui elle doit être questionnée en particulier dans les contextes à fort impact sur l’individu et la société.

Comprendre le positionnement vis à vis des algorithmes et de l’éthique dépend beaucoup des sphères culturelles diverses dans une géopolitique variable à travers le monde.

La naissance d’un questionnement éthique aux États-Unis

En France et en Europe, nous sommes toujours dans une posture ou l’humain doit rester maître des décisions. Ce n’est pas le cas aux Etats Unis où la frontière du prescriptif a été franchie il y a peu. On peut désormais faire une consultation chez le «docteur Watson» sans médecin. Le prescriptif envahie peu à peu la société, dans les services privés comme publics, dans des domaines comme la Justice Prédictive, les décisions d’octroi de prêts ou encore le recrutement.

La première vague de questionnement, d’ailleurs, vient des Etats-Unis, notamment au travers des ouvrages The Black Box Society – The Secret Algorithms That Control Money and Information (Frank Pasquale) et Weapons of Math Destruction (Cathy O’Neil, Crown Publishers). La Commission fédérale du commerce a également produit un rapport sur « Les Big Data : une chance pour l’inclusion ou une source d’exclusion » sur plusieurs pans de la société. L’office scientifique et technologique de la Maison Blanche a enfin publié en 2016 un rapport sur les opportunités du Big Data en lien avec les droits civiques.

Le domaine privé s’empare également de ces questions éthiques. Amazon, Apple, DeepMind, Google, Facebook, IBM et Microsoft ont récemment initié un « Partnership on AI to benefit people and society » qui consiste en une plateforme ouverte visant à étudier et formuler les meilleures pratiques sur les technologies de l’IA, faire progresser la compréhension par le public de l’IA et servir de plate-forme ouverte de discussion et d’engagement sur l’IA et ses influences sur les personnes et la société. Ces acteurs réunis souhaitent développer une politique concertée sur l’éthique, la transparence des algorithmes et des études sur l’impact de l’AI sur la société et les individus. Cette initiative récente, portée par le business, souhaite ainsi lever les verrous et les freins des citoyens sur ces thématiques éthiques. Aucune loi ne les y oblige, c’est plutôt le marché qui les y oblige et les motive à donner des garanties et à offrir de la confiance aux citoyens. Ils sont en effet bien conscients qu’à service égal, celui qui sera le plus transparent et responsable sera celui qui remportera la course.

Quand les gens n’ont plus confiance ou ont des doutes, ils peuvent ne pas adhérer aux offres technologiques même si elles sont innovantes. Fournir des garanties de confiance et de transparence peut être extrêmement favorable au business.

Des réflexions initiales orientées vers la protection des données personnelles en Europe

En Europe, les réflexions ont surtout été orientées vers la protection des données personnelles. La CNIL a été très active et maintenant le RGDP vient encadrer l’utilisation des données au niveau européen. Le RGDP est clairement une bonne avancée concernant la garantie des droits des citoyens par contre il ne garantit pas nécessairement l’explicabilité et la transparence des services numériques.

La démarche européenne, plus généralement, s’oriente davantage vers la protection, d’une part car les algorithmes n’ont pas encore franchi ce caractère prescriptif et, d’autre part, car les grandes plateformes comme Google ou Facebook qui se nourrissent de données européennes ne sont, elles, pas européennes. L’Europe a donc été naturellement dans une réaction défensive, de contrôle et de régulation des données personnelles, carburant de ces plateformes.

Le respect de la protection des données peut cependant donner des chances aux acteurs européens et leur donner des arguments compétitifs vis-à-vis d’acteurs américains. Naturellement, il ne faut pas que la régulation freine les fournisseurs de technologies européens vis-à-vis d’acteurs qui n’ont pas cette réglementation qui pèse sur eux et qui de fait ont plus de marge de manœuvre.

La Commission Européenne a, par ailleurs, récemment sorti un appel d’offres sur 18 mois, une étude sur la transparence et la redevabilité, ce que l’on appelle «accountability» des algorithmes. Il y a donc une vraie prise de conscience de cette nécessité pour les entreprises de rendre compte et de pouvoir disposer d’algorithmes auditables. Il s’agit là, désormais, de la responsabilité sociale et juridique des entreprises. Ce volet a des implications sur la nécessité d’adaptation et d’évolution des formations des étudiants et ingénieurs en science des données. Le concept essentiel derrière ces initiatives est l’asymétrie informationnelle. Par exemple, quand on nous recommande un bien ou un service, est-ce que la recommandation est vraiment en fonction des traces laissées par le citoyen et au bénéfice du citoyen, au sens de la personnalisation du service, ou est- ce que c’est au bénéfice de l’entreprise qui cherche à vendre ce bien ou ce service plutôt qu’un autre ? Est-ce que le livre que l’on me recommande est celui qui est fait pour moi ou est-ce le produit que l’industriel cherche à écouler ? Est-ce que l’algorithme est loyal pour celui qui consomme le service ou est-ce qu’il est loyal pour son concepteur ?


Pas de commentaires

Ecrire un commentaire
Pas de commentaire actuellement! Vous pouvez être le premier à commenter cette article!

Ecrire un commentaire

Votre adresse e-mail ne sera pas publié
Les champs requis sont indiqués*