Publication 12 octobre 2017
Biais discriminatoires des algorithmes
Un algorithme est-il capable de reconnaitre l’orientation sexuelle d’un individu à partir de photos ?
C’est en tout cas ce que révèle une étude de l’Université de Stanford selon laquelle un de leur logiciel de reconnaissance faciale a pu analyser 35 000 photos de personnes sur un site de rencontres et ainsi « distinguer un homme homosexuel d’un homme hétérosexuel [avec réussite] dans 81% des cas (contre 74% pour les femmes) » (En savoir plus). À ce titre, Antonio Casilli, sociologue spécialiste des réseaux sociaux, souligne dans son blog les importants biais méthodologiques à l’œuvre dans l’étude. Il dénonce en effet la logique binaire du logiciel (« être gay ou non », quid des bi-sexuels ou des personnes trans-genres ?) ou encore le fait que « les résultats de l’étude ne concernent que des images de personnes blanches » (En savoir plus). Quoi qu’il en soit, cette expérience met en exergue l’extrême nécessité de penser l’éthique autour de ces machines et nous rappelle à quel point un cadre juridique protégeant strictement la vie privée et les données s’avère indispensable à l’heure où certains pays persécutent leur population en raison de leur ethnie, religion ou orientation sexuelle.
Quand l’utilisation détournée des outils de ciblage permet de sponsoriser des contenus haineux.
Le site américain ProPublica a récemment réalisé une enquête autour du dispositif publicitaire de Facebook, l’outil qui permet à des annonceurs de cibler des utilisateurs du réseau en vue de leur fournir un contenu pertinent au regard de leur âge, sexe ou encore leurs centres d’intérêt. Les journalistes de ProPublica ont pu se rendre compte qu’il était possible de cibler des catégories de personnes qui « haïssent les juifs » ou encore « veulent bruler des juifs » afin de leur fournir des contenus correspondants à leur opinion (Voir l’enquête). Si Facebook a depuis supprimé ces catégories après la réclamation de ProPublica, cette utilisation malintentionnée de cet outil marketing interroge (En savoir plus).
Technologies de l’intelligence artificielle : progrès ou menace ?
Si les technologies en général et l’intelligence artificielle en particulier annoncent une ère faite de progrès, les menaces potentielles induites par une utilisation malveillante et détournée (consciente ou non) de ces outils ne doivent être sous-estimées. En effet, nous ne devons, en aucun cas, oublier le passé pour nous donner un avenir. Le poids historique joué par les données en Europe (fichage informatique de la population juive par la société Dehomag) devra toujours être à l’esprit pour nous rappeler la nécessité de protéger nos données et de porter une voix européenne forte sur les enjeux éthiques à venir. Il en va de la sauvegarde de nos libertés les plus fondamentales.