Neural networks: ce qu’ils m’ont appris sur mes propres biais — Nelly Cornejo



Original Source Here

Neural networks: ce qu’ils m’ont appris sur mes propres biais — Nelly Cornejo

Nelly Cornejo, experte AI For Tomorrow, est présidente de la TAAL — Technological Association for Advanced Learning.

J’ai décidé d’écrire cet article après avoir essayé un réseau de neurones pour la reconnaissance des émotions en temps réel. J’ai été tellement surprise de ce que j’ai découvert sur mes propres biais que j’ai pensé que ce serait une bonne idée de partager mon expérience avec les autres. Au cours du programme de mentorat Tech2Impact ayant lieu en Autriche, j’ai eu l’opportunité de mentorer Renoon, un outil de recherche révolutionnaire pour le « sustainable fashion shopping ». Le but était de comparer les réponses qu’ils ont reçues en utilisant un sondage en ligne traditionnel sur leur page d’accueil avec un sondage utilisant la reconnaissance des émotions. Je me souviens que j’avais envie de tester la reconnaissance des émotions à partir du moment où j’ai vu une vidéo de lancement de produit sur Youtube dans laquelle des questions étaient posées sur un yaourt. C’était incroyable de voir la différence entre les réponses données et les émotions montrées sur la caméra. Certaines personnes disent qu’elles ont aimé la saveur, mais manifestaient l’émotion du stress ou de l’anxiété, peut-être parce qu’elles se sentaient sous pression à propos des questions… Qui sait ! J’ai été impressionnée par le fait qu’on puisse décrypter les émotions de quelqu’un, et je me suis dit, waouh, je DOIS apprendre à faire ça ! La première étape consistait à faire reconnaître les visages par le modèle de réseau de neurones, puis identifier leurs émotions. J’ai trouvé un jeu de données avec des milliers de visages avec 6 émotions différentes ; le bonheur, la peur, la colère, la tristesse, la neutralité, le dégoût et la surprise. Notons que les émotions correspondent à de l’énergie en mouvement puisqu’elles ne durent qu’environ 90 secondes dans notre cerveau. Leur but est très primitif, elles sont destinées à nous aider à survivre. Par exemple, la peur nous aide à déclencher l’adrénaline si nous devons prendre la fuite lorsque poursuivis par un lion. Aussi, grâce au dégoût, nous évitons de manger de la nourriture périmée et tomber malade ou même mourir.

Photo de Pavel Danilyuk provenant de Pexels

Le but de ce modèle (programme) était la détection des visages, puis la reconnaissance des émotions. Plus vous entraînez un modèle, plus vous lui donnez de données et meilleurs sont les résultats (mais personne ne m’a dit que cela pouvait être aussi amusant). J’ai été très surprise de voir à quel point c’était fascinant de regarder chaque « epoch » (répétition) lors de l’entraînement du modèle. Le niveau de précision montant et descendant encore et encore avec chaque répétition avait quelque chose de très captivant. C’était comme une montagne russe de niveaux de précision (« accuracy levels »). Cela a duré des jours entiers ; laisser un modèle s’entrainer toute la nuit et me réveiller le lendemain pour vérifier sa performance était quelque chose que je n’aurais jamais imaginé être si fascinant. C’était comme se réveiller pour découvrir les cadeaux sous le sapin de Noël. Chaque matin, je n’arrêtais pas de penser, comment puis-je l’améliorer ? Après une semaine d’entraînement du modèle et de visionnage de plus de tutoriels que je ne peux en compter. 17 versions plus tard, j’ai enfin pu obtenir un niveau de précision acceptable. Maintenant, il était temps de le tester avec quelqu’un d’autre que moi ! Vivant aux Pays-Bas, mes trois premiers volontaires étaient caucasiens. J’ai été ravie des résultats ! La plupart des émotions correspondaient à leurs expressions faciales et aux réponses données. C’était intéressant de voir comment chaque question déclenchait divers degrés d’émotion. Au cours de cette première étape, j’ai réalisé deux choses ; la première était l’importance de l’éclairage. Parfois, une lampe murale très lumineuse était détectée comme un visage. Donc, pour obtenir de meilleurs résultats, je devais être dans une pièce ni trop lumineuse, ni trop sombre. La seconde était que puisque je le faisais sur mon ordinateur portable, les volontaires pouvaient également voir l’écran montrant leurs émotions, ce qui a impacté le résultat. Pour les tests suivants, j’ai décidé de couvrir l’écran. J’étais aussi ravie de la portée de détection des émotions, jusqu’à 2,30 mètres de l’ordinateur et jusqu’à 5,30 mètres pour la détection des visages. Pour continuer l’étape des tests, j’ai demandé à ma voisine si elle pouvait me donner un coup de main. Je suis allé chez elle et j’ai fait tout ce que j’ai l’habitude de faire. Elle était assise de l’autre côté de la table en train de prendre le thé comme n’importe quel autre jour, se relaxant à la maison. J’ai tout de suite senti que quelque chose n’allait pas parce qu’il y avait beaucoup trop d’émotions tristes et neutres par rapport aux autres personnes.

Qu’est ce qui a bien pu se passer ? La première chose qui m’est venue à l’esprit étaient mes propres biais. J’ai immédiatement pensé que le modèle ne fonctionnait pas avec elle parce que le jeu de données était biaisé. Je me suis immédiatement souvenu du vérificateur de photos de passeport et de tant d’autres histoires de logiciels biaisés. Celui sur les passeports était très controversé ; le logiciel était destiné à reconnaître les personnes qui fermaient les yeux lorsqu’elles prenaient une photo. Le problème était que pour les asiatiques, le logiciel n’arrêtait pas de demander de reprendre la photo. Vous pouvez imaginer à quel point cela a dû être dérangeant. Cela m’a également fait penser au logiciel de police prédictive, qui est plus susceptible d’identifier ou de déclencher une alerte pour quelqu’un d’une ethnie ou d’un code postal spécifique, et bien sûr, le cas des véhicules automatisés, qui identifient moins bien les femmes ou les personnes de couleur comme obstacle. Donc, dans cet esprit, j’étais convaincue que le problème était un jeu de données biaisé. C’était une situation très frustrante ! Je n’arrêtais pas de penser à tous ces articles sur les biais. Je ne savais pas quoi faire. Est-ce que je devais vérifier les photos ? Est-ce que je devais tester un autre jeu de données ? Ces idées étaient absurdes… Je n’allais pas aller vérifier moi-même chaque image. Ça aurait été dingue ! Je n’arrêtais pas d’y penser en regardant en boucle les enregistrements pour essayer de trouver ce qui n’a pas fonctionné. Après quelques jours, j’ai comparé tous les participants et j’ai réalisé que la seule différence entre elle et les autres était qu’elle était assise dans une position différente. Dans cette optique, j’ai commencé à réfléchir à tout ce qui concerne la position, et j’ai découvert deux choses.

Eureka!

La première, c’était la librairie que j’utilisais, appelée « front face recognition », afin que le modèle puisse détecter les visages. En regardant la vidéo, j’ai remarqué que ma voisine n’était pas assise directement en face de la caméra. En fait, elle était légèrement orientée vers la droite et la détection n’était donc pas idéale. La deuxième chose était la position de l’écran de mon ordinateur. Pendant le test, l’écran de mon ordinateur n’étant pas à 90 degrés, mais légèrement penché vers l’arrière. J’ai alors réalisé que quand la caméra est penchée en arrière, un visage neutre peut sembler triste… voilà pourquoi j’ai eu ces résultats !

Conclusion

Il est tout à fait normal d’avoir des biais, nous en avons tous ! On doit juste faire attention à ne pas les laisser impacter la façon dont nous interagissons avec la société. Il est de notre responsabilité d’avoir une connaissance approfondie de la technologie que nous créons, en particulier quand cette technologie peut impacter la vie de milliers, voire de millions de personnes. Cette expérience a été une grande leçon sur mes propres biais, et sûr à quel point il est facile de faire des conclusions hâtives ou d’établir des jugements avant d’avoir toutes les informations. Cette expérience m’a appris aussi la complexité et la responsabilité que nous avons en termes de création de technologie. Mais la bonne nouvelle, c’est qu’aujourd’hui, nous avons des outils qui peuvent nous aider. Si vous êtes impliqué(e) dans un service ou produit qui nécessite d’utiliser la technologie, et que vous avez des questions sur les biais ou sur comment mieux assumer vos responsabilités envers vos clients, vos employés et même la société dans son ensemble, je vous recommande de consulter l’évaluation gratuite de la technologie responsable “RTA”. Elle a été créée par Tech2Impact et Henry Dobson du « Institute of Techncological Ethics » en Australie. Cette évaluation concerne six domaines : l’éthique des affaires, la compréhension socioculturelle, l’éthique technique, les risques pour la santé, les risques démocratiques et les risques sociaux. À la fin de l’évaluation, vous recevrez un score pour chaque domaine clé et des informations sur la meilleure façon d’aligner vos pratiques commerciales avec les besoins des parties prenantes.

Lire sur notre site.

Nelly Cornejo,

Experte AI For Tomorrow,

Présidente de la TAAL — Technological Association for Advanced Learning

AI/ML

Trending AI/ML Article Identified & Digested via Granola by Ramsey Elbasheer; a Machine-Driven RSS Bot

%d bloggers like this: