Notre nouvel ami Chat GPT est-il misogyne? Les travaux de Kate Crawford pour un IA plus juste
Saviez-vous que Siri et Alexa ont leur propre mouvement "ME Too"? Avec les biais dans l'IA : la discrimination à grande échelle est-elle notre avenir ?
Quand un utilisateur traite Siri de “Bitch”, Siri répond "Je rougirais si je pouvais" !
Siri et Alexa sont-elles des IA neutres ou misogynes? Après “ME Too” un vrai mouvement s’est crée autour des biais de genre pour les systèmes de reconnaissance Vocale.
Au programme :
Pourquoi un déploiement massif et non régulé de l’IA peut avoir des conséquences désastreuses sur les minorités : exemples et travaux de Kate Crawford
Comment expliquer l’IA ou Chat GPT à vos grands parents ; )
Photo credit : Lavin
“Comme toutes les technologies avant elle, l'intelligence artificielle reflétera les valeurs de ses créateurs.” Kate Crawford
A l’occasion de la journée du droit des femmes, j’ai décidé de vous présenter Kate Crawford et surtout interrogé notre nouvel ami à tous: Chat GPT de l’entreprise openAI. Qui n’a pas joué avec? Je lui ai demandé “As-tu un biais de genre?” et je trouve qu’il s’en sort plutôt bien en répondant que :
1/ son algorithme en tant que tel n’a pas de biais intentionnels
2/ MAIS (Et c’est là tout l’enjeu) : il est autant biaisé que les données sur lesquelles il a été entrainé……Or ces données sont celles de la société actuelle donc reflète forcément les biais actuels. CQFD. (Note:il ne mentionne pas que les algorithmes eux-mêmes peuvent contenir des biais)
Pour les curieux voici sa réponse:
Blague à part: le danger de l’IA n’est pas seulement le fait que ces algorithmes sont crées et entrainées par des êtres humains et sur des données de la société actuelle donc forcément biaisés (Car c’est la nature humaine! fuyez si quelqu’un vous dit qu’il/elle n’a aucun biais - that’s BS! Même Gandhi avait des biais ; )
Le vrai danger c’est l’effet boule de neige. C’est un problème qui va rapidement devenir incontrôlable lorsque vos moyens de paiement, votre service client, votre service RH, vos programmes scolaires….tout votre quotidien sera géré par une IA plus ou moins raciste et misogyne. L’IA permet d’enlever énormément de friction dans notre quotidien mais son usage massif et non réglementé pose une réelle question.
Voici la courbe d’adoption de l’AI si vous n’êtes pas convaincu du phénomène d’amplification.
3 exemples marquants d’une IA raciste ou misogyne !
Aviez-vous entendu parlé du “ME too” mouvement pour la reconnaissance vocale? Siri ou Alexa ont été accusé d’encourager les comportements misogynes en 2017.
Quand un utilisateur traite Siri de “Bitch”, Siri répond "Je rougirais si je pouvais"
Quand Amazon’s Alexa est traitée de “You’re a slut,” Alexa répond : “Merci pour ton feedback”
Sachant que plus de 90 millions de personnes aux États-Unis utilisent des assistants vocaux au moins une fois par mois. 24 % des foyers possèdent une enceinte intelligente et 52 % de tous les propriétaires d'enceintes intelligentes déclarent utiliser leur appareil quotidiennement.
On tente de corriger ses réponses mais il y a un vrai problème d’amplification.
En 2018, on a découvert que la technologie de reconnaissance faciale utilisée par la police de Londres était erronée à 98% pour les personnes de couleur. En clair, les noirs étaient plus susceptibles d'être faussement identifiées et arrêtées que les blancs ! Et même problème pour les femmes, les erreurs de reconnaissance faciale étaient en moyenne 35 % plus fréquentes.
L'algorithme de recrutement automatisé chez Amazon a été formé à privilégier les candidats masculins et à éliminer les candidatures féminines. Amazon doit l’abandonner en 2019, se rendant compte que l'algorithme avait été entraîné sur les CV de leurs propres employés, qui étaient en grande majorité des hommes.
Et je vous passe les exemples sur des algorithmes utilisés pour déterminer les soins de santé aux Etats-Unis ou bien ceux utilisés en justice pénale….erreurs d'identification, fausses accusations, soins inadaptés qui augmente la mortalité.
Les travaux de Kate Crawford pour encadrer une intelligence artificielle biaisée
Il y a 3 courants de pensée de l’AI face aux genres :
Celles/Ceux qui pensent que les stéréotypes de genre peuvent être utiles dans certains contextes, comme dans le marketing, la publicité ou utiles dans les processus de prise de décision.
Celles/ceux qui pensent que c’est l’occasion de repartir de zéro et créer une société sans discrimination aucune
Celles/ceux comme Kate Crawford qui pense qu’il faut réguler et encadrer l’intelligence artificielle pour éviter les dérives.
Et vous, dans quelle team êtes-vous?
Kate Crawford est chercheuse spécialiste des impacts politiques et sociaux de l’IA sur la société. Elle suscite le débat et nous force à remettre en question le statu quo et à considérer les dommages potentiels et les conséquences involontaires de l'IA. Son combat est celui d’une IA plus juste, éthique et inclusive.
“Rien ne prouve que les expressions faciales révèlent les sentiments d'une personne. Mais les grandes entreprises technologiques veulent vous faire croire le contraire.”
Kate Crawford
Elle travaille dans la sphère politique aussi pour que l'IA soit développée et mise en œuvre de manière juste et inclusive. Cela nécessite une représentation diversifiée dans le processus de développement et une surveillance et une évaluation continues des systèmes d'IA pour détecter et corriger les biais.
Comment pourrait-on éliminer les biais ?
Il y a plusieurs approches pour effacer les biais dans l'IA. Voici quelques exemples :
Collecte de données représentatives avec une plus grande variété de groupes démographiques. Cela permet d'éviter que les modèles d'IA soient biaisés en faveur d'un groupe.
Créer des algorithmes de machine learning qui sont spécialement conçus pour éviter les biais et la discrimination : prendre en compte les différents besoins et perspectives des groupes démographiques sous-représentés et marginalisés.
Utiliser des approches de formation de l’IA plus équitables qui évitent de privilégier une catégorie spécifique. Ce sont des formations non supervisée ou semi-supervisée qui permet aux modèles d'IA d'apprendre de manière autonome à partir de données plus représentatives.
Avoir des processus d'évaluation continue pour s'assurer que les modèles d'IA ne créent pas de nouveaux biais ou ne reproduisent pas les biais existants. Cela implique souvent l'utilisation de métriques spécifiques pour mesurer la justesse, l'équité et la diversité des résultats de l'IA.
Comme tous les mouvements de de type, la lutte contre les biais dans l'IA est un processus continu et évolutif qui nécessite une collaboration continue entre les experts en IA, les décideurs politiques et les communautés concernées.
Faites le test pour découvrir vos biais. Si ce n’est pas déjà fait, vous pouvez utiliser le test Harvard Implicit pour découvrir vos biais. Vous pouvez être surpris(e) de vos trouvailles ! N’hésitez pas à partager en commentaire.
Qu’est ce que l’intelligence artificielle (IA)?
Tout ce qui désigne l'intelligence démontrée par les machines, par opposition à l'intelligence dont font preuve les humains. Le terme IA est souvent utilisé pour décrire des machines qui imitent les systèmes cognitifs humains tels que l'apprentissage, la compréhension, le raisonnement ou la résolution de problèmes (Russell et Norvig 2016). L'IA a deux dimensions principales :
1/ les processus et raisonnement : un système qui pensent comme un humain ou un système qui pense rationnellement
2/le comportement : un système qui agit comme les humains ou un système qui agit rationnellement
Qu’est-ce que CHAT GPT?
ChatGPT est un type d'intelligence artificielle appelé "modèle de langage". Il a été créé par une équipe de chercheurs chez OpenAI en utilisant une technique appelée "apprentissage profond". Le type de modèle neuronal appelé “transformer” permet d'utiliser des données non structurées pour former un modèle de langage prédictif qui peut être utilisé dans une variété d'applications. Pour former le modèle, OpenAI a utilisé des techniques de génération de texte pour aider le modèle à apprendre les relations entre les mots et les phrases.
Voici 3 choses que vous ne savez peut-être pas sur Chat GPT :
Vous avez l’impression que Chat GPT réfléchit et construit le texte au fur et à mesure"? C’est une pure illusion dû au design de l’interface : avec le texte qui apparaît peu à peu, comme un humain écrirait. Bien que Chat GPT soit capable de générer du texte cohérent et précis, il n'a pas de véritable compréhension de ce qu'il génère. Il se contente de faire des prédictions!
Le modèle a été formé sur une énorme quantité de données non filtrées à partir du web, y compris des conversations inappropriées ou offensantes. Cela peut parfois conduire à des réponses inappropriées ou offensantes de la part du modèle.
Il est possible de biaiser Chat GPT en lui donnant des instructions spécifiques ou en l'exposant à des données biaisées. Par exemple, si le modèle est formé principalement sur des textes écrits par des hommes, il peut avoir des difficultés à comprendre ou à répondre aux textes écrits par des femmes. Il est donc important d'être conscient des biais potentiels lors de l'utilisation de Chat GPT.
“Comme toutes les technologies avant elle, l'intelligence artificielle reflétera les valeurs de ses créateurs. L'inclusivité est donc importante - de qui la conçoit à qui siège aux conseils d'administration de l'entreprise et quelles perspectives éthiques sont incluses.”
“Le sexisme, le racisme et d'autres formes de discrimination sont intégrés aux algorithmes d'apprentissage automatique qui sous-tendent la technologie derrière de nombreux systèmes "intelligents" qui façonnent la façon dont nous sommes catégorisés et annoncés.”
“Les ensembles de données ne sont pas objectifs ; ce sont des créations humaines. Nous donnons leur voix aux nombres, en tirons des conclusions et définissons leur signification à travers nos interprétations.”
“With Big data, comes big responsibilities !”
Pour soutenir cette publication, partagez autour de vous, laissez moi des commentaires, abonnez vous !
Super article!