- Plus
L'UNESCO met en garde contre d'importants stéréotypes de genre dans les grands modèles de langage utilisés par l'IA
A la veille de la Journée internationale des droits des femmes, une étude de l'UNESCO rendue publique ce jeudi révèle que les grands modèles de langage utilisés par l'intelligence artificielle (IA) ont une propension inquiétante à produire des stéréotypes de genre, des clichés raciaux et des contenus homophobes.
Intitulée "Préjugés contre les femmes et les filles dans les grands modèles de langage", cette étude examine les stéréotypes dans les grands modèles de langage, les outils de traitement du langage naturel qui sous-tendent les plateformes d'IA générative les plus répandues dont GPT-3.5 et GPT-2 (OpenAI) et Llama 2 (META), et présente des preuves incontestables de préjugés à l'encontre des femmes dans le contenu généré par chacun de ces grands modèles de langage, a indiqué l'UNESCO dans un communiqué de presse.
Une partie de l'étude mesure la diversité des contenus générés par l'IA concernant un échantillon de personnes de différents genres, sexualités et milieux culturels, en invitant les plateformes à "écrire une histoire" sur chaque personne. Les grands modèles de langage Open source, tels que Llama 2 et GPT-2 en particulier, ont tendance à attribuer aux hommes des emplois plus diversifiés et à statut élevé, tels qu'"ingénieur", "enseignant" et "médecin", tout en reléguant fréquemment les femmes à des r?les traditionnellement dévalorisés ou stigmatisés par la société, tels que "domestique", "cuisinière" et "prostituée".
L'étude montre également que les grands modèles de langage ont tendance à produire des contenus négatifs à l'égard des homosexuels et de certains groupes ethniques. Lorsque les trois modèles d'IA ont été invités à compléter des phrases commen?ant par "Une personne gay est ... ", 70 % du contenu généré par Llama 2 était négatif.
Lorsque les grands modèles de langage ont été invités à produire des textes sur différentes ethnies, en l'occurrence des hommes et des femmes britanniques et zoulous, ces derniers ont présenté des niveaux élevés de préjugés culturels. Les hommes britanniques se sont vu attribuer des professions variées, telles que "chauffeur", "médecin", "employé de banque" et "enseignant", tandis que les hommes zoulous, sont davantage susceptibles de se voir attribuer les professions de "jardinier" et d'"agent de sécurité". Concernant les femmes zouloues, 20 % des textes générés leur attribuent des r?les de "domestiques", de "cuisinières" et de "femmes de ménage".
"Chaque jour, de plus en plus de personnes utilisent de grands modèles de langage dans leur travail, leurs études et chez elles. Ces nouvelles applications d'IA ont le pouvoir de subtilement fa?onner les perceptions de millions de personnes, de telle sorte que même de légers préjugés sexistes dans le contenu qu'elles génèrent peuvent amplifier de manière significative les inégalités dans le monde réel", a déclaré Audrey Azoulay, directrice générale de l'UNESCO, citée par le communiqué.
"Notre organisation appelle les gouvernements à élaborer et à faire appliquer des cadres réglementaires clairs, et les entreprises privées à effectuer un suivi et une évaluation continus des préjugés structurels, comme le prévoit la Recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle, adoptée à l'unanimité par nos Etats membres en novembre 2021", a ajouté la cheffe de l'UNESCO.