IN : Pour vous, il ne fait aucun doute que l’IA a un genre. Comment expliquez-vous ce fait ?
Daphné Marnat : Je dirais que l’IA est stéréotypée. Dans la mesure où les modèles de langue (Large Langage
Model) qui la nourrissent sont entraînés à partir de grandes masses de traces écrites et visuelles libres de droit donc souvent datées, il ne peut en être autrement. L’IA reproduit les stéréotypes qui ont été encapsulés dans ces corpus d’apprentissage. Et les machines sont gourmandes, il leur faut beaucoup de données. Il est difficile de compenser le poids des corpus « datés, stéréotypés » par des corpus qui seraient créés ad hoc, plus en ligne avec nos normes de société actuelles (qui diffère d’une culture à une autre d’ailleurs). De plus, les informations liées à l’identité de genre sont des informations qui sont très discriminantes, donc très utiles aux modèles qui ont tendance à les amplifier. Enfin, les personnes qui entraînent ces modèles sont en très grande majorité des hommes. Sans qu’ils soient ouvertement sexistes, ils choisissent et raisonnent les problèmes qu’ils adressent avec la culture dans laquelle ils ont été éduqués. Cette culture, on le sait, est très masculine.
INF. : Unbias-IA travaille à redresser les biais à risque discriminatoire dans les modèles de langage (ChatGPT par exemple). Racontez-nous comment vous y prenez-vous concrètement ?
D.M. : Nous développons des algorithmes pour mesurer et réduire la reproduction et l’amplification des biais à risques discriminatoires à l’intérieur des modèles de langue. Donc on fait des maths, du code essentiellement ! Il est important de comprendre que nous n’avons pas donné de règles à nos algorithmes. Ils ont appris de manière non supervisée par des humains. En quelque sorte, ils apprennent à repérer les stéréotypes et à les réduire de manière objective sans que l’humain n’intervienne.
INF : Que proposez-vous ?
D.M. : Mon objectif est de limiter le poids et l’impact des biais liés à l’identité de genre des modèles, notamment quand ils sont pensés pour des applications de ressources humaines, médicales. On sait que les algorithmes de détection de certaines pathologies sont beaucoup moins performants sur les femmes car entraînés sur des corpus déséquilibrés (plus masculins). Les hommes ne sont pas exempts de ces effets discriminants sur les thématiques culturellement associées au féminin (le soin, la créativité, la beauté).
INF. : Comment « féminiser » l’IA, dans la mesure où la masse d’informations engrangée est genrée depuis le départ ?
D.M. : La solution n’est pas que technique, même si on a essayé d’y répondre par la technologie. L’évolution de notre société, les combats féministes, l’adoption de politiques diversité et inclusion par les entreprises et institutions, la loi ! L’IA act, en cours de vote à l’Union Européenne, va imposer aux sociétés qui mettront en production des IA de maîtriser les risques discriminatoires de leurs modèles.
Il est important de comprendre que les IA ne sont pas sexistes en soi. Elles sont chargées d’une représentation d’un monde, d’une société dont on ne veut plus pour des raisons éthiques, mais pas seulement. Oubliez un genre dans ses stratégies de recrutement, commerciales, marketing ou d’édition est un manque à gagner certain. Nous parlons de la moitié de la population mondiale.
INF. : Votre action ne se résume pas au genre, quelle est l’ambition de votre programme ?
D.M. : Qu’il s’agisse du langage écrit, vocal, ou visuel, les objets qui utilisent la reconnaissance vocale sont également moins performants sur les voix de femmes. Ces machines ont appris et ont été éduquées par des voix d’hommes parce que les femmes, c’est bien connu « ne sont pas douées avec les machines” (rires). La route est longue… Au départ, mon combat vise les discriminations liées à l’identité de genre. Nous travaillons aussi sur d’autres discriminations comme l’âge, l’origine religieuse, sociale, la localisation, le handicap. Souvent une discrimination ne voyage pas seule.