Un jour­na­liste se met torse nu lors d’un stream. Les algo­rithmes lui donnent un score de ~20% de raci­ness (tra­duc­tion mai­son, obs­cé­ni­té ?).
Le jour­na­liste sort alors un sou­tien-gorge et là, les algos (de Google et Micro­soft) s’af­folent, et le même gars score presque au maxi­mum d’obscénité.
Il faut donc com­prendre que le corps d’un « homme » nu est consi­dé­ré comme moins obs­cène que le corps d’une femme cou­verte pour­tant d’un sou­tif.
J’ai lu ça dans The Guar­dian du 8 février 2023*, sur les indi­ca­tions don­nées dans Geeks, trolls et Cie épi­sode 2, du pod­cast Les couilles sur la table de Vitoire Tuaillon**
Molière écri­vait en 1669 dans le Tar­tuffe :
« Cou­vrez ce sein, que je ne sau­rais voir. Par de pareils objets les IA sont bles­sées, et cela fait venir de cou­pables pen­sées »
(Acte III scène 2, vision­naire le Momo).
* « ‘There is no stan­dard’ : inves­ti­ga­tion finds AI algo­rithms objec­ti­fy women’s bodies », de Gian­lu­ca Mau­ro & Hilke Schell­mann https://www.theguardian.com/…/biased-ai-algorithms-racy…
** https://www.binge.audio/…/les…/geeks-trolls-cie‑2–2, avec Lucie Ron­faut et Mathilde Saliou

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *