Un journaliste se met torse nu lors d’un stream. Les algorithmes lui donnent un score de ~20% de raciness (traduction maison, obscénité ?).
Le journaliste sort alors un soutien-gorge et là, les algos (de Google et Microsoft) s’affolent, et le même gars score presque au maximum d’obscénité.
Il faut donc comprendre que le corps d’un « homme » nu est considéré comme moins obscène que le corps d’une femme couverte pourtant d’un soutif.
J’ai lu ça dans The Guardian du 8 février 2023*, sur les indications données dans Geeks, trolls et Cie épisode 2, du podcast Les couilles sur la table de Vitoire Tuaillon**
Molière écrivait en 1669 dans le Tartuffe :
« Couvrez ce sein, que je ne saurais voir. Par de pareils objets les IA sont blessées, et cela fait venir de coupables pensées »
(Acte III scène 2, visionnaire le Momo).
* « ‘There is no standard’ : investigation finds AI algorithms objectify women’s bodies », de Gianluca Mauro & Hilke Schellmann https://www.theguardian.com/…/biased-ai-algorithms-racy…
** https://www.binge.audio/…/les…/geeks-trolls-cie‑2–2, avec Lucie Ronfaut et Mathilde Saliou
Commentaires récents