У алгоритмов интернет-гигантов обнаружен сексизм

345
Pixabay.com

Эксперимент с публикацией серии объявлений о вакансиях подтвердил, что у Facebook и Google для разных профессий – разные «половые предпочтения».

Как сообщает nashagazeta.ch, швейцарская телерадиокомпания RTS вместе с немецкой некоммерческой организацией AlgorithmWatch опубликовали объявления о вакансиях в Facebook и Google в Швейцарии, Германии, Польше, Франции и Испании. В одном случае искали разработчика в области машинного обучения, в другом – водителя грузовика, парикмахера, учителя начальных классов, юрисконсульта и санитара. Издание отмечает, что должности были написаны в мужском роде, но этим «половая идентичность» вакансий и ограничивалсь.

Оказалось, что в Конфедерации текст объявления «Требуется водитель грузового автомобиля» увидели 3607 мужчин и 631 женщина, в Германии – 4864 и 386 соответственно. С объявлением о поиске «учителя начальных классов» получилось все ровно наоборот: его показали 1 203 швейцарком и 369 швейцарцам, а также 6456 немкам и 258 немцам.

Выяснилось также, что если написать по-французски «водитель» в женском роде (chauffeuse), добавив фотографию автомобиля, то объявление все равно будет увидят в основном мужчины, но такое же сообщение с фотографией косметики покажут в основном женщинам. Издание отмечает, что алгоритмы Facebook оказались более сексистскими, чем алгоритмы Google. В то же время в Google разница между показами мужчинам и женщинам ни разу не превысила 20%.

На просьбу прокомментировать результаты эксперимента ни один из цифровых гигантов не ответил. Зато Google удалил большую часть объявлений, оплаченных AlgorithmWatch.

nashagazeta.ch отмечает, что в 2019-м в журнале Proceedings of the ACM on Human-Computer Interaction вышло исследование, авторы которого также пришли к выводу, что у Facebook для разных профессий – разные «половые предпочтения». Так, объявление о поиске специалиста по лесозаготовкам чаще всего показывали мужчинам, а о вакансии детсадовского воспитателя – женщинам, даже если в настройках было указано, что они должны быть показаны одинаково часто мужчинам и женщинам.

Отмечается, что автоматическая, хотя и непреднамеренная дискриминация объясняется тем, что алгоритмы анализируют, какие видео, тексты или изображения пользуются наибольшей популярностью у разных пользователей в каждой категории и подбирают для них соответствующие записи.