Газета.Ru в Telegram
Новые комментарии +

Он ненавидит всех, кроме белых мужчин. Что не так с современным ИИ

Искусственный интеллект в Facebook посчитал афроамериканцев приматами

Пользователи Facebook обвинили алгоритмы ИИ платформы в расизме за то, что нейросеть приняла афроамериканцев на фото за обезьян. Это не единственный случай предвзятого отношения искусственного интеллекта к людям. В чем ранее обвиняли алгоритмы ИИ и в чем причины этого явления — в материале «Газеты.Ru».

Искусственный интеллект Facebook пометил темнокожих мужчин как «приматов», сообщил Mashable.

Об этом сообщили некоторые пользователи социальной сети, просматривающие видеозаписи с афроамериканцами. По их словам, алгоритмы Facebook, которые должны предоставлять пользователям релевантный контент, предложили им продолжить просмотр роликов с «приматами».

Сама компания принесла извинения пользователям и назвала ошибку, совершенную ИИ, недопустимой. Причем это не единственный случай, когда нейросети уличали в предвзятости.

В 2020 году ученые университета Нью-Йорка установили, что искусственный интеллект от Google, Microsoft и Amazon анализирует фотографии женщин и мужчин по-разному.

В ходе тестирования ИИ должен был составить аннотации к 20 официальным фотографиям политических деятелей, размещенным в Twitter. На снимках были десять женщин и десять мужчин.

Все мужчины были помечены алгоритмом Google ярлыками «бизнесмен» и «чиновник», а женщин отметили понятиями, связанными с внешностью, например, «волосы», «улыбка» и «шея».

Сервисы Amazon и Microsoft продемонстрировали менее очевидную предвзятость, хотя программа Amazon сообщила, что более чем на 99% уверена, что две из десяти женщин-сенаторов были либо «девушками», либо «детьми». У службы Microsoft возникли проблемы с определением пола по фотографиям женщин. Программа назвала женщинами только восемь из десяти участниц исследования, а двух других она пометила как мужчину и «человека другого пола».

Таким образом, ученые пришли к выводу, что ИИ необъективен и имеет гендерные предрассудки. Это связано в первую очередь с тем, что на фотографиях, используемых для тренировки алгоритмов зрения ИИ, часто изображены стереотипные ситуации, например, когда женщина стоит у плиты, а мужчина стреляет из оружия.

Исследователи AI Multiple утверждают, что такое поведение алгоритмов ИИ — следствие действий его создателей. Дело в том, что при обучении нейросетей специалисты используют неполный или содержащий предубеждения контент.

В 2014 году компания Amazon запустила кампанию по подбору персонала с помощью ИИ. Нейросеть должна была рассматривать резюме кандидатов и выносить решение о принятии на работу. Через год специалисты Amazon обнаружили, что новая система рекрутинга ИИ несправедливо оценивает кандидатов и проявляет предвзятость в отношении женщин.

Дело в том, что Amazon использовала для обучения нейросети данные, содержащие предрассудки в отношении женщин. Более того, 60% сотрудников компании были мужчинами, поэтому ИИ решил, что кандидаты мужского пола более предпочтительны.

В системе здравоохранения также нашлось место для предвзятого ИИ. Алгоритм прогнозирования рисков в области здравоохранения США был разработан для предсказания того, какие пациенты будут нуждаться в дополнительной медицинской помощи. Во время его работы выяснилось, что ИИ давал неправильные результаты — нейросети отдавали предпочтение белым пациентам перед афроамериканцами.

Разработчики использовали в качестве обучающего материала расходы предыдущих пациентов на здравоохранение как косвенный показатель медицинских потребностей. Это заставило ИИ думать, что у афроамериканцев нет нужды в дополнительной помощи.

Искусственный интеллект действительно способен сделать ошибки, которые для кого-то могут показаться забавными, а для кого-то оскорбительными, сообщил «Газете.Ru» основатель и директор по развитию Promobot Олег Кивокурцев.

«Это связано с тем, что нейронные сети, определяющие пол, возраст, настроение, расу человека, тренируются на больших данных и, возможно, эти большие данные могли привести к путанице. К таким ситуациям нужно относиться с понимаем и не принимать близко к сердцу», — заключил эксперт.

Новости и материалы
Ургант был вынужден объясняться перед налоговой из-за Блиновской
Фигуристка Туктамышева пошутила по поводу потери штанов во время выступления
Экс-тренер сборной России объяснил, почему «Краснодар» уволил Ивича
В полуфинале шоу «Маска» появятся два специальных конкурсанта
Зеленский заехал в Часов Яр
Баку и Ереван условились по согласованию проекта комиссий по делимитации границы
Савичеву раскритиковали за «распутные» танцы в ультракоротких шортах
В Тюмени молодой человек выпал с высоты девятого этажа
В Одесской области повреждена припортовая инфраструктура
Три арабские страны высказали обеспокоенность ударами Израиля по Ирану
Анастасия Костенко пожаловалась на безвыходное положение после рождения нового ребенка
Врач рассказала, какого стресса не нужно избегать
Невролог Демьяновская: здоровью вредит только длительный отрицательный стресс
Экс-министру энергетики Подмосковья Самарину избрана мера пресечения
«Меня уже тошнит, сколько можно?»: чемпион ОИ о новостях про Овечкина
Нетаньяху и Бербок поссорились из-за Газы
Анна Седокова рассказала о самом правильном решении в своей жизни
Выяснилось, как получил гражданство отец подозреваемого в нападении на байкера
На журналистку Татьяну Фельгенгауэр* могут завести уголовное дело
Все новости